في خطوة أثارت جدلا كبيرا، أعلن الجنرال الأمريكي وليام هانك تايلور أنه يستخدم أداة ChatGPT لدعم اتخاذ بعض القرارات الإدارية والقيادية داخل الجيش، التصريح، الذي أثار دهشة في الأوساط العسكرية والتقنية على حد سواء، دفع إلى تساؤلات حادة، إلى أي مدى يمكن الاعتماد على خوارزميات تجارية في مجال حساس كالقرارات العسكرية؟ وهل أصبحت الخوارزمية أكثر من مجرد أداة مساعدة إلى أن تتحول إلى حُكَم فعلية على الأرض؟ وبحسب تقرير في Ars Technica، قال الجنرال إن استخدامه ليس في ساحات القتال، بل في الإدارة والتخطيط "لأهداف يومية"، لكن التأثير الرمزي للتصريح أعطاه بعدًا أخطر من ذلك، كما ورد في Futurism أن الجنرال وصف العلاقة بينه وبين الأداة بأنها "قريبة" وأنه يسعى لبناء نماذج تساعد في تحسين عملية اتخاذ القرار داخل قيادته. ولعل هذا التصريح يشكّل نقطة تحول رمزية في العلاقة بين الإنسان والخوارزمية، فهو ينقل الجدل من استخدام الذكاء الاصطناعي في المهام الداعمة إلى محاولة إضفاء طابع “الحكم والمصير” عليه، وهو ما يثير القلق من الاعتماد المفرط على الخوارزميات في مواقف حساسة. الذكاء الاصطناعي في المجال العسكري اليوم قبل أن تناول حديث الجنرال الأمريكى، لا بد من إلقاء نظرة أوسع على الكيفية التي بات يُستخدم بها الذكاء الاصطناعي داخل الهياكل العسكرية حول العالم، والتي تجاوزت مرحلة "المساعدة التقنية" إلى أن أصبحت جزءًا من منظومة القرار والتخطيط والتنبؤ الميداني. حيث تُوظّف الجيوش الحديثة اليوم أنظمة الذكاء الاصطناعي في مجالات شديدة الحساسية، من تحليل كميات هائلة من البيانات الاستخباراتية القادمة من الأقمار الصناعية وأجهزة الاستشعار والطائرات بدون طيار، إلى توقع تحركات الخصم ورسم سيناريوهات قتالية في الزمن الحقيقي. ففي مراكز القيادة، تُستخدم خوارزميات التعلّم العميق (Deep Learning) لفرز الصور الجوية والتقاط الأنماط الدقيقة التي قد لا تراها العين البشرية، بينما تُستخدم نماذج التنبؤ الاحتمالي (Predictive Models) في تحديد المخاطر الميدانية ومسارات الإمداد المثلى. وهناك أيضًا مفهوم متطور يعرف باسم "Agentic AI"، وهو جيل من تقنيات الذكاء الاصطناعي القادرة على متابعة مخرجاتها ذاتيًا، والتنسيق بين مهام متوازية، واتخاذ قرارات جزئية بشكل مستقل ضمن حدود معينة، هذه الأنظمة تُستخدم لتقليل زمن الاستجابة الميدانية، خاصة في البيئات التي تتطلب اتخاذ قرارات فورية بناءً على مئات المدخلات الحسية والرقمية في وقت واحد. ولعلّ أبرز مثال على الدمج بين الذكاء الاصطناعي والميدان هو مشروع "Project Maven" التابع للبنتاجون، الذي أُطلق عام 2017 لتحليل الصور الملتقطة عبر الطائرات بدون طيار باستخدام خوارزميات تعلم آلي قادرة على التعرف على الأهداف وتصنيفها بدقة. وهذا المشروع مثّل بداية مرحلة جديدة من “الأتمتة القتالية” وأثار حينها جدلاً أخلاقيًا واسعًا داخل المجتمع العلمي، خاصة بعد استقالة عدد من مهندسي شركة جوجل احتجاجًا على تورّط الشركة في دعمه، ولعل هذا الدمج بين أداة مدنية وقرار عسكري يعيد فتح النقاش حول حدود الاعتماد على الذكاء الاصطناعي في صناعة القرار السيادي، وما إذا كانت الخطوط الفاصلة بين الاستخدام المساعد والاستخدام الحاكم بدأت تتلاشى بالفعل. لعل القلق الأكبر الذي يعبّر عنه الخبراء اليوم هو ما يُعرف بـ "إغراء الاعتماد على الخوارزمية"، أي ميل القادة أو صانعي القرار إلى الوثوق في مخرجات أنظمة الذكاء الاصطناعي أكثر مما ينبغي، خاصة في المواقف التي تتطلب تقديرًا إنسانيًا دقيقًا يتجاوز الأرقام والمعطيات التقنية، وبحسب تقرير الأكاديمية السويسرية للقانون الدولي الإنساني – Geneva Academy (2024)، فإن الاستخدام العسكري للذكاء الاصطناعي يخلق "خطرًا هيكليًا" يتمثل في انحياز الأنظمة بناءً على طبيعة البيانات التي تدربت عليها، مما يجعلها عرضة لتكرار أخطاء بشرية بنمط جديد وأكثر تعقيدًا. كما تُحذر Geneva Academy من أن إدماج الذكاء الاصطناعي في عمليات القيادة والسيطرة دون وضوح في التسلسل القانوني قد يؤدي إلى “فراغ في المسؤولية”، ما يضعف آليات المحاسبة في حال ارتكاب أخطاء أو انتهاكات. وعلى الرغم من قدرات النماذج اللغوية مثل ChatGPT في تحليل النصوص وتوليد التوصيات بسرعة مذهلة، فإنها تفتقر إلى الفهم الحقيقي للسياق الميداني أو الأبعاد الإنسانية للحرب، وكما أوضح اللجنة الدولية للصليب الأحمر (ICRC) في مدونة بحثية عام 2024، فإن هذه الأنظمة لا تدرك “النية، الخطر غير المتوقع، ولا الديناميات النفسية للمقاتلين أو المدنيين”، مما يجعلها أداة تحليل لا يمكنها استبدال الحدس الإنساني أو التجربة الميدانية. كما نشر موقع Ars Technica تقريرًا مفصلًا أشار فيه إلى أن النماذج اللغوية العامة يمكن التلاعب بمخرجاتها أو استغلالها عبر ما يعرف بـ prompt injection attacks، وهي تقنيات تسمح بإعادة توجيه النموذج لإفشاء معلومات أو تنفيذ أوامر لم تكن مقصودة في الأصل، وفي السياق العسكري، قد يؤدي مثل هذا الاختراق إلى كشف بيانات عملياتية أو التأثير على قرارات حساسة، كذلك فحتى في حال اقتصار دور الخوارزميات على “المساعدة” فقط، فإن الضغط الزمني في العمليات العسكرية قد يدفع القادة إلى الاعتماد شبه الكامل على التوصيات الآلية، خصوصًا في البيئات التي تتطلب قرارات لحظية. وفي نفس السياق عبّر عدد من الخبراء عن قلقهم من الاعتماد على خوارزميات تجارية في مواقف تتعلق بالحياة والموت، حيث أن الجنرال جاك شانهان، المدير السابق لمركز الذكاء الاصطناعي المشترك في البنتاجون، قال في تصريحات سابقة أن استخدام أدوات مثل ChatGPT يجب أن يتم "بحذر شديد"، مؤكداً أن أي محلل استخبارات حالي "لن يعتمد على هذه الأنظمة إلا مع كثير من الشك"، مشيراً إلى مشكلة "الهلوسة" في النماذج اللغوية التي قد تولد معلومات غير صحيحة. كما حذرت منظمة Arms Control Association من أن تصاعد استخدام تقنيات توليد النصوص في المجال العسكري قد يؤدي إلى "قرارات متسرعة أو خاطئة" في الميدان، خاصة إذا لم تكن هناك آليات تحقق بشرية صارمة تسبق التنفيذ، وفي جلسة نقاشية نظمتها رابطة الجيش الأمريكي (AUSA) في عام 2023 ، شبّه أحد الخبراء العسكريين الاعتماد على النماذج اللغوية مثل ChatGPT بـ"محاولة غلي المحيط لتحضير فنجان قهوة"، في إشارة إلى المبالغة في استخدام الذكاء الاصطناعي لحل مشاكل ميدانية معقدة لا يمكن حصرها في معادلات رقمية.