عندما تدخل الذكاء الاصطناعي في الحرب، يتوقف المنتج عن كونه النموذج ويصبح التحكم هو الهدف

عندما تدخل الذكاء الاصطناعي في الحرب، يتوقف المنتج عن كونه النموذج ويصبح التحكم هو الهدف

ألغى البنتاغون عقدًا بقيمة 200 مليون دولار مع أنثروبيك ووقع بعد ساعات مع OpenAI، مما يشير إلى تحول في سلسلة إمداد الذكاء الاصطناعي.

Elena CostaElena Costa٦ مارس ٢٠٢٦6 دقيقة
مشاركة

عندما تدخل الذكاء الاصطناعي في الحرب، يتوقف المنتج عن كونه النموذج ويصبح التحكم هو الهدف

لا تتعلق هذه الأخبار بنزاع تعاقدي آخر بين مزود تكنولوجيا وحكومة الولايات المتحدة، بل تتعلق بتحول في السلطة في سلسلة إمداد الذكاء الاصطناعي المُطبق على الأمن الوطني. في 6 مارس 2026، ألغى وزارة الدفاع الأمريكية عقدًا بقيمة 200 مليون دولار مع شركة أنثروبيك واعتبرت الشركة "خطراً على سلسلة الإمداد من حيث الأمن الوطني"، وهو تصنيف الذي، وفقاً للتقارير، تم حجزه تاريخياً للخصوم الأجانب. وفي غضون ساعات، أغلق البنتاغون صفقة بديلة مع OpenAI لتطبيقات مغلقة. تم كل هذا نتيجة لخلاف محدد: رفضت أنثروبيك سحب الحماية التعاقدية ضد المراقبة الجماعية المحلية واستخدام الأسلحة المستقلة كلياً دون إشراف بشري مهم.

الجانب التشغيلي الذي يجعل هذا أكثر جدية هو أن كلاود كانت متكاملة بعمق بالفعل: فقد تم نشرها في الشبكات الحكومية السرية، وفي المختبرات النووية الوطنية، وفي تدفقات تحليل المعلومات الاستخباراتية، من خلال منصة الذكاء الاصطناعي التابعة لPalantir. إلغاء عقد لا يعني إزالة نظام موجود بالفعل ضمن عمليات حاسمة. لهذا السبب فتح البنتاغون فترة انتقالية مدتها ستة أشهر لإخراج كلاود من أنظمتها.

برؤية تجارية، تعكس هذه القصة كيفية "تحويل" الذكاء الاصطناعي إلى منتج عندما تكون التسامحات للأخطاء محدودة. في الاستهلاك، يكون المنتج هو الأداء. في الدفاع، يصبح المنتج هو الأداء مع التحكم: من يقرر، كيف يتم تحديده، كيف يتم تدقيقه، وكيف يتم الاستجابة عندما يخطئ النموذج.

البنتاغون لا يشتري الذكاء الاصطناعي، بل يشتري خيارات تشغيلية

في 9 يناير 2026، نشر وزارة الحرب استراتيجية تسريع الذكاء الاصطناعي، التي وصفها بأنها الأكثر عدوانية من استراتيجياتها الأخيرة. حدد الوثيقة سبعة مشاريع "علامات مرور" — من أسراب طائرات بدون طيار مستقلة إلى إدارة المعارك المُعززة بالذكاء الاصطناعي — ووضعت شرطًا مركزيًا يفسر الاصطدام: يجب أن تكون النماذج المتعاقد عليها قابلة للنشر ضمن 30 يومًا بعد إطلاقها للجمهور وقابلة للاستخدام لـ "جميع الأغراض المشروعة".

تلك العبارة، "جميع الأغراض المشروعة"، هي المتطلب الحقيقي للمنتج. في بيئة يتطور فيها الخصم بسرعة مع تقنيات واستراتيجيات، يسعى المشتري المؤسسي لتجنب عنق الزجاجة في إعادة التفاوض على الأذونات كلما ظهرت حالة استخدام جديدة. بعبارة أخرى: يسعى للحصول على خيارات. الرهان الضمني هو أن الحماية يجب أن تكمن في نظام يتم التحكم فيه بدلًا من عقد يتم تفسيره.

رد البنتاغون، الذي عبر عنه سكرتير الدفاع بيت هيغسث أثناء إلغاء العقد، يتهم أنثروبيك بمحاولة الحصول على "سلطة نقض" على العمليات العسكرية، وبتبني موقف غير متوافق مع المبادئ الأمريكية. خلف الكلام، تبدو منطقية الشراء واضحة: الدفاع يريد مزودين يقبلون بالإطار الواسع ويحلوا حدود الاستخدام ضمن نطاقٍ تشغيلي.

هنا تظهر توتر تعترف به القيادات المؤسسية على الفور. عندما يتحول نظام الذكاء الاصطناعي إلى بنية تحتية حاسمة، يسعى العميل لتقليل الاعتماد والاحتكاكات. وعندما يخشى المزود من استخدام تقنيته في سيناريوهات يعتبرها غير مقبولة، يحاول اتخاذ تدابير وقائية. الاصطدام ليس حادثًا؛ إنه عرض لكون الذكاء الاصطناعي لم يعد أداة، بل القدرة.

الخط الأحمر لأنثروبيك حول الأمن إلى مسألة معمارية، وليس تسويقية

صممت أنثروبيك شرطين غير قابلين للتفاوض: لا لمراقبة جماعية محلية على المواطنين الأمريكيين ولا لاستخدام الأسلحة المستقلة كليًا دون إشراف بشري مهم. حسب التقارير، وصف البنتاغون تلك الفئات بأنها مناطق رمادية واعتبرت "غير عملية" التفاوض عنها حالة بحالة.

قراءة فاحصة هي قاسية لكنها مفيدة: في السيناريوهات المتطرفة، يعاقب المشتري على الغموض التشغيلي. بند يعتمد على التفسير القانوني والسياق السياسي يصبح احتكاكًا عندما يحتاج النظام للعمل في الوقت الحقيقي ومن خلال قيادات متعددة، وحلفاء، ومجالات ودرجات تصنيف.

العنصر الأكثر كشفًا هو أن كلاود كانت، وقت النزاع، النموذج الوحيد للذكاء الاصطناعي المعمول به في الشبكات السرية للبنتاغون. بمعنى آخر: "الخطر" لم يكن أن أنثروبيك لم تكن داخله، بل كانت بالفعل داخل به بشكل كبير، ومع ذلك، كان هناك إمكانية لمزود أن يحدد استخدامه أو تطور نشره. في البنية التحتية الحرجة، أسوأ سيناريو للمشتري ليس الفشل الفني؛ بل نقص إدارة المورد.

هناك أيضًا جانب ثانٍ: تصنيف "خطر سلسلة الإمداد" لا يقطع فقط عقدًا؛ بل قد تمتد إلى المتكاملين والشركاء. تذكر التغطية أن جوجل، وSalesforce، وNVIDIA هم مستثمرون أو شركاء للهندسة. بالنسبة لأي شخص يبيع للحكومة أو لمقاولي الدفاع، فإن تصنيف الخطر في سلسلة الإمداد يُلزِم بتقسيم العمليات، ورفع جدران الحماية الداخلية، وفي بعض الحالات، التخلي عن جزء من السوق لحماية جزء آخر.

على صعيد التأثير البشري، فإن الإشارة حرجة بالمثل: إذا تمت مناقشة الحواجز ضد المراقبة الجماعية والأسلحة المستقلة كمنطقة "رمادية"، فإن السوق بحاجة إلى تصاميم للتحكم القابلة للتحقق. بدون التحقق، يصبح النقاش مجرد ثقة وسرد. وفي الدفاع، تدوم السرديات بقدر ما تدوم أزمة.

OpenAI وتغيير وحدة القيمة: من البنود إلى التحكمات التشغيلية

بعد ساعات من الإلغاء، وقع البنتاغون مع OpenAI. دافع سام ألتمان علنًا بأن توجهه يحتفظ بنفس المبادئ التي دافعت عنها أنثروبيك، ولكن بآليات مختلفة: قبول الإطار الخاص بـ "جميع الأغراض المشروعة" وفرض تحكمات معمارية. وفقًا للمعلومات المُقتبسة، أفادت OpenAI بأنها شكلت مخططًا بنشر سحابي، وطبقة أمان ملكية قبلها البنتاغون بعدم إلغاءها ووجود موظفين معتمدين مدمجين لتشغيل وصيانة الحواجز في البيئات السرية.

إذا استمر هذا في الممارسة، فهو تغيير في المنتج: النموذج يتحول إلى مكون، والعرض الحقيقي هو حزمة نشر، ورصد، وتحديد، واستجابة وصيانة تحت ظروف قاسية.

بالنسبة لأحد مدراء المال أو مسؤول المخاطر، فإن الموازنة المؤسسية فورية. في القطاعات المنظمة، تعلمت الشركات بالفعل أن "شراء الذكاء الاصطناعي" يعني شراء نظام كامل: السيطرة على الوصول، وتتبع، وتسجيل، وتقييم التحيز وآليات التصعيد عندما تحدث الحوادث. يأخذ الدفاع هذه المنطق إلى الحد الأقصى، مع معضلة إضافية: تحفز الحوافز التشغيلية السرعة والقابلية للتكيف.

تظهر النزاعات أيضًا تقسيم السوق للذكاء الاصطناعي المتقدم. في يوليو 2025، حصلت أربع شركات على عقود محتملة تصل إلى 200 مليون دولار: أنثروبيك، OpenAI، جوجل وxAI. في هذه اللعبة، تقبل بعض المزودين باللغات الواسعة للاستخدام بينما يطالب آخرون بحظر بنود تعاقدية صريحة. ليست نقاش فلسفي؛ إنها قرار تجاري حول أين يتم وضع الخطر وكيفية تحقيق أرباح من قطاع ذي قيمة عالية.

التكلفة الحقيقية تكمن في "الانفصال" ومن يتحكم في الاعتماد

هناك بيانات مدفونة في التغطية تحمل وزناً أكبر من أي عنوان: سحب كلاود من الشبكات السرية سيستغرق ستة أشهر. وصف مسؤول اقتبس ذلك بأنه ألم هائل لفهم الأمور. تلك العبارة تلخص الاقتصاد السياسي للذكاء الاصطناعي في المؤسسات الكبرى.

بمجرد أن يتم توصيل نموذج بتدفقات التحليل، الوثائق، تقييم الاستخبارات والنمذجة التشغيلية، يصبح الاعتماد هيكليًا. الكلفة ليست في ترخيص النموذج؛ بل في إعادة تصميم العمليات، في تدريب المستخدمين، في الوصلات، في التكيف مع التصنيفات، في التحقق وإعادة اعتماد الأمان. تصبح "الخروج" مكلفة مثل "الدخول".

وعندما تكون الخروج مكلفة، تصبح الإدارة أداة قوية. لذا أصبحت النقاشات تدور حول من يمتلك النموذج الأفضل، بل حول من يقدم ضمانات أفضل للاستمرارية، والتحكم، والامتثال. حاول البنتاغون حل ذلك من خلال القوة القاسية التعاقدية والسمعة من خلال تصنيف "خطر سلسلة الإمداد". حاولت أنثروبيك حلها من خلال حدود صريحة بعقد. بينما، وفقًا للتقارير، حلت OpenAI ذلك من خلال تصميم تحكمات وشروط التشغيل.

هناك أيضًا عنصر تشغيلي: تم الإبلاغ عن أن القيادة المركزية الأمريكية استخدمت ذكاء أنثروبيك خلال عملية "Epic Fury"، وهي عملية منسقة بين الولايات المتحدة وإسرائيل ضد إيران، لتقييم الاستخبارات، وتحليل الأهداف، والنمذجة التشغيلية. هذا لا يثبت تفوقاً تقنياً لأي مزود؛ بل يثبت التكامل الحقيقي. والتكامل الحقيقي هو الساحة التي تُخاض فيها هذه المعارك.

بالنسبة للسوق المدني، فالإشارة غير مريحة لكنها مفيدة: لا تنتهي المحادثة حول الحواجز بخطوط "المبادئ" أو "الوعود". تنتهي بآليات قابلة للتحقق، مع مسؤولية موزعة وتتبع. إذا لم تتمكن المنظمة من إثبات كيفية تحديد نظام تحت الضغط، فحينها لا تتحكم في النظام؛ بل تنتظره.

النافذة للقادة: تحويل الذكاء الاصطناعي إلى ذكاء معزز مع إدارة قابلة للقياس

من وجهة نظري، يؤكد هذا الحدث انتقالًا: ينتقل الذكاء الاصطناعي من كونه برمجيات إلى بنية تحتية استراتيجية. في هذا الانتقال، يتوقف التفوق التنافسي عن كونه الوصول إلى النموذج ويتحول إلى القدرة على التحكم فيه دون إبطاء العمليات.

بالنسبة للقيادات الأعمال، تتمثل هذه النقطة في ثلاثة قرارات ملموسة.

أولاً، التفريق بين "قدرة النموذج" و"قدرة التحكم". الكثير من الشركات تشتري الأداء ثم تخترع تدقيقًا، وحدودًا، وسجلاتٍ واستجابة للحوادث. في القطاعات الحساسة، هذا يعد استثمارًا عكسيًا. يجب أن يتم تصميم الإدارة وشراؤها كمنتج منذ اليوم الأول.

ثانيًا، تصميم الاعتماد مع خطة للخروج. إذا كان الانفصال عن نموذج يستغرق ستة أشهر في بيئات حيث المال ليس المحدد الرئيسي، فقد يستغرق ذلك وقتًا أطول في الشركات. القابلية للنقل، والمعايير الداخلية، ومعمارية التكامل هي استراتيجيات مالية، وليست قرارات تقنية معلومات.

ثالثًا، التأكيد على الذكاء المعزز كمنهج تشغيلي: إشراف ذو مغزى، وتتبع القرارات، ومسؤولية واضحة. الكفاءة بدون وعّي تعد تفشي للأخطاء، وفي الأنظمة الحرجة يصبح الخطأ ضررًا.

دخل هذا السوق مرحلة حيث تسارع الرقمنة من الاعتماد، وتأتي خيبة الأمل عندما لا يكون التحكم جاهزًا، والتعطيل يحدث عندما تصبح الإدارة أكثر قيمة من النموذج. يجب أن تمكن التقنية الحكم البشري من خلال ضوابط قابلة للقياس، ووصول مسؤول، مع دمقرطة القدرات دون دمقرطة الضرر.

مشاركة

قد يعجبك أيضاً