الذكاء الاصطناعي الذي رفضه البنتاغون ولا تستطيع واشنطن تجاهله

الذكاء الاصطناعي الذي رفضه البنتاغون ولا تستطيع واشنطن تجاهله

في الخامس من مارس 2026، أدرجت وزارة الدفاع الأمريكية شركة Anthropic في قائمة طالما احتجزتها للخصوم الأجانب: فئة المخاطر في سلسلة التوريد. كان الإجراء مباشراً وصارماً. فإن صمد، كان بإمكانه قطع وصول الشركة إلى العقود الفيدرالية التي تبلغ قيمتها مليارات الدولارات من جذورها.

Elena CostaElena Costa١٩ أبريل ٢٠٢٦6 دقيقة
مشاركة

الذكاء الاصطناعي الذي رفضه البنتاغون وعاجزت واشنطن عن تجاهله

في الخامس من مارس عام 2026، أدرجت وزارة الدفاع الأمريكية شركةَ Anthropic في قائمة طالما احتجزتها لأعدائها من الخارج: فئة مخاطر سلسلة التوريد. كانت الخطوة مباشرةً وصارمةً لا تقبل الالتباس. فلو صمدت هذه التصنيفة، كان من شأنها أن تقطع على الشركة في مهدها إمكانيةَ الوصول إلى عقود فيدرالية تُقدَّر قيمتها بمليارات الدولارات. وفي حقيقة الأمر، كان هذا الإجراء يُعادل الإعلان صراحةً بأن أحد أكثر صانعي الذكاء الاصطناعي تقدماً في البلاد يُشكّل تهديداً على الأمن القومي.

بعد أربعة أيام من ذلك، رفعت Anthropic دعوى قضائية ضد البنتاغون. وبعد ستة أسابيع، كان داريو أموداي، الرئيس التنفيذي للشركة، يجلس في اجتماع وصفته البيت الأبيض بأنه "مثمر وبنّاء"، إلى جانب سوزي وايلز، رئيسة الديوان، وسكوت بيسنت، وزير الخزانة. وهكذا، كانت الإدارة ذاتها التي أعلنت Anthropic عدوّةً لها، تبحث الآن عن صيغ للتعاون معها.

هذا التحوّل الظاهري ليس مجرد تناقض عابر. إنه إشارة دالّة على أن الاعتماد الاستراتيجي للولايات المتحدة على نسيجها التكنولوجي الداخلي يُوجِد شقوقاً داخل الحكومة ذاتها، وأن لتلك الشقوق تداعيات اقتصادية وجيوسياسية لا يستطيع أي مسؤول أن يتهاون في تقديرها.

حين يتحوّل الأصل الوطني إلى مشكلة في المشتريات

مصدر النزاع محدّد بدقة: رفضت Anthropic السماح باستخدام نماذجها في الأسلحة المستقلة أو في برامج المراقبة الجماعية الداخلية. لم يكن ذلك موقفاً فلسفياً مجرّداً، بل كان بنداً تشغيلياً ملموساً في مفاوضات العقود، وهو ما لم يكن البنتاغون مستعداً للقبول به.

ما تلا ذلك يكشف بجلاء الفارق بين منطقَين مؤسسيَّين يعملان جنباً إلى جنب داخل الحكومة الأمريكية. المنطق العسكري يسعى إلى وصول غير مقيّد إلى التكنولوجيا التي يمكن دمجها في أنظمة القرار المستقلة. أما المنطق المدني، الذي يمثّله الخزانة والبيت الأبيض في هذه الحالة، فيرى في Anthropic أصلاً استراتيجياً لتعزيز التنافسية الوطنية في مجالات الأمن السيبراني والمصارف والسباق العالمي للذكاء الاصطناعي.

انكشف التوتر بين المنطقين حين تسرّبت معلومات مفادها أن كل الوكالات الفيدرالية تقريباً، باستثناء وزارة الدفاع، ترغب في استخدام تكنولوجيا Anthropic. هذه المعلومات، التي أكّدتها مصادر داخل الإدارة ذاتها لموقع Axios، تحوّل تصنيف البنتاغون إلى ما وصفه المؤسس المشارك جاك كلارك بأنه "خلاف تعاقدي محدود النطاق"، لا حكماً شاملاً بحق الشركة.

ولا يزال الضرر المالي الواقع على Anthropic حقيقةً لا يمكن إنكارها. فتصنيف مخاطر سلسلة التوريد لا يتبدّد بمجرد رغبة وكالات أخرى في استخدام منتجاتها. وفيما يتقدّم التقاضي دون جدول زمني محدّد، تعمل الشركة في ظل حالة من الضبابية القانونية التي تُلقي بظلالها الثقيلة على أي تفاوض بعيد المدى مع القطاع العام.

النموذج الذي رفض عقداً عسكرياً وصل إلى المرتبة الثانية في متجر التطبيقات

ثمة آلية سوقية في هذه الحادثة تستحق أن تُعالَج بشكل منفصل. حين أعلنت OpenAI عن اتفاقيتها مع البنتاغون في الأول من مارس 2026، كانت ردّة فعل سوق المستهلكين فورية: صعد Claude من Anthropic إلى المرتبة الثانية في متجر التطبيقات App Store. قرار إحدى الشركات بإبرام عقد عسكري أسهم مباشرةً في رفع معدلات تنزيل منافستها.

هذا ليس شيئاً عرضياً أو هامشياً. إنه يكشف عن شريحة واسعة على الأرجح من المستخدمين، يرون في موقف Anthropic من التطبيقات العسكرية ليس ضعفاً تجارياً، بل تمايزاً حقيقياً في المنتج. ومن حيث الاقتصاد التشغيلي، تتحوّل هذه النظرة إلى اكتساب عضوي للمستخدمين دون إنفاق في التسويق. إنه تحويل الموقع الأخلاقي إلى ميزة تنافسية فعلية.

يُضاف إلى هذا الإشارة التي بعث بها بيسنت ورئيس مجلس الاحتياطي الفيدرالي جيروم باول، حين حثّا في أبريل كبرى مصارف البلاد على اختبار Mythos، النموذج الجديد من Anthropic. حين يوصي أبرز مسؤوليَن ماليَّين في البلاد بشكل نشط بتكنولوجيا بعينها لأمام القطاع المصرفي، فهما يرسمان مساراً للتبنّي لا يقوم على عقود الدفاع. فالسوق المالية، بمتطلبات الامتثال التنظيمي التي تحكمها وحساسيتها تجاه مخاطر السمعة، قد تكون مربحةً بالقدر ذاته أو أكثر من القطاع العسكري، مع احتكاك تنظيمي أخفّ بكثير.

ما يجري، حين يُقرأ وفق منطق المراحل التكنولوجية، هو انتقال متسارع من مرحلة خيبة الأمل إلى مرحلة التحوّل الجذري في سوق الذكاء الاصطناعي الحكومي. فلسنوات طويلة، وعدت نماذج اللغة الكبيرة بإحداث ثورة في الإدارة العامة دون أن تُثبت ذلك بصورة ملموسة. والمفارقة أن النزاع بين Anthropic والبنتاغون قد عجّل بالتوضيح: أيّ الوكالات جاهزة لتكامل الذكاء الاصطناعي بطريقة مسؤولة، وأيّها لا تزال أسيرةَ أنظمة مشتريات صُمِّمت أصلاً للأجهزة العسكرية التقليدية.

الشرخ الداخلي الذي لا ينبغي لأي رئيس تنفيذي إغفاله

لأي شركة تتفاوض اليوم مع الحكومات على إدراجها في البنية التحتية الحيوية، تُقدّم قضية Anthropic نمطاً سيتكرر لا محالة. المؤسسات الحكومية ليست كتلة صمّاء متجانسة؛ بل هي تحالفات من الوكالات ذات الحوافز والميزانيات والثقافات التنظيمية المتباينة. التعامل مع حكومة ما باعتبارها عميلاً وحيداً موحّداً هو أولى أخطاء التصميم الاستراتيجي.

أدارت Anthropic هذا التعقيد بدقة تستحق التأمّل والتحليل. بينما كان التقاضي مع البنتاغون يسير قُدُماً، حافظت الشركة على تشغيل قنوات التواصل مع فروع أخرى في الحكومة، ليس بوصفها تنازلاً تكتيكياً مرحلياً، بل بوصفها موقفاً هيكلياً راسخاً. وقد أكّد كلارك ذلك صراحةً بإعلانه أن النزاع لن يُعيق جلسات الإحاطة التي تُقدّمها الشركة للحكومة حول نماذجها. هذا التمييز الجوهري بين العقد والحوار هو ما حفظ رأس المال الدبلوماسي الضروري لأن ينعقد في السابع عشر من أبريل الاجتماع مع وايلز وبيسنت.

الخطر الباقي، والذي لا يحسمه أي اجتماع مثمر بمفرده، هو اللاتماثل في موازين القوى داخل التقاضي. فوزارة الدفاع تُدير أضخم ميزانية مشتريات تكنولوجية في العالم. وأي شركة خاصة، مهما كانت متانةُ مكانتها التقنية ومشروعيتها أمام وكالات أخرى، تواجه تكاليف قانونية وتأخيرات وضغطاً مؤسسياً كفيلاً بتآكل موقفها التفاوضي مع مرور الوقت.

مشاركة

قد يعجبك أيضاً