أنتروبك ترفض طلب البنتاغون وتواجه العواقب
في 4 مارس 2026، صنف وزارة الدفاع الأمريكية شركة أنتروبك "كخطر على سلسلة الإمداد للأمن القومي". وفي اليوم التالي، أكد داليو أموداي أنه ستقوم الشركة برفع القضية إلى القضاء. بحلول 10 مارس، كانت الدعوى قد قُدمت إلى محكمة المنطقة الشمالية في كاليفورنيا، حيث قدمت مايكروسوفت وثيقة دعم، ووقع أكثر من ألف موظف من OpenAI وGoogle بيانا مشتركا يرفض العقوبات.
تكشف سرعة التصعيد شيئا لا تقوله البيانات الصحفية: ليست هذه مسألة تتعلق بالبنود التعاقدية. إنها الاختبار الأول للقوة المفتوحة بين الدولة وقطاع الذكاء الاصطناعي الخاص حول من يملك السلطة النهائية لتقرير ما يمكن أن يفعله نموذج ذكاء اصطناعي عندما تأتي التعليمات من زي عسكري.
العقد الذي أدى إلى التصعيد
في يوليو 2025، وقعت أنتروبك عقدا بقيمة 200 مليون دولار مع وزارة الدفاع. كانت الاتفاقية تتيح استخدام كود "كلود" في العمليات السرية، بما في ذلك متابعة المهاجرين لصالح خدمة الهجرة والجمارك وعمليات القبض على الأهداف ذات القيمة العالية. لكن العقد كان يتضمن قيودين صريحين: لم يكن بإمكان "كلود" اتخاذ قرارات قاتلة بشكل مستقل دون موافقة بشرية، ولم يكن بإمكانه تنفيذ مراقبة جماعية وغير مبررة على المواطنين الأمريكيين.
لم تكن هذه القيود مجرد نصوص صغيرة أو تنازلات في اللحظة الأخيرة. كانت جوهر القيمة المعروضة التي بنتها أنتروبك منذ تأسيسها في 2021، عندما غادر داليو أموداي ودانيلا أموداي OpenAI للتركيز على تطوير ذكاء اصطناعي يضمن الأولوية للأمان على السرعة التجارية. كان البنتاغون على علم بذلك عند التوقيع. وقد قبل به.
ما تغير هو الإدارة. ففي يناير 2026، أصدر وزير الدفاع بيت هيغسيث مذكرة بموجب الاستراتيجية المسماة "قوة القتال المعتمدة على الذكاء الاصطناعي"، والتي تطالب بأن تتضمن جميع عقود الذكاء الاصطناعي في وزارة الدفاع لغة "أي استخدام قانوني" خلال 180 يوما. تصادمت المذكرة مباشرة مع ما اتفقت عليه أنتروبك. في 24 فبراير، التقى هيغسيث شخصيا بأموداي وحذره من أنه إذا لم يرفع القيود قبل يوم الجمعة التالي، فسوف يستدعي المادة الأولى من قانون إنتاج الدفاع لفرض الامتثال أو المطالبة بإعادة تدريب النموذج.
رد أموداي بثلاث كلمات في عالم الأعمال يمكن أن تكلف كثيرًا: "لا يمكننا الامتثال".
ما لا يمكن لقانون الإنتاج الدفاعي شراؤه
تشكل التهديد باستدعاء المادة الأولى من قانون الإنتاج الدفاعي موضوع تحليل خاص لأنه يكشف عن هشاشة حجة الحكومة. تم تصميم هذا القانون لضمان الوصول الأولوية للدولة إلى الموارد الإنتاجية في أوقات الأزمات: الحديد، والرقاقات الإلكترونية، والمعدات الطبية. كانت تطبيقاته التاريخية متعلقة بالسلع المادية ذات سلاسل الإنتاج القابلة للتتبع.
إن تطبيقه على المبادئ التصميمية لنموذج لغوي يعد قفزة قانونية ذات أبعاد كبيرة. كما يشير تحليل Lawfare المقتبس في تغطية القضية، فإن المادة الأولى تعطي أولوية الوصول، ولكن ستجعل من الصعب للغاية المطالبة قانونيًا بإزالة الضمانات المدخلة في النموذج أو إعادة تدريبه. إن التشبيه مع مصانع الحديد لا يتحمل الوزن. يمكن لدولة أن تأمر مصنعًا بإنتاج الحديد للطوربيدات بدلًا من العوارض الإنشائية. لكن طلب تعديل القيم الأخلاقية المشفرة في نموذج الذكاء الاصطناعي من شركة هو منطقة قانونية بدون سوابق واضحة.
هذه الغموض هي، بقدر ما هي متناقضة، الأداة الأكثر فاعلية لدى وزارة الدفاع. كما تحذر تحليل Lawfare: إن التهديد بالإشارة إلى قانون نتائجه غير مفهومة للجميع قد يكون كافيًا للحصول على الاستسلام بدون الحاجة لاستخدامه. يحدث الضغط من خلال عدم اليقين. وعادة ما تعمل الضغوط في الشركات التي تمتلك مستثمرين وعقود معرضة للخطر بشكل أفضل من المراسيم.
اختارت أنتروبك الطريق الوحيد الذي يقضي على هذا الغموض: المحاكم.
خريطة الولاءات وما تكشفه عن القطاع
الأكثر دلالة في هذه الحالة ليس الدعوى، بل من يساند كل طرف وبأي سرعة.
قدمت مايكروسوفت أوراق دعم في نفس اليوم الذي قدمت فيه أنتروبك الدعوى، حيث جادلت أن الذكاء الاصطناعي لا ينبغي أن يستخدم لمراقبة واسعة النطاق داخليًا أو لبدء الحروب بدون تحكم بشري. ووقع جيف دين وأكثر من أربعين شخصية من الصناعة بيانا يحذر من أن عقوبات على شركة ذكاء اصطناعي أمريكية قد تضر بشدة بقدرة البلاد التنافسية العلمية والصناعية. كما حذر مجلس صناعة تكنولوجيا المعلومات، الذي يمثل Nvidia وAmazon وApple وOpenAI، من أن العقوبات قد تضعف وصول الحكومة نفسها إلى أفضل المنتجات والخدمات.
من الجانب الآخر، قبلت شركات مثل xAI لألون ماسك شروط البنتاغون للعمل سرًا، مما عزز شقًا مرئياً في القطاع بين أولئك الذين يعتقدون أن الموقف الأخلاقي له تكلفة فرصة غير مقبولة وأولئك الذين يعتبرون أن التضحية هو بداية تراجع لا عودة عنه.
هذه الشق ضروري لأنه يكشف عن المنطق الأساسي لكل نموذج عمل. شركة تعتمد بشكل حاسم على العقود الحكومية لدعم نموها لديها هامش ضئيل للغاية للحفاظ على مواقف تثير قلق أكبر عميل في السوق. بينما شركة بنت تميزها بالفعل على القيود التي يرغب الحكم في إزالتها لديها مشكلة معكوسة: فإن تقديم التنازلات سيسحق الأصل الذي يجعلها قيمة.
لا تدافع أنتروبك عن مبادئ بصورة مجردة. إنها تدافع عن الميزة التنافسية الوحيدة التي تميزها عن منافسيها في سوق حيث تتقارب النماذج التقنية كل ربع سنة.
السابقة التي لا يريد أحد تسميتها
إذا فاز البنتاغون بهذه القضية، فإن الأثر على الصناعة لن يكون فوريًا أو دراماتيكيًا. سيكون تدريجياً ومنهجياً. وكل شركة تتفاوض على عقد فدرالي للذكاء الاصطناعي ستعرف أن أي قيود على الاستخدام قد تعتبر خطرًا على الأمن القومي في وقت سياسي متوتر. هذه اليقين تغير الحوافز التصميمية قبل توقيع أي اتفاق.
عبر مجلس صناعة تكنولوجيا المعلومات ذلك بدقة تقنية: قد تحد العقوبات من وصول الحكومة إلى أفضل المنتجات المتاحة. المفارقة هي أنه من خلال الضغط لإزالة القيود، قد ينتهي الأمر بالدولة إلى الحصول على نماذج أكثر طاعة ولكن أقل كفاءة، تم تطويرها من قبل الشركات التي تعلمت بناء بدون قيود لأن القيود أصبحت غير ملائمة سياسياً.
ستتحتم محكمة المنطقة الشمالية في كاليفورنيا حل سؤال لا يزال الكونغرس لم يجيب عليه: هل يمكن لشركة خاصة أن تحدد تعاقديًا قيود الاستخدام على تقنيتها عندما ينطوي هذا الاستخدام على قرارات قاتلة، أو إذا كانت عقيدة الأمن القومي يمكن أن تذيب أي اتفاق خاص عندما تعتبره غير مناسب.
يقترح خبراء في القانون الإداري تم الاستشهاد بهم في تغطية القضية أن الحل الهيكلي ليس في المحاكم ولكن في الكونغرس، الذي لم يقم حتى الآن بتحديد إطار تشريعي محدد للاستخدام العسكري لأنظمة الذكاء الاصطناعي. بينما يستمر هذا الفراغ، يملا البنتاغون الفضاء بمذكرات، وترد الشركات بدعوات.













