التحذير الذي لا يقرأه أحد بشكل صحيح
في الخامس من مارس 2026، صعد أليكس كارب إلى منصة قمة a16z وأطلق عبارة أحدثت ضجة أكثر بسبب مفرداتها من محتواها. حذر الرئيس التنفيذي لشركة بالانتير تكنولوجيز من أنه إذا تسببت شركات الذكاء الاصطناعي في فقدان وظائف ذوي الياقات البيضاء بينما ترفض عقود الجيش، فإن النتيجة الحتمية ستكون تأميم تقنياتها. تفاعلت القاعة مع الصفة التي استخدمها. تكاد تكون أي من الحضور قد استوعبت الآلية الهيكلية التي كان يصفها.
ما صاغه كارب بدقة هو منطق ضغط سياسي يعمل بغض النظر عن توافقك معه: صناعة تتسبب في خسائر هائلة في الوظائف بين فئات التعليم العالي، وفي نفس الوقت ترفض الاستجابة للمصالح الدفاعية الوطنية، تكتسب أعداء من كلا طرفي الطيف السياسي. وهذا ليس أيديولوجيا، إنه حساب رياضي.
لكن النزاع بين وزارة الدفاع الأمريكية وأنتروبيك — الشركة التي أسسها داريو أمودي — يكشف شيئًا أعمق من مجرد صراع تعاقدي. إنه يكشف كيف تعمل الفرق التي تصمم تكنولوجيا ذات عواقب لا يمكن عكسها مع هيكلية اتخاذ قرارات تركز وجهات نظر بدلاً من تنويعها، وأن هذه التركيز له تكلفة تشغيلية ملموسة.
عندما يكون المنتج في الميدان قبل أن تُحل السياسة
في الرابع من مارس 2026، تم تصنيف أنتروبيك من قبل وزارة الدفاع على أنها "خطر في سلسلة الإمداد"، وهي فئة عادة ما تُخصص للأعداء الأجانب. أعلن الرئيس ترامب أن الوكالات الفيدرالية سيكون لديها ستة أشهر للاستغناء عن منتجات الشركة. وبعد أيام، رفعت أنتروبيك دعوى ضد الحكومة معتبرة التصنيف "غير مسبوق وغير قانوني"، مع مئات الملايين من الدولارات من العقود على المحك.
ما يجعل هذه الحالة مثيرة للاهتمام من الناحية التحليلية ليس النزاع القانوني، بل التناقض التشغيلي الذي ينشأ: استمر استخدام نموذج كلود أوبوس من أنتروبيك في التحضيرات العسكرية النشطة — بما في ذلك العمليات ذات العواقب الكبيرة — في الوقت الذي كانت فيه الشركة تعلن علنًا أنها لا تستطيع "بضمير" قبول شرط الاستخدام لأي "أغراض قانونية". أكد كارب نفسه لشبكة CNBC أن بالانتير لا تزال متكاملة مع نماذج أنتروبيك رغم التصنيف الرسمي. لا يمكن لوزارة الدفاع ببساطة "إزالة نظام متكامل بعمق من يوم إلى آخر"، كما اعترف كبير موظفي التكنولوجيا الخاص بها، إميل ميخائيل.
هذه ليست مجرد نفاق من شركة واحدة. إنها تصف قطاعًا حيث سرعة نشر التكنولوجيا تتجاوز باستمرار سرعة الأطر الأخلاقية والتنظيمية. ولا تحدث هذه الفجوة بالصدفة. بل تحدث لأن من يصممون هذه الأنظمة ومن ينشرونها يشتركون في رؤية للعالم متشابهة بما يكفي للتقليل بشكل جماعي من الاحتكاكات التي ستظهر في السياقات التي لا يعرفونها.
هيكلية نقطة العمى الجماعية
تعمل شركة بالانتير منذ سنوات على تعزيز نفسها كمنصة دمج رئيسية لنماذج الذكاء الاصطناعي في مجالات الدفاع والاستخبارات. تعتمد منصتها AIP على ربط النماذج الأكثر قدرة في السوق — بما في ذلك كلود أوبوس، الذي تصفه الشركة نفسها بأنه متفوق من حيث "عمق التفكير والموثوقية في بيئات عالية المطالب" — إلى أنظمة تشغيل عسكرية.
توضح هذه الاعتمادية التقنية ضعفًا استراتيجيًا يتجاوز المورد: عندما تستند هيكلية منتجك إلى قرارات أطراف ثالثة بشأن الأخلاق وسيلة الاستخدام، فأنت لديك خطر في الحوكمة لا تحله أي بند تعاقدي تمامًا. وافقت OpenAI بالفعل على شروط البنتاغون وتم اختيارها لمهمات سرية بعد أن رفضت أنتروبيك. كما أن لدى جوجل وxAI عقودًا بشروط متغيرة. إن السوق مجزأة ليس لأنه مزاج تجاري، ولكن لأن كل فريق مؤسس توصل إلى استنتاجات مختلفة حول أين يتم رسم الخطوط.
لماذا تصل الشركات التي تتنافس في نفس القطاع، ولديها وصول إلى نفس البيانات بشأن استخدام الذكاء الاصطناعي العسكري، إلى مواقف متعارضة تمامًا؟ أقرب إجابة مريحة هي أيديولوجية. أما الإجابة الأكثر فائدة فهي هيكلية.
ظهرت الفرق التي بنت هذه المنصات — وأولئك الذين يحددون مواقفهم اليوم بشأن استخداماتها العسكرية — في الغالب من نفس برامج الدراسات العليا، ونفس شبكات رأس المال الاستثماري، ونفس مؤتمرات الأمن في مجال الذكاء الاصطناعي. وهذا ينتج توافقات داخلية بسرعة كبيرة. كما يخلق أيضًا نقاط عمى مشتركة بسرعة. عندما يكون الجميع على الطاولة قد عالجوا المخاطر من خلال نفس الفلتر الثقافي والأكاديمي، فإن احتمال أن يكون ذلك الخطر مضبوطًا جيدًا لسياقات تشغيلية مختلفة تمامًا — لنقل، عملية عسكرية في مسرح نزاع — يكون انخفاضه هيكليًا.
لا أصف هنا سوء نية. أنا أصف الميكانيكا الحتمية للتجانس الإدراكي الذي يطبق على قرارات ذات عواقب لا يمكن عكسها.
ما يقوله النزاع بين البنتاغون وأنتروبيك للمديرين في أي صناعة
يملك كارب الحق في التشخيص السياسي رغم أن وصيته قد تثير جدلاً: إذا كانت صناعة الذكاء الاصطناعي تريد الحفاظ على حريتها التشغيلية، فيجب عليها أن تظهر أن قراراتها بشأن ما يجب بناؤه، ولمن، ومع أي قيود، تنبع من عملية تضم وجهات نظر خارج دائرتها الخاصة من المؤسسين والمستثمرين.
لكن ذلك لا يحدث عبر بيانات المبادئ. يحدث عندما تكون الأشخاص الذين يتخذون تلك القرارات لديهم مسارات وسياقات وأطر مرجعية مختلفة حقًا. يتضمن الفريق الذي يضم شخصًا قد عمل في سياقات أمان في دول ذات مؤسسات هشة فهم المخاطر المرتبطة بالمراقبة بطريقة لا تتعلم من ورقة أكاديمية. يشمل فريق يضم وجهات نظر من فئات تأثرت تاريخيًا بتقنية المراقبة عناصر احتكاكية هي، تحديدًا، ما تمنع الأخطاء ذات التكاليف المرتفعة من الحدوث.
إن الضعف الذي يكشفه هذا النزاع ليس خاصًا بأنتروبيك أو بالانتير. بل هو ضعف أي منظمة تتخذ قرارات ذات تأثير كبير مع هيئة مديرة تعالج الواقع من خلال نوع واحد من العدسة. في هذا السيناريو، لا تُتوقع المخاطر، بل تُكتشف في المجال عندما يكون قد فوات الأوان لإعادة التصميم.
تُقاس تكلفة هذه التجانس في صناعة الدفاع والذكاء الاصطناعي ليس في السمعة، بل تُقاس في العقود الملغاة، والدعاوى القضائية، والتكنولوجيا المطبقة دون أطر للسيطرة، وفي أسوأ السيناريوهات، في عواقب تشغيلية لا يمكن لأي بيان صحافي عكسها.
في المرة القادمة التي يجتمع فيها قيادة أي شركة — ليس فقط في مجال التكنولوجيا — لمراجعة قراراتها بشأن أي منتجات يجب بناؤها ولمن، فإن السؤال الأكثر ربحية ليس ما إذا كان المنتج متفوقًا تقنيًا. بل هو ما إذا كان الأشخاص الجالسين حول تلك الطاولة مختلفين بما يكفي عن بعضهم ليروا ما لم يكن أي واحد منهم، بمفرده، ليتمكن من رؤيته. إذا كانت الإجابة لا، فإن الخطر قد دخل بالفعل إلى الغرفة.









