قال سام التمان لموظفي OpenAI، في اجتماع عام يوم الجمعة 27 فبراير 2026، إن الشركة كانت تتفاوض على اتفاق مع وزارة الدفاع الأمريكية لنشر نماذجها وأدواتها من الذكاء الاصطناعي. النقطة التي تهم أكثر من غيرها ليست العنوان بل التفصيل التشغيلي: تسعى OpenAI للحفاظ على "مستوى الأمان" الخاص بها، أي الضوابط التقنية والسياسية والبشرية بين النموذج والاستخدام النهائي. بالإضافة إلى ذلك، ترغب الشركة في تجنب ضغط العملاء لإلغاء التحذيرات المقررة عن المهام المحددة. أفاد موقع Fortune أن العقد لم يكتمل بعد وفقًا لمصدر حاضر في الاجتماع وتقرير تمت مراجعته من قبل الموقع.
جاءت هذه المفاوضات بعد حادث علني بين وزارة الدفاع وAnthropic. وفقًا لنفس التقرير، رفضت Anthropic إزالة الضوابط في نموذجها Claude التي تحد من المراقبة الشاملة المحلية والأسلحة ذاتية التشغيل، وذلك في مواجهة الضغوط للسماح باستخدامها “لأغراض قانونية”. في الوقت نفسه، أمر الرئيس دونالد ترامب الوكالات الفيدرالية بوقف استخدام تكنولوجيا Anthropic، مع نافذة خروج مدتها ستة أشهر. وأعلن وزير الدفاع، بيت هيغسيت، أن وزارة الدفاع ستصنف Anthropic كخطر على سلسلة الإمداد للأمن القومي، مما يوسع التأثير إلى ما هو أبعد من الحكومة.
ساعات بعد ذلك، نشر التمان على منصة X أن OpenAI توصلت إلى اتفاق مع وزارة الدفاع لنشر خدماتها في الشبكة المصنفة، مشددًا على نقطتين: حظر المراقبة الشاملة المحلية والمسؤولية البشرية عن استخدام القوة، بما في ذلك الأسلحة ذاتية التشغيل. يتضح الصراع التنافسي، لكن ما أرغب في التركيز عليه هو كيف أن هذا الحدث يكشف أن، في الذكاء الاصطناعي المتقدم، لم تعد الضوابط مجرد إيماءة أخلاقية، بل هي بند من بنود التحكم في المنتج يحدد من سيحقق الأرباح، من سيتحمل المخاطر السمعة، ومن سيقع في تكاليف الالتزام.
عندما يطلب العميل "إزالة الضوابط"، فإنه في الحقيقة يطلب التحكم في الأرباح
في خدمات عالية المخاطر - والدفاع كذلك يعرف برمزها- لا يقوم العميل بشراء القدرة فقط. بل إنه يشتري أيضًا المسؤوليات، وعندما يحاول دفع حدود الاستخدام، فإنه يحاول إعادة تشكيل توزيع تلك المسؤوليات. في حالة Anthropic، انحصر الصراع، وفقًا لـ Fortune، حول المطالب بإزالة الضوابط المتعلقة بالمراقبة المحلية والأسلحة الذاتيّة، في الوقت الذي كانت فيه وزارة الدفاع تُصر على توفربنسبة "لأغراض قانونية". كانت العواقب مزدوجة: تهديد حول عقد يصل إلى 200 مليون دولار وأخيراً تصعيد سياسي أدى إلى خروج Anthropic من الوكالات الفيدرالية وتعيينها كخطر في سلسلة الإمداد.من وجهة نظر هيكلية مالية، يمكنني أن أترجم ذلك كما يلي: إذا استطاع العميل أن يضمن أن المزود يُعطل حدود المنتج، فإن المزود ينتقل من بيع أداة إلى "تفويض المخاطر". وتصبح المخاطر، عاجلاً أو آجلاً، تكاليف، سواء كانت تكاليف قانونية، أو تكاليف التوافق، أو تكاليف الأمن الداخلي، أو تكاليف المواهب، أو حتى تكاليف التأمين، أو التكلفة التجارية في قطاعات أخرى. لا حاجة للاختراع في الأرقام، فقط يكفي فهم الميكانيكية. في الذكاء الاصطناعي، التكلفة المتغيرة الرئيسية هي الحوسبة. وإذا أضفنا ذيلا من التكاليف غير المؤكدة بسبب الاستخدامات القصوى أو الحساسة سياسيًا، فإن العائد لم يعد مجرد رقم بل يصبح قمارًا.
وهنا تكمن أهمية رسالة التمان إلى الموظفين: تتفاوض OpenAI للحفاظ على "مستوى الأمان" الخاص بها وتجنب أي تجاوزات من العميل على نتائج المنتجات. هذه بمثابة طريقة لإخبار المشتري: يتم تقديم الخدمة وفقًا لظروف تقنية تحافظ على محيط المنتج. ذلك يحمي الشركة، لكنه أيضًا يستقر في الاقتصاد التعاقدي، لأنه يقلل من إمكانية تحول الاتفاقية إلى متطلبات استثنائية، أو استثناءات تشغيلية، أو زيادة في الدعم البشري الذي يؤثر على هامش الأرباح.
الدفاع كعميل تدعيمي: تدفق متوقع مقابل قيود صارمة
تأتي OpenAI إلى هذه المفاوضات في سياق يسعى فيه القطاع إلى تحقيق الدخل من نماذج تأسيسية تحتاج استثمارات كبيرة وطاقة حوسبة. عندما تكون الخدمة ذات تكاليف متغيرة مرتفعة، فإن الإغراء التقليدي هو السعي للحصول على حجم أكبر. ولكن في الحكومة والدفاع لا يشبه الحجم استهلاكًا جماعيًا: بل يشبه عقودًا بأرقام كبيرة، ودورات شراء بطيئة ومتطلبت أمان تجعل بعض التكاليف ثابتة.الجانب الحاسم من تقرير Fortune هو أنه يبدو أن التمان قد حدد حدود النشر، بما في ذلك أن الاستخدام سيتم في بيئات سحابية وليس في أنظمة "الطرف" مثل الطائرات أو الطائرات بدون طيار. علاوة على ذلك، فإن الاتفاق المذكور على X سيركز على النشر داخل الشبكة المصنفة. يعد هذا البعد مهم لأنه يحدد منحنى التكلفة. التوزيع داخل الشبكة المصنفة ليس بالأمر التافه، بل تحديد المحيط يقلل من التعقيد: عدد أقل من التكاملات الشديدة، عدد أقل من السيناريوهات ذات الكمون الحرج، واحتياج أقل لشهادات مرتبطة بالعتاد التشغيلي.
من الناحية المالية، يمكن لعميل "تدعيمي" من الدفاع أن يلعب دورين. أولاً، يمكن أن يوفر إيرادات متكررة عالية الجودة، عادة ما تكون أقل حساسية للدورات الاقتصادية مقارنة بقطاع الاستهلاك. وثانيًا، يمكن أن يعمل كموثق لمبيعات B2B المطابقة. ولكن الثمن الخفي هو خطر الوقوع تحت متطلبات توسع التكلفة الثابتة: فرق مخصصة، تدقيق، استجابة للحوادث، وإدارة تعاقدية صارمة.
لذلك من المهم أن تسعى OpenAI للحفاظ على "مستوى الأمان" الخاص بها. إنها طريقتها في الحد من "التوسع خارج النطاق" وحماية هيكل تكاليفها. يمكن أن تصبح العقدة الكبيرة التي تكبر في التعقيد بشكل أسرع من الإيرادات عقدًا كبيرًا يجعلها تبدو قوية، بينما تصبح هشة.
الفراغ الذي تتركه Anthropic ليس تجاريًا فقط: إنه إعادة ترتيب للسلطة
حتى هذه الحادثة، كانت Anthropic، وفقًا لـ Fortune، هي المزود التجاري الكبير الوحيد الذي لديه نماذج الموافقة لاستخدام وزارة الدفاع من خلال تحالف مع Palantir. كانت هذه ميزة غير متماثلة: كونها "المصرح بها" أمام مشتري يمتلك ميزانيات ضخمة.التدخل السياسي يغير المشهد. الأمر الرئاسي بوقف استخدام Anthropic وتهديد تصنيفها كخطر في سلسلة الإمداد يؤديان إلى تأثير ثانوي: زيادة تكلفة الفرصة لأي طرف يشبك تجاريًا مع Anthropic في المجالات ذات الصلة بالدفاع. لست بحاجة للتخمين حول العواقب القانونية؛ يكفي أن ألاحظ الحافز: يحاول المشتري العام تأديب المزود الخاص.
في هذا السياق، تظهر OpenAI كبديل طبيعي، ولكن مع اختلاف استراتيجي: تدخل السوق برسالة واضحة عن "الاحترام المتبادل" لمبادئ أمان الذكاء الاصطناعي، بما في ذلك حظر المراقبة الشاملة المحلية والمتطلبات المتعلقة بالمسؤولية البشرية في استخدام القوة.
ترجم إلى شروط تفاوض، يتضمن ذلك بناء عقد حيث تحتفظ الشركة بجزء من التحكم في المنتج، ويمكن للعميل الحفاظ على التحكم في المهمة، ولكن دون تحويل الذكاء الاصطناعي إلى نظام بلا قيود.
هذا التوازن يحمل رؤية تنافسية: إذا قبلت الحكومة أن تحتفظ OpenAI بمستوى الأمان الخاص بها، فإن "القدرة" لم تعد المعايير الوحيدة. وإنما يصبح مهمًا من يمكنه توفير القدرة مع إطار للتحكم يمكن للمشتري تحمله سياسيًا. في الأسواق المنظمة، تحدد تلك القدرة المعايير الحجم الحقيقي للسوق المتاحة.
الرياضيات البسيطة وراء "مستوى الأمان": حماية الهامش من خلال حماية المحيط
لا ينبغي أن يبقى القائد المالي في النقاشات المجردة. السؤال التشغيلي هو أي متغير يتم محاولة السيطرة عليه.في نشاط نماذج الذكاء الاصطناعي، تتحرك التكلفة الهامشية لكل استخدام مع الحوسبة، وتتحرك تكلفة الجودة مع الأمن والمراقبة والدعم. إذا تمكن العميل من فرض استثناءات وإلغاء التحذيرات، فإن هذا يفتح تأثيرين:
1) زيادة تكاليف الدعم: المزيد من الحوادث، المزيد من التصعيد البشري، المزيد من مراجعات السياسات وأكثر من تدقيق داخلي.
2) تدهور المبيعات المستقبلية: يمكن أن يؤدي حدث واحد إلى إغلاق الأبواب في القطاعات المتعلقة بالشركات التي تدفع جيدًا أيضاً ولا ترغب في أن تتصل "مناهجها السياسية".
من هذا المنطلق، تعتبر الحفاظ على "مستوى الأمان" طريقة لتحويل جزء من المخاطر إلى قواعد المنتج. ليس ذلك من أجل الإيثار، بل للسيطرة على تقلب التكلفة. وفي جوهرها، فإن السيطرة على التقلبات هي الدفاع عن الهامش.
تلك المعلومات حول 200 مليون دولار المتوقعة للحصول على العقد مع Anthropic تضيف أيضا مقياسا. يمكن لعقد كهذا تمويل البنية التحتية والأمان والفرق المخصصة. ولكن لن يكون تجاريًا جيدًا إذا لم يتحول إلى بركة من التكاليف المتزايدة بسبب التغييرات في النطاق. المخاطر في العقود الحكومية ليست أن يدفعوا القليل؛ بل أن يدفعوا جيدًا بينما يطلبون منك أن تعمل كما لو كانت بناؤك مثل مقاول الدفاع التقليدي.
تظهر تحركات OpenAI تعلمًا: التفاوض منذ البداية حول نطاق النشر، والتحكم في الضوابط وعدم الالتزام بإلغاء التحذيرات. ذلك "الرفض" المكتوب في العقد هو المعادل المالي لوضع حدود للتكاليف المتغيرة والتكاليف السمعة.
الاتجاه واضح: الفوز بالعقد دون بيع السيطرة على المنتج
تترك هذه الحادثة إشارة مفيدة لكل مدير تنفيذي أو مدير مالي يبيع تكنولوجيا حيوية لمشترين مؤسسات كبار. لا يتم تحديد التفاوض فقط من حيث السعر والحجم، بل من من يتحكم في النظام عند التشغيل.دافعت Anthropic، وفقًا للتقرير، عن خطوط حمر والآن تواجه عملية مغادرة فدرالية وتهديد محتمل بتصنيفها كخطر في سلسلة الإمداد، وهو ما أعلنت أنها ستواجهه في المحاكم. بينما تتجه OpenAI لتكون الفائز في الفراغ، لكنها تسعى للحفاظ على ضوابطها الخاصة وتقييد النشر بسياقات يمكن التحكم فيها للتحافظ على التعقيد التشغيلي.
على المستوى المالي، الدروس واضحة. يعزز العقد الكبير الشركة فقط إذا جاء مع حدود تحافظ على الأرباح وتقلل من تقلبات التكلفة. العقد المثالي ليس هو الذي ينتج أكبر عدد من العناوين، بل هو الذي يحدد نطاق الاستخدام، ويمنع الاستثناءات، ويحول المخاطر إلى قواعد تشغيلية. في النهاية، الشركة التي تحافظ على التحكم هي تلك التي يمكنها تمويل نفسها بإيرادات حقيقية ومتكررة، لأن أموال العميل لا تزال التحقق الوحيد الذي يضمن للبقاء والتحكم في الشركة.










