سورا توفيت بسبب نفس النقاط العمياء التي أنشأتها

سورا توفيت بسبب نفس النقاط العمياء التي أنشأتها

أغلقت OpenAI سورا بعد ستة أشهر من إطلاقها. تشكل الرواية الرسمية مزيجًا من الموارد الشحيحة والعمليات العمياء.

Isabel RíosIsabel Ríos٢٥ مارس ٢٠٢٦7 دقيقة
مشاركة

سورا توفيت بسبب نفس النقاط العمياء التي أنشأتها

في 24 مارس 2026، نشرت OpenAI كلمتين على منصة X: "نقول وداعًا لسورا." بهذه العبارة، أغلقت تطبيقًا كان قد تسلق إلى قمة تصنيفات أبل، وتجاوز مليون تنزيل أكثر سرعة من ChatGPT، وأبرم شراكة بقيمة مليار دولار مع شركة والت ديزني. كانت الانهيارات سريعة مثل الصعود: انخفضت التنزيلات بنسبة 45% بحلول يناير 2026، وبلغت الإيرادات الإجمالية للمنصة 2.1 مليون دولار، وهو مبلغ يكاد لا يبرر تكاليف البنية التحتية الحاسوبية التي كان النموذج يحتاجها.

تجمع الشرح الرسمي بين نقص الرقائق وإعادة التوجيه نحو الروبوتات والمحاكاة للعوالم الفيزيائية، بالإضافة إلى الأعباء التشغيلية اللازمة للحفاظ على شبكة اجتماعية من الفيديوهات المُولَّدة. كل هذا صحيح. لكن لم يكن أي من هذه العوامل غير متوقع في سبتمبر 2025 عندما تم إطلاق سورا للجمهور. ما فشل لم يكن التكنولوجيا، بل فشل الخريطة الإدراكية التي بُنيت على أساسها القرارات.

المنتج الذي لم يُصمَّم للأشخاص الأكثر استخدامًا له

ولدت سورا مع وظيفة تُدعى "cameos": حيث يمكن للمستخدمين مسح الوجوه لإدخالها في الفيديوهات المُولَّدة بواسطة الذكاء الاصطناعي. تمت إعادة تسمية هذه الميزة إلى "شخصيات" بعد دعوى قانونية، لكن المشكلة الأساسية لم يكن بمقدورها الحل بواسطة تغييرات سطحية. خلال أسابيع قليلة، تم استخدام المنصة لإنتاج فيديوهات غير مصرح بها لمارتن لوثر كينغ جونيور وروبن ويليامز، مما أدى إلى ردود فعل عامة من عائلاتهم. استجابت OpenAI من خلال فرض قيود أكثر صرامة على الملكية الفكرية، مما أضر بحرية الإبداع التي اجتذبت المستخدمين الأوائل.

تحمل هذه الدورة اسمًا تقنيًا في إدارة المنتج: فشل في توقع الاستخدام السلبي. وغالبًا ما يكون علامة على شيء معين في تركيبة فريق التصميم. عندما يشارك الأشخاص في بناء أداة نفس الخلفية الاجتماعية والاقتصادية والثقافية، يميلون إلى نمذجة سلوك المستخدم بناءً على أنفسهم. ليس بدافع الإهمال، بل لأن هذا هو المرجع الوحيد المتاح في الغرفة. كان فريق يتضمن وجهات نظر متنوعة، بما في ذلك المجتمعات التي تأثرت تاريخيًا بالمراقبة التكنولوجية أو بتلاعب الصور، سيكتشفون خطر ماسحات الوجوه قبل أن تتحول إلى عنوان رئيسي.

تشير الأدلة التجريبية حول هذا النمط إلى تواتر معين: تظهر أبحاث شركة McKinsey حول التنوع في الفرق التنفيذية أن الشركات في الربع الأعلى من التنوع في الجنس والأصل العرقي لديها احتمالية أكبر بنسبة تتراوح بين 25% و36% لتحقيق أرباح أعلى من نظيراتها. ليس نتيجة لنسب معينة، ولكن لأن تنوع وجهات النظر يوسع من فضاءات السيناريوهات التي يمكن للفريق توقعها. كانت سورا بحاجة بالضبط إلى ذلك: القدرة على توقع كيف سيستخدمها الأشخاص الذين لا يشبهون أولئك الذين بنوها.

شراكة بقيمة مليار دولار لم تُحوّل أي دولار

تستحق إلغاء الشراكة مع والت ديزني انتباهًا خاصًا، لأنها ليست عرضًا جانبيًا لغلق سورا: إنها دليل على الهشاشة الهيكلية لبعض الشبكات التجارية التي تُبنى على إشارات الحالة بدلاً من القيمة المشتركة.

تم الإعلان عن الاتفاقية في ديسمبر 2025، ووعدت بترخيص أكثر من 200 شخصية من ديزني للفيديوهات المُولَّدة باستخدام سورا وتوسيع التجارب على Disney+. وفقًا لمصادر ذكرتها قناة الجزيرة، لم يتم إتمام أي صفقة مالية. كانت الشراكة، بشروطها الخاصة، استكشافية. ما تم بيعه علنًا كاستثمار بقيمة مليار دولار عمل في الممارسة كبيان صحفي مشترك.

هذا يُظهر نمطًا أُلاحظه كثيرًا في الاتفاقيات بين الشركات التقليدية والشركات الناشئة ذات التقنية العالية: تولد العجلة للارتباط بالعلامات التجارية إعلانات مبكرة تعوض عن واجب العناية التشغيلي. كانت ديزني بحاجة للإشارة إلى الحداثة التكنولوجية أمام مساهميها. كانت OpenAI بحاجة إلى مصداقية المحتوى الفاخر أمام مزوديها. لم يكن لدى أي من الطرفين حوافز فورية لوقف الإعلان وطرح السؤال حول ما إذا كانت البنية التحتية التقنية، القانونية والأخلاقية للمنتج قوية بما يكفي لتحمل الاتفاق.

كانت النتيجة شبكة تتفكك عند أول توتر حقيقي، تمامًا كما تتوقع نظرية رأس المال الاجتماعي عندما تكون الوصلات تجارية وليس لها جذور في تبادل حقيقي للقيمة. إن الإعلان اللاحق لديزني، الذي أكد على التعلم المكتسب ونيتها في مواصلة استكشاف منصات أخرى، هو التعبير الدبلوماسي عن ذلك تمامًا: الشبكة لم يكن لديها جذور.

ما يكشفه التحول نحو الروبوتات عن اقتصاد الحوسبة

أغلقت OpenAI للتو جولة صناديق رفعت تقييمها إلى 730 مليار دولار ولديها عرض أولي عام في الأفق. في هذا السياق، فإن القرار بإعادة توجيه فريق سورا نحو البحث في محاكاة العالم للروبوتات ليس انكماشًا. إنه إشارة حول أين تكمن الهوامش الحقيقية.

تمتلك تطبيقات الفيديو المُولَّدة لاستخدام جماهيري مشكلة اقتصادية هيكلية: التكلفة الهامشية لإنتاج كل ثانية من الفيديو عالي الدقة مرتفعة، ويدفع المستخدم العادي القليل أو يتركه سريعًا، ومساحة المسؤولية القانونية هائلة. الإيرادات البالغة 2.1 مليون دولار من سورا طوال عمرها كمنتج لا تقترب حتى من تغطية تكلفة الحوسبة لنموذج وصفته OpenAI بأنه قد يوازي "لحظة G-35" في الفيديو. الحسابات لم تشغل الأمور بالنسبة لقطاع الاستهلاك الجماعي.

قابل، الروبوتات ومحاكاة البيئات الفيزيائية، لها منطق مختلف. العقود مع الشركات أكبر، والتذاكر أكبر، وتسامح التنظيم للأخطاء مختلف، ويمكن الدفاع عن الملكية الفكرية للنموذج المدرب بشكل أكثر كفاءة. بالنسبة لشركة تعمل بخسائر كبيرة بينما تتجه نحو تقييم يقارب ثلاثة أرباع تريليون دولار، تتماشى هذه الخطوة مع ما يحتاجه المستثمرون المؤسسيون قبل الاكتتاب العام: التركيز على الموارد في القطاعات ذات العائد المتوقع.

ما يهمني الإشارة إليه هنا هو بُعد آخر من نفس المشكلة. تحمل الأبحاث في الروبوتيات ومحاكاة الفيزياء آثارًا توزيعية ضخمة: أي الوظائف سيتم أتمتتها، وبأي سرعة، في أي جغرافيات، ولماذا الشرائح الدخل. إذا كان الفريق الذي يصمم تلك الأنظمة يُكرر تجانس الفريق الذي صمم "cameos" سورا، فإن الخطر ليس فقط أخلاقيًا. إنه خطر نموذج عمل، لأن الأنظمة التي لا تتوقع كيف سيتم رفضها أو تنظيمها من قبل المجتمعات التي تؤثر عليها لها عمر افتراضي أقصر وتكلفة سياسية أعلى.

التكلفة الحقيقية لتصميم من منظور واحد

إن غلق سورا ليست قصة تكنولوجيا فاشلة. لا يزال النموذج الأساسي، سورا 2، يعمل خلف جدار الدفع الخاص بـ ChatGPT. لقد نجت التكنولوجيا. ما لم ينجُ هو القرار بتحويلها إلى شبكة اجتماعية للاستخدام الجماهيري دون الآليات اللازمة للتوقع والحكم التي يتطلبها هذا السياق.

كل من نقاط التصدع الموثقة، بما في ذلك ماسح الوجوه، وإدارة الاتفاق مع ديزني، ومعادلة الإيرادات مقابل تكلفة الحوسبة، وانخفاض معدل الاحتفاظ، لها قراءة في سياق أي وجهات نظر كانت غائبة عند اتخاذ القرارات التي أدت إلى حدوثها. لست أزعم أن فريقًا أكثر تنوعًا كان سيضمن نجاح سورا. أنا أشير إلى أن غياب تنوع وجهات النظر في فرق تصميم الذكاء الاصطناعي له تكاليف قابلة للقياس: تكاليف قانونية، تكاليف سمعة، تكاليف الاحتفاظ بالمستخدم وتكاليف الفرص في الاتفاقيات التي تتفكك قبل أن تحقق أي سنت.

تتحمل الفرق الإدارية التي ستتخذ قرارات بشأن الروبوتات، والمحاكاة، والتحركات الكبيرة المقبلة لـ OpenAI نفس عملية القرار التي أنتجت سورا. السؤال ليس ما إذا كانت التكنولوجيا جيدة بما فيه الكفاية. تكنولوجيا OpenAI، من أي مقياس، رائعة. السؤال التشغيلي هو ما إذا كان الأشخاص الموجودون في القاعة عندما يتم تصميم هذه الأنظمة يمكنهم رؤية السياقات التي ستعيش فيها هذه الأنظمة بشكل كافٍ.

المرة المقبلة التي يجلس فيها مجلس إدارة أي شركة تكنولوجيا لتقييم إطلاق منتج له نطاق جماهيري، فإن تكوين تلك الطاولة ليس معطى ديمغرافيًا زائفًا. إنها متغير خطر له تأثير مباشر على التدفق النقدي. الفرق التي يشارك جميع أعضائها في الخلفيات نفسها، والشبكات نفسها، والمراجع الثقافية نفسها ليست أكثر تماسكًا ولا أكثر كفاءة: إنها أكثر هشاشة، لأن نقاط عمياءها مشتركة ولا يمكن لأحد في الغرفة الإشارة إليها.

مشاركة
0 أصوات
صوت لهذا المقال!

التعليقات

...

قد يعجبك أيضاً