طريقة OpenAI في تأخير "الوضع البالغ" واحتساب المخاطر التشغيلية

طريقة OpenAI في تأخير "الوضع البالغ" واحتساب المخاطر التشغيلية

OpenAI تأخرت في إطلاق "الوضع البالغ" جراء اعتبارات مالية وسمعة، حيث أثر التحكم في المحتوى على 800 مليون مستخدم.

Mateo VargasMateo Vargas١٢ مارس ٢٠٢٦6 دقيقة
مشاركة

تأخير "الوضع البالغ" في OpenAI: احتساب المخاطر التشغيلية

أخرت OpenAI للمرة الثانية إطلاق "الوضع البالغ" على ChatGPT، وهي ميزة تهدف، كما أفاد سام ألتمان، إلى "معاملة المستخدمين البالغين كالبالغين" من خلال تفعيل محتوى أقل تقييدًا، بما في ذلك المحتوى الإباحي، للمستخدمين البالغين المعتمدين. تم تعديل الجدول الزمني بشكل متكرر: من ديسمبر 2025، إلى الربع الأول من 2026، والآن بدون موعد محدد. التفسير الرسمي بسيط: إعطاء الأولوية لتحسينات "ذات أهمية أكبر" لعدد أكبر من المستخدمين، مثل تحسين الذكاء، وضبط الشخصية، والتخصيص، وتجربة أكثر استباقية. في الواقع، تكمن القصة في إدارة محفظة ذات أصل مهيمن: عندما تكون لديك قاعدة مستخدمين ضحمة، فإن الأولوية ستكون حماية الجوهر قبل السعي لتحقيق عوائد إضافية.

يعمل ChatGPT على نطاق غير عادي: 800 مليون مستخدم نشط أسبوعيًا. مع هذا الحجم، فإن أي خطأ منهجي في إدارة الأعمار لا يُعتبر مجرد عيب فني، بل يصبح مصدرًا للاحتكاك الضخم، والاهتمام التنظيمي، والمسؤوليات القانونية المحتملة. بدأت OpenAI بالفعل في نشر نموذج تقدير العمر الخاص بها على مستوى العالم منذ يناير 2026، وهو نموذج قادر على تقدير العمر بناءً على النصوص والوسائط. كما تقدم آلية للتحقق من عمر الأشخاص باستخدام Persona للمستخدمين الذين تم تصنيفهم على أنهم قُصّر.

الأضرار الناجمة عن الأخطاء

وتظهر التقارير الشكوى المستمرة من البالغين الذين تم تصنيفهم كقُصّر، وهو أمر يجسد مركز القضية الاقتصادية. إن "الوضع البالغ" ليس مجرد علامة تبويب إضافية على المنتج، فهو تغيير في نظام المخاطر. في الأسواق المالية، فإن النظير سيكون الانتقال من صندوق استثماري محافظ إلى إدارة المشتقات: يمكنك تحسين العائد المتوقع، ولكن يتطلب ذلك معرفة وجود هوامش وحدود وتدقيق وأدلة كميّة على أن الضوابط فعالة. هنا يمثل "الهامش" إدارة العمر.

ولم تنشر OpenAI معايير دقة نظام تقدير العمر الخاص بها، ومع نقص البيانات تصبح الإطلاق رهانًا يحمل مخاطر عدم توافق.

التأخير كتعبير عن أولويات المخاطر

البيان الذي أدلى به المتحدث الرسمي لوكالة Axios والذي نقلته Fast Company — "التأجيل للتركيز على الأولويات مثل الذكاء، والشخصية، والتخصيص، والاستباقية" — يعكس آلية إدارة المخاطر في مؤسسة كبيرة تمتلك قاعدة مستخدمين ضخمة. إن "الوضع البالغ" قد يعزز التفاعل مع شريحة معينة من السكان، لكنه أيضًا يزيد من المخاطر التنظيمية وسمعة العلامة التجارية في صناعة تتجه نحو التشديد في القوانين.

حيث تكمن التحديات في أن "الوضع البالغ" يعتمد على حدود يصعب تحديدها، وهي التمييز بين البالغين والقُصّر بدقة كافية على نطاق عالمي. بدأت OpenAI بتطبيق قيود أكثر صرامة على المستخدمين الذين يُشتبه في أنهم قُصّر، بما في ذلك تقييد المحتوى العنيف والمحتوى الذي يتضمن لعب أدوار رومانسي، ثم تقدم آلية للتحقق مع Persona.

التحذيرات من الأخطاء المحتملة

في السياقات العملية، فإن خطأً إيجابيًا (معاملة البالغ كقاصر) يؤثر سلباً على المنتج للمستخدمين الشرعيين. في المصطلحات التجارية، هو كإضافة قيود على عميل سليم من خلال طلب مستندات إضافية في كل مرة يحاول فيها الشراء. الأمر سيؤدي إلى مشاكل في الاستمرارية ويؤثر سلباً على معدلات الاحتفاظ، خاصة في فئات مثل الطلاب الذين قد يصدرون إشارات "مهمة" ويُصنفون كقُصّر، وفقًا لما حذر منه أليسا كوبر من معهد نايت-جورجتاون.

أما الخطأ السلبي (معاملة القاصر كراشد) فهو أسوأ: فهو لا يعرض السلامة للخطر فحسب، بل يزيد أيضًا من التعرض لحالات قانونية وضغوط تنظيمية.

لذلك، يعكس التأخير نظرية بسيطة: عندما يكون الجوهر ضخمًا، فإن التكلفة المتوقعة لفشل الضوابط تفوق العائد الإضافي الذي يوفره المكون الجديد.

إدارة الأعمار باستخدام الذكاء الاصطناعي كتكلفة خفية

غالبًا ما تتحدث الشركات عن "التحقق من العمر" وكأنه مجرد إجراء للتوافق. في الواقع، هو مُولد تكاليف مستمر. أولاً، لأن النظام يحتاج إلى العمل بعدة لغات وثقافات وأنماط استخدام وسياقات مختلفة. ثانيًا، لأنه توجد جهات معادية: ستحصل دائمًا محاولات للتهرب، كما قالت كوبر، فإن التحايل أمر لا مفر منه بغض النظر عن البناء. ثالثًا، لأن الأخطاء تُترجم إلى تصاريح، ومراجعات، واستئنافات، وتدفقات تحقق، وكلها تحمل تكلفة مباشرة.

اختارت OpenAI مسارًا يجمع بين التقدير التلقائي والتحقق من طرف ثالث (Persona). من منظور هيكل الكلفة، فإن التعاقد مع جهة خارجية لتحمل جزء من العملية يحول جزءًا من النفقات إلى متغيرات.

وذلك موقف دفاعي: من الأفضل أن تدفع للتحقق عند الحاجة بدلاً من بناء جهاز داخلي ضخم لمجرد التحقق من جميع المستخدمين. ومع ذلك، فإن التقدير التلقائي يمثل نقطة الاختناق: إذا حدث تصنيف خاطئ، فإن ذلك يسبب زيادة في تكاليف التحقق ويولد الاحتكاك.

تكاليف التأخير وتأثيرات السوق

تشير التقارير إلى ضغوط اقتصادية وأخرى. تخطط OpenAI لإطلاق إعلانات في الولايات المتحدة لبعض المستخدمين اعتبارًا من يناير 2026، وفي الوقت نفسه، لديها خطط لاستثمار ضخم في مراكز البيانات على مدى خمس سنوات. مع ارتفاع تكاليف الحوسبة، فإن تحسين إيرادات التحقق ليس خيارًا؛ بل هو ضرورة للبقاء.

إذا كان "الوضع البالغ" يمكن أن يصبح منتجًا مرتفع استعداد للدفع لبعض المستخدمين، فإنه أيضًا يمثل مصادر إعلانات من "مستخدمين متفاعلين بشكل كبير"، كما تنص مقالات الصناعة.

أما المشكلة فهي أن هذه العائدات تعتمد على تصنيف موثوق. تحتاج الإعلانات والمحتوى المُقيد إلى تصنيف قوي. إذا أخطأ النظام، فقد تكون التكلفة غير متناسبة: شكاوى عامة، وقيود تنظيمية، وفقدان الثقة. من منظور المدير المالي، يجب تخفيض الإيرادات المتوقعة من "الوضع البالغ" استنادًا إلى التكلفة المحتملة للحوادث وكذلك الزيادة في النفقات المتعلقة بالدعم والتحقق.

نهاية التحليل

تسعى OpenAI إلى التوافق في سوق يتآكل فيه ميزة كونها رائدة. ذكرت أن تحسينات Gemini (Google) وظهور Claude (Anthropic) تخلق بيئة تنافسية أكبر. عندما يصبح المنتج مُمَكنًا، تسعى الشركات إلى التمييز من خلال المميزات والتجارب. قد يبدو "الوضع البالغ" تمييزًا سريعًا، لكنه سيكون من نوع التمييز الذي يزيد من مخاطر الاستخدام غير المرغوب.

لذا، فإن الرسالة العامة للسوق تُشير إلى أن الطلب يركز على الاستقرار قبل المكاسب الكبيرة. ويبدو أن التأخير من OpenAI يُعبر عن محاولتهم للتوجه نحو الاستثمارات الأكثر أمانًا في الأساس.

ختام التحليل

ويبدو أن التأخير في "الوضع البالغ" هو تحرك للإدارة الضبط مُبكرًا، ليس لأن الشركة لا تؤمن بالمبدأ، ولكن لأن نظام الضبط لا يبدو أنه يحمل أدلة محسوبة كافية من الأداء في الوقت الحالي.

مشاركة
0 أصوات
صوت لهذا المقال!

التعليقات

...

قد يعجبك أيضاً