خطر الذكاء الاصطناعي هو فشل في القيادة، وليس في البرمجيات

خطر الذكاء الاصطناعي هو فشل في القيادة، وليس في البرمجيات

تحذير كريس هايمز يعكس دقة مزعجة: الخطر في الذكاء الاصطناعي ليس من التكنولوجيا، بل من الذين يقودونها.

Ignacio SilvaIgnacio Silva١٣ مارس ٢٠٢٦6 دقيقة
مشاركة

تحذير كريس هايمز

تحذير كريس هايمز، الرئيس التنفيذي السابق لشركة إنديد، يعكس دقة مزعجة: الخطر من الذكاء الاصطناعي لا يأتي من التكنولوجيا، بل من الأشخاص الذين يدفعونها. هذه ليست مجرد مغالطة لفظية.

في عام 2025، أكّد هايمز على فكرتين متعارضتين: أن الذكاء الاصطناعي لا يقوم بـ "الأعمال الكاملة"، ولكنه يستطيع تنفيذ جزء كبير من المهارات المطلوبة في معظم الوظائف؛ والتحدي الأساسي هو تنفيذ الذكاء الاصطناعي بمسؤولية، حيث يمكن أن يؤثر على التوظيف والإسكان والتعليم والصحة والعدالة، مما قد يعمق الفجوات الحالية.

من "كيف" إلى "من"

الآن، ينتقل التركيز من "كيف" إلى "من". وهذا الانتقال يشخص خلل القيادة وتصميم المنظمات: في العديد من الشركات، يتم إدراج الذكاء الاصطناعي كأنّه حزمة برمجيات أخرى، بينما هو في الواقع رافعة تؤثر على المعايير والحوافز والرقابة. إذا كان نظام القيادة ضعيفًا، فإن الذكاء الاصطناعي يعجّل من القرارات السلبية، غير الشفافة أو قصيرة الأمد. أما إذا كان نظام القيادة قويًا، فإن الذكاء الاصطناعي يصبح أداة لزيادة الإنتاجية وتحسين الخدمة وتقليل الاحتكاك.

عندما تكون المشكلة في السائق، فإن المكابح ليست تقنية

يعرف هايمز سوق العمل من مركز اللعبة. تعمل إنديد في المجال الذي يمكن أن ينتج الذكاء الاصطناعي فيه القيمة أو الأذى بسرعة: المطابقة بين الأفراد والفرص. في مايو 2025، قدم اكتشافًا مفيدًا وسهل التفسير ولكنه قد يسيء الفهم: "لا توجد وظيفة واحدة" حيث يمكن للذكاء الاصطناعي القيام "بجميع المهارات" المطلوبة، ولكن في حوالي "ثلثي" الوظائف، يمكن للذكاء الاصطناعي القائم على البيانات الكبيرة القيام بـ"50% أو أكثر" من تلك المهارات "بشكل معقول جيد، أو جيد جدًا". هذا التصريح له أهمية عملية:

من أهداف تقليص التكاليف إلى إعادة تصميم العمل

الشخص المسؤول في المستوى التنفيذي سيتعامل مع هذا القطع كطلب لتقليل التكاليف، بينما الشخص الجاد في العمل سيتعامل معه كإعادة تصميم للعمل. الفرق يكمن في الحوكمة: من يحدد المهام التي يجب أن يتم أتمتتها، وما هي المعايير، وما هي الحدود، وأي نوع من التدقيق، ومن المسؤول عند حدوث خطأ في النظام.

في يناير 2025، في دافوس، رسم هايمز أيضًا الإطار الكلي الذي يدفع نحو التسريع: "نحن في بداية سباق" بين قوة عاملة تتقلص وزيادات ممكنة للإنتاجية بفضل الذكاء الاصطناعي. حتى أنه توقع انضغاطًا زمنيًا: "30 عامًا من التغيير" يمكن أن تنجز في "ثلاث أو أربع سنوات". عندما يكون هذا هو النمط، فإن أكبر خطر ليس نموذجًا مشوشًا، بل منظمة تأخذ اختصارات لأن لوحة الحوافز تكافئ السرعة أكثر من السيطرة.

النتائج السلبية القصيرة المدى

تحذير عام 2026 يتناسب مع نمط أراه غالبًا في التحولات: يُعلن عن مبادئ ولجان، لكن التنفيذ اليومي محاصر بالضغوطات الربع سنوية. عند هذه النقطة، تصبح "المسؤولية" مجرد وثيقة، في حين تدفع المنتجات والعمليات نحو النشر. التكنولوجيا لا تقرر هذا الموقف؛ بل يقرره الهيكل الداخلي للسلطة.

الذكاء الاصطناعي كالتوتر ضمن المحفظة وليس كمشروع تقني

في الشركات الكبيرة، غالبًا ما تدخل تكنولوجيا الذكاء الاصطناعي من بابين. الباب الأول هو الكفاءة: أتمتة الدعم، توليد المحتوى، مساعدة المطورين، التحليل الداخلي. الباب الثاني هو المنتج: وظائف جديدة للعملاء، تحسين التوصيات، تحسن المطابقة، وتقليل الاحتكاك. في كلا الحالتين، الخطأ الكلاسيكي هو إدارة الأمر كأنه مشروع تقني بموعد تسليم ومؤشر أداء مالي قياسي.

وجهة نظر هايمز حول المهارات توحي بشيء آخر: الذكاء الاصطناعي يتداخل مع "محرك الإيرادات الحالي" و"الكفاءة التشغيلية" في نفس الوقت. وإذا تم التنفيذ بشكل صحيح، فإنه يفتح المجال ل"استثمار" و"تحويل" القدرات. إذا تمت إدارته بشكل خاطئ، فإنه فقط يخفض التكاليف على المدى القصير ويدمر النظام على المدى الطويل.

لذا فإن تغييره في التركيز مهم. عندما يقول قائد إن الخطر يأتي من الأشخاص الذين يقودون، فإنه يقول إن الفشل النموذجي ليس من المختبر، بل من الخط: يتم نشره دون وضوح في الملكية، ودون تتبع للقرارات، ودون آلية عملية لإيقاف النظام عند إحداث الضرر. وفي قطاعات مثل التوظيف، فإن مفهوم "الضرر" ليس مجرد نظرية: فإن فلترًا غير مضبوط بشكل سليم يمكن أن يستبعد ملفات شخصية، أو يكرّس تحيزات تاريخية، أو يخلق غموضًا يصعب تدقيقه.

التركيز على عواقب السلوك

قد سبق أن تناول هايمز هذه النقطة بقوة عندما وصف الذكاء الاصطناعي المسؤول بأنه "قضية حقوق مدنية وحقوق إنسان" في حياته، مشيرًا إلى أن هناك عدم مساواة عميقة في مجالات التوظيف والإسكان والتعليم والصحة والعدالة يمكن أن يضخمها النظام الآلي. هذا المنظور لا يُحل بواسطة قائمة فحص. بل يُحل من خلال قرارات المحفظة: كم من الميزانية يتم تخصيصه للرقابة والتدقيق، وكم للسرعة في النشر، وكم للتدريب، وكم لإعادة تصميم العمليات. إذا تم قياس كل شيء بالعائد الفوري، فإن الرقابة تخسر دائمًا.

الحواجز دون حوكمة تشكل بيروقراطية شكلية

شكلت إنديد فريقًا مختصًا في الذكاء الاصطناعي المسؤول من خبراء من مجالات متعددة، وفقًا لهايمز، لتقييم الأنظمة وبناء التكنولوجيا وفقًا لمبادئ الذكاء الاصطناعي المسؤول. التعددية هي إشارة صحيحة. المشكلة تحدث عندما يكون هذا الفريق استشاريًا، يصل متأخرًا في دورة المنتج، أو لا يمتلك السلطة لإيقاف النشر.

في الشركات الضاغطة نحو النتائج، يصبح "الفريق المسؤول" مراجِعًا نهائيًا يوافق أو لا يوافق. إذا كانت المنظمة قد ضمنت موعدًا تجاريًا، تصبح تلك الموافقة احتفالية. وإذا كان الفريق أيضًا يتم تقييمه بمقاييس لا تعكس مهمته، فإنه يُحتجز في نفس النظام الذي كان يجب أن يوازن.

كان توجه هايمز في عام 2025 اجتماعيًا تقنيًا: فهم الهياكل الاجتماعية التي يتداخل فيها الأنظمة. تعني هذه العبارة، باختصار، ثلاث نقاط عملية. أولاً، جودة البيانات وتاريخها مهمة، لأن التحيز لا يمكن "إصلاحه" لاحقًا. ثانيًا، يجب أن يكون المخرج قابلاً للتفسير على المستوى الذي يتطلبه السياق، خاصة في القرارات التي تؤثر على الفرص الاقتصادية. ثالثًا، يجب تجميع المساءلة: إذا قام نظام بأتمتة مرحلة معينة من الاختيار، يجب أن يكون هناك شخص مسؤول عن النتيجة وآثارها الجانبية.

عندما يشير هايمز الآن إلى الأشخاص الذين يتقدمون في الذكاء الاصطناعي، فإنه يصف نمطًا من إخفاقات الحوكمة أكثر من كونه نقصًا تقنيًا. لا تفتقر الشركة المتوسطة إلى نموذج أفضل؛ بل تفتقر إلى تصميم القرار الذي يُلزمها بموازنة السرعة، والسيطرة، والشرعية.

الضغط على الإنتاجية يؤدي إلى تآكل الثقة

الضغط من أجل الإنتاجية ليست عذرًا أخلاقيًا، بل هي قيود اقتصادية. إذا تناقصت القوة العاملة واستمرت الطلبات، تزداد الرغبة في الأتمتة. الخطر هو أن العديد من الشركات تقيم فوائد الذكاء الاصطناعي بمؤشرات سهلة وتقيّم التكاليف بمؤشرات غير مرئية.

تدخل الفوائد النمط بسرعة: أقل وقت لكل تذكرة، أقل تكلفة لكل تفاعل، زيادة في الإنتاجية في التطوير، مزيد من المحتوى المُنتَج. ولكن التكاليف الحرجة غالبًا ما تظهر متأخرًا: شكاوى عن التحيز، فقدان الثقة، تدهور العلامة التجارية للموظف، التعرض للرقابة، وفرق داخلية تتوقف عن فهم العملية لأنها منحتها لنظام.

في عالم التوظيف، تكون هذه الفجوة حساسة بشكل خاص. إذا اعتبر مرشح سلوكًا تعسفيًا، فإن المنصة تفقد سمعتها. إذا اعتبرت شركة أن المطابقة تزداد سوءًا أو أن العملية غامضة، فإنها تعدل إنفاقها. يمكن للذكاء الاصطناعي أن يحسن المطابقة، ولكن فقط إذا تمت إدارته بالانضباط: أهداف واضحة، تقييم مستمر، وتتبع سليم.

توقع هايمز أيضًا أنه سيكون هناك "10 أضعاف" من الناس الذين سيكونون مبرمجين، حتى وإن كان العمل سيكون "غير قابل للتعرف" مقارنة بالتطوير الحالي. يشير هذا التصريح إلى إعادة تصميم عميقة للعمل المعرفي. وعندما يتغير العمل هكذا، يجب على الشركات إعادة تصميم نظام أدائها، وتدريبها، وهياكل أدوارها. إذا لم تفعل ذلك، فإن الذكاء الاصطناعي يصبح طبقة إضافية فوق العمليات القديمة، مما ينتج عنه احتكاك وأخطاء على نطاق واسع.

القيادة الفاشلة ليست نتيجة سوء النية

القيادة التي تفشل هنا لا تفشل بنية سوء النية، بل تفشل بسبب استخدام نفس نظام الإدارة السابق. يتطلب الذكاء الاصطناعي نظامًا مختلطًا: كفاءة وتعلم. إذا تمت مكافأة الكفاءة فقط، فإن القدرة على الكشف عن الأضرار المبكرة تُقتل.

نمط العمليات لتفادي تحويل الذكاء الاصطناعي إلى خطر نظامي

مع المعلومات العامة المتاحة، لا يحدد هايمز أمثلة محددة في تحذيره الأحدث. ومع ذلك، فإن تاريخه يسمح بقراءة الخطر المركزي كفجوة بين المبادئ والتنفيذ. في المنظمات الكبيرة، تُقلص هذه الفجوة بشكلٍ أفضل من خلال التصميم، وليس من خلال الخطب.

عمليًا، أرى أربع آليات تفصل بين التبني السليم والضعيف. الأول هو الملكية الصريحة: يجب أن يكون لكل نظام يؤثر على قرارات حساسة مالك من الأعمال ومالك من المخاطر، بسلطة حقيقية. الثاني هو استقلالية مع حدود: تحتاج الفرق التي تقوم بالتجريب إلى سرعة، لكن ضمن إطار يحدد ما لا يمكن لمسه وما يجب مراجعته دائمًا. الثالث هو المؤشرات الصحيحة لكل مرحلة: في النشر المبكر، قياس الادخار أو التحويل فقط يدفع إلى إخفاء المشكلات؛ يجب قياس الاستقرار، والأخطاء، والشكاوى، والقابلية للعكس أيضًا. الرابع هو قابلية التراجع: إذا كان نظام يؤدي إلى ضرر، يجب أن تكون الشركة قادرة على إيقافه أو تقليصه دون انقطاع التشغيل.

هذا ليس ببيروقراطية زائدة. بل هو الحد الأدنى من الهندسة التنظيمية لجعل الذكاء الاصطناعي منتجًا دون أن يصبح عبئًا. النقطة التي أشار إليها هايمز حول "من يقود" الذكاء الاصطناعي هي، في جوهرها، نقد للاعتماد دون ضوابط عملية.

قضية إنديد مهمة لأن صناعة التوظيف في قلب الحساسية الاجتماعية والتنظيمية. الشركات التي تسعى لتحقيق الكفاءة متجاهلةً للرقابة قد تربح ربعًا ولكن تفقد الثقة لسنوات. أما الشركات التي تستثمر في الحوكمة وإعادة تصميم العمل فتستطيع تحقيق إنتاجية مستدامة.

الجدوى تعتمد على إدارة سرعتين دون تدمير النواة

يدفع الذكاء الاصطناعي الشركات للعمل بسرعتين: الحفاظ على العمل الحالي مع انضباط التكاليف، وفي نفس الوقت، استكشاف إعادة تصميم العمل والمنتج بإيقاع أقرب إلى الشركات الناشئة من الشركات الكبرى. بمثابة تذكير، فإن تحذير هايمز يعمل بمثابة تذكير أن نقطة الفشل نادرًا ما تكون النموذج؛ بل هي نظام القرارات المحيط به.

تقوم المنظمة القابلة للتطبيق بحماية خزان الوقود الخاص بالعملية الحالية دون خنق الاستكشاف، وتخصيص سلطة واضحة لإيقاف النشر عندما يتجاوز الخطر الفائدة، وتقيس التعلم المبكر بمؤشرات لا تعاقب اكتشاف الأخطاء. هذا التوازن يجعل ربحية الحاضر مستدامة بينما يبنيه القدرة على التوسع نحو المستقبل.

مشاركة

قد يعجبك أيضاً