وكلاء الذكاء الاصطناعي باتوا داخل أنظمتك واستراتيجية الهوية لديك لا تزال تجهل ذلك

وكلاء الذكاء الاصطناعي باتوا داخل أنظمتك واستراتيجية الهوية لديك لا تزال تجهل ذلك

بحلول نهاية عام 2026، سيتضمن 40% من تطبيقات الأعمال المؤسسية وكلاء ذكاء اصطناعي مخصصين لمهام محددة. قبل اثني عشر شهراً، لم تكن هذه النسبة تتجاوز 5%. هذه القفزة ليست مجرد إحصاء؛ إنها تحول هيكلي جذري.

Francisco TorresFrancisco Torres٦ مايو ٢٠٢٦7 دقيقة
مشاركة

وكلاء الذكاء الاصطناعي موجودون داخل أنظمتك بالفعل، واستراتيجيتك في إدارة الهويات لا تزال تجهل ذلك

بحلول نهاية عام 2026، سيتضمن 40% من تطبيقات المؤسسات وكلاء ذكاء اصطناعي مكلَّفين بمهام محددة. قبل اثني عشر شهراً، لم تكن هذه النسبة تتجاوز 5%. والقفزة ليست إحصائية فحسب، بل هي قفزة هيكلية في جوهرها. فملايين الهويات غير البشرية تعمل الآن في الشبكات المؤسسية، وتتمتع بصلاحية الوصول إلى البيانات والأنظمة وعمليات اتخاذ القرار، في حين لا تزال غالبية فرق الأمن تتعامل مع هذه المشكلة بالأدوات الخاطئة.

لقد بُنيت إدارة الهوية والوصول —التي تُعرف في صناعة التقنية بمصطلح IAM اختصاراً لـ Identity and Access Management— في عالم كان الفاعلون فيه من البشر حصراً. يدخل شخص ما، تُسند إليه وظيفة ودور محدد، تُراجَع صلاحياته بصفة دورية، وفي نهاية المطاف يُفصل عن المنظومة. لهذه الدورة منطقها الإنساني لأنها صُمِّمت أصلاً للإنسان. أما وكلاء الذكاء الاصطناعي، فلا يمرون عبر إدارة الموارد البشرية، ولا يوجد مدير يوافق على صلاحياتهم، ولا تحديد مسبقاً لتاريخ انتهاء عملهم. ومع ذلك، فهم يملكون صلاحيات الوصول. وهذا الوصول، في معظم المنظمات، لا يخضع للضبط ذاته الذي يخضع له أي موظف جديد.

وهذه ليست مشكلة تقنية ثانوية. إنها شرخ هيكلي عميق في طريقة فهم المؤسسات لمن —أو لماذا— يعمل داخل أنظمتها.

الجرد الذي لا يمتلكه أحد

قبل الحديث عن آليات التحكم، ثمة سؤال أكثر جوهرية لا تستطيع سوى قِلَّة من المنظمات الإجابة عنه بدقة: كم عدد وكلاء الذكاء الاصطناعي الذين يعملون في بيئاتها الآن، ومن الذي نشرهم، وما الذي يستطيعون فعله؟

والإجابة المزعجة هي أن معظمها لا تعرف. استناداً إلى بيانات نشرتها شركة Gravitee، فإن واحداً فقط من كل سبعة وكلاء ذكاء اصطناعي يعمل في البيئات الإنتاجية قد خضع لمراجعة رسمية من قِبَل فريق الأمن قبل نشره. أما الباقون، فقد أطلقتهم فرق الأعمال أو التطوير مدفوعةً بضرورات تشغيلية عاجلة، دون المرور بالفلاتر ذاتها المطبَّقة على أي نظام جديد. والنتيجة هي بيئة من الهويات غير البشرية تتراكم لديها الصلاحيات دون تدقيق، وتعمل تحت بيانات اعتماد مشتركة، وتبقى نشطةً طويلاً بعد أن يكون سير العمل الذي أوجدها قد تغيَّر أو اختفى كلياً.

المشكلة ليست جديدة من حيث المفهوم. فالهويات غير البشرية —من حسابات الخدمة ومفاتيح الـ API ونصوص الأتمتة البرمجية— كانت تفوق عدداً المستخدمين البشريين في معظم الشركات الكبرى قبل أن يدخل وكلاء الذكاء الاصطناعي إلى المشهد. ما تغيَّر هو السرعة والاستقلالية. فمجموعة Kubernetes يمكنها توفير آلاف حسابات الخدمة في دقائق معدودة. ووكيل الذكاء الاصطناعي يستطيع التفاعل مع أنظمة متعددة في آنٍ واحد، واتخاذ قرارات في الوقت الفعلي، وتعديل سلوكه وفقاً للسياق. هذا ليس حساب خدمة سلبياً ينتظر تعليمة ما. إنه فاعل يمتلك قدرة على الحكم والتقدير المستقل داخل أنظمتك.

وبدون جرد واضح لما هو موجود من وكلاء، وما يملكه من صلاحيات وصول، ومن يتحمل المسؤولية عنهم، يظل أي حديث عن آليات التحكم متأخراً عن المشكلة. لا يمكنك أن تحكم ما لم تفهرسه أولاً.

كيف يبدو الخرق حين يكون الفاعل آلةً

يوضح ما جرى في شركتَي Salesloft وDrift العام الماضي بدقة متناهية النوع من المخاطر التي تظهر حين تعجز ضوابط الهوية عن ملاحقة تكاملات الذكاء الاصطناعي. فقد اخترق المهاجمون رموز OAuth المرتبطة ببرنامج المحادثة الآلي الخاص بـ Drift —وهو تكامل ذكاء اصطناعي تستخدمه Salesloft— وتمكنوا من الوصول إلى بيئات Salesforce الخاصة بأكثر من 700 منظمة. ومرّ هذا الخرق دون أن يُلاحَظ لأيام متواصلة.

التفصيل المهم هنا ليس تقنياً بل تشغيلي: كان فريق الأمن يرى أن برنامج المحادثة الآلي يمتلك صلاحية الوصول. ما لم يكن بمقدوره رؤيته هو ما كان يفعله هذا الوصول في الوقت الفعلي. ومن الخارج، كانت الاستعلامات الخبيثة لا تتمايز عن السلوك المشروع للبرنامج. كانت هوية غير بشرية موثوق بها تؤدي تماماً ما بدا أنه المفترض أن تؤديه.

هذا النمط —وصول مرئي، سلوك مخفي— هو صميم المشكلة. فأطر IAM التقليدية بُنيت للإجابة على سؤال: من يملك صلاحية الوصول إلى ماذا؟ أما أمام وكلاء الذكاء الاصطناعي، فالسؤال الذي يهم هو: ماذا يفعل هذا الوصول في كل لحظة، وفي أي سياق، ولأي غرض؟ وهذان سؤالان مختلفان تماماً، ويستلزمان أدوات مختلفة.

إن نموذج التحكم الساكن المرتكز على الأدوار —تُسنِد دوراً، والدور يحدد الصلاحيات، وتُراجَع الصلاحيات كل ثلاثة أشهر— لم يُصمَّم لفاعلين يعملون بسرعة الآلة ويعدّلون سلوكهم وفقاً للسياق. ما تحتاجه هو تقييم مستمر للمخاطر لا تدقيق دوري. تحتاج إلى أن تنتهي صلاحية الوصول تلقائياً حين تنتهي المهمة، لا أن تستمر إلى أجل غير مسمى لأن أحداً لم يسحبها.

هذه المبادئ قائمة منذ أمد. الحد الأدنى من الصلاحيات، والوصول في الوقت المناسب، والرموز المؤقتة التي تنتهي صلاحيتها ذاتياً، والتكامل مع منصات إدارة الوصول المميز. لا شيء من هذه الآليات جديد. الجديد هو الإلحاح في تطبيقها على فئة من الهويات لم تُصمَّم أصلاً لها، وذلك قبل أن يظهر الحادث التالي في التقرير الفصلي.

ما تؤجله المنظمات ولماذا يحمل هذا التأجيل ثمناً

ثمة سبب وجيه لعدم قيام فرق الأمن بتوسيع أطر IAM لديها لتشمل وكلاء الذكاء الاصطناعي بالسرعة ذاتها التي يُنشر بها هؤلاء الوكلاء: فالنشر تقوده فرق الأعمال، بينما تتدخل فرق الأمن لاحقاً.

هذا التفاوت هيكلي في طبيعته. فالفريق المعني بالمنتج أو العمليات، حين يرى في وكيل ذكاء اصطناعي ما سبيلاً لأتمتة سير عمل ما، لا يجد حافزاً للتوقف وطلب مراجعة أمنية قد تستغرق أسابيع. حافزه هو تحقيق النتيجة التشغيلية الفورية. أما تكلفة عدم الامتثال —من خرق أو وصول غير مصرح به أو وكيل مُخترَق— فيدفعها فريق آخر، في وقت لاحق، من ميزانية مختلفة.

هذا التوزيع في الحوافز ينتج بالضبط الجرد الفوضوي الذي وصفناه آنفاً: عشرات أو مئات الوكلاء يعملون في الإنتاج، كثير منهم دون مالك رسمي، بصلاحيات لم تخضع لأي مراجعة وبيانات اعتماد لا يعرف أحد متى تنتهي صلاحيتها.

الحل ليس إبطاء نشر الوكلاء. فمكاسب الإنتاجية حقيقية وملموسة، والمنظمات التي تتأخر ستدفع ثمن ذلك بصورة مختلفة. الحل هو دمج حوكمة الهوية في عملية النشر، لا بوصفها خطوة لاحقة بل شرطاً مسبقاً. ألا يدخل أي وكيل إلى الإنتاج قبل أن يجيب أحدهم على ثلاثة أسئلة جوهرية: إلى ماذا يملك صلاحية الوصول، ومن يتحمل المسؤولية عن هذا الوصول، وفي أي ظروف تنتهي تلك الصلاحية.

وقد رصدت مؤسسة Gartner غياب حوكمة هويات وكلاء الذكاء الاصطناعي باعتباره أحد أبرز اتجاهات الأمن السيبراني الأكثر خطورة لعام 2026. ليس لأن المشكلة جديدة من حيث منطقها، بل لأن سرعة التبني تتجاوز سرعة تطبيق الضوابط. والفجوة بين الاثنتين هي المكان الذي تعيش فيه الحوادث.

الحاكم الغائب في سباق الذكاء الاصطناعي التشغيلي

تتمحور الرواية السائدة حول الذكاء الاصطناعي في المؤسسات حول القدرة: ما الذي يستطيع وكيل الذكاء الاصطناعي فعله، وكم من الوقت يوفر، وكم من العمليات يؤتمت. وهذه رواية مشروعة لا شك فيها. فأرقام الإنتاجية حقيقية وملموسة.

غير أن ما تستبعده هذه الرواية هو السؤال عمّن يتحمل المسؤولية حين تسوء الأمور. وحين يكون الفاعل الذي أخفق ليس موظفاً بل وكيلاً يملك صلاحية الوصول إلى أنظمة متعددة، يصبح السؤال أصعب إجابةً بكثير.

إن انخفاض تكاليف الخروقات الذي تعِد به أطر الذكاء الاصطناعي في إدارة الهوية والوصول —والذي يصل بحسب بعض دراسات القطاع إلى 80%— لا يأتي من تلقاء ذاته. إنه يأتي حين يقرر أحدهم أن وكلاء الذكاء الاصطناعي هم قرارات هوية قبل أن يكونوا قرارات هندسية. حين يمتلك فريق الأمن رؤية لحظية لسلوك كل وكيل، لا مجرد الاطلاع على صلاحياته الساكنة. حين تنتهي صلاحيات الوصول تلقائياً، وتكون تدفقات التحقق مستمرة لا سنوية.

المنظمات التي تنشر وكلاء الذكاء الاصطناعي دون هذا المستوى من الحوكمة لا تتهور بدافع الجهل. إنها تتهور لأن الضغط للتحرك بسرعة حقيقي ومحسوس، ولأن الضوابط الصحيحة تستلزم استثماراً وتنسيقاً واحتكاكاً متعمَّداً في عمليات النشر.

وهذا الاحتكاك، حين يُصمَّم بشكل سليم، لا يُعيق التبني، بل يجعله مستداماً. فالفارق بين برنامج ذكاء اصطناعي يتوسع بصورة منظمة وآخر يُفضي إلى حادث جسيم في غضون ثمانية عشر شهراً لا يكمن في جودة النماذج ولا في طموح حالات الاستخدام. إنه يكمن في ما إذا كان أحدهم قد خاض نقاش الهوية قبل أن يصل أول وكيل إلى الإنتاج.

مشاركة

قد يعجبك أيضاً