لماذا تتبنى 91% من الشركات الذكاء الاصطناعي دون معرفة البيانات التي تسلّمها إليه

لماذا تتبنى 91% من الشركات الذكاء الاصطناعي دون معرفة البيانات التي تسلّمها إليه

وصل الذكاء الاصطناعي التوليدي إلى غالبية المؤسسات ليس عبر أقسام تكنولوجيا المعلومات، بل من الباب الخلفي لتطبيقات الإنتاجية. Microsoft 365 Copilot وGemini والمساعدون المدمجون في منصات التعاون: فُعِّلت هذه الأدوات في بيئات العمل حيث يعمل الموظفون بالفعل، وبذلك بدأت تجربة صامتة لم يتفاوض أحد على شروطها بالكامل. المشكلة ليست في نماذج اللغة، بل فيما تعثر عليه هذه النماذج حين تتصل بمؤسسة حقيقية.

Elena CostaElena Costa٧ مايو ٢٠٢٦8 دقيقة
مشاركة

لماذا تتبنّى 91% من الشركات الذكاء الاصطناعي دون أن تعرف أيّ بيانات تُسلّمه إيّاها

وصل الذكاء الاصطناعي التوليدي إلى غالبية المؤسسات لا من بوّابة قسم تقنية المعلومات، بل من الباب الخلفي لتطبيقات الإنتاجية. فمنصة Microsoft 365 Copilot، وGemini، والمساعدون المدمجون في منصات التعاون؛ هذه الأدوات كلّها أُتيحت في بيئات مؤسسية كان الموظفون يعملون فيها مسبقًا، وبذلك بدأت تجربة صامتة لم يُفاوَض أحدٌ كليًّا على شروطها.

لا تكمن المشكلة في نماذج اللغة. بل تكمن فيما تجده تلك النماذج حين تتّصل بمؤسسة حقيقية.

وفقًا لتقرير Huble حول جاهزية البيانات للذكاء الاصطناعي، تعتبر نفسها مؤهّلةً تمامًا للعمل بالذكاء الاصطناعي 8.6% فحسب من الشركات. أما الـ91% الباقية فهي في مرحلة ما بين التجريب والجمود، على الرغم من التزامها بميزانيات وأوقات وسمعة داخلية في مشاريع التبنّي. وتُسجّل شركة Deloitte في تقريرها لعام 2026 حول حالة الذكاء الاصطناعي في المؤسسات أن ثلثَي المؤسسات تُفيد بتحقيق مكاسب في الإنتاجية، غير أنها توثّق في الوقت ذاته عجزًا مستمرًّا في البنية التحتية وإدارة البيانات والكفاءات البشرية والتحكم في المخاطر. وقد بلغ نمو الوصول الوظيفي إلى أدوات الذكاء الاصطناعي 50% في عام 2025، في حين لم تنمُ الجاهزية لإدارة هذا الوصول بالوتيرة ذاتها.

هذه الهوّة ليست عرَضية. إنها هيكلية. وسببها واحد تتحاشى معظم المؤسسات تسميتَه صراحةً دون التلطّف بالمصطلحات: البيانات المؤسسية في معظمها في حالة فوضى.

ما يعثر عليه المساعد حين لا يكون أحد يراقب

حين تُفعّل شركةٌ ما مساعدًا ذكيًّا من نوع الكوبايلوت داخل بيئتها الإنتاجية، فإن هذا النظام لا يُنشئ بوّابات وصول جديدة، بل يستخدم تلك الموجودة أصلًا. يعمل بالصلاحيات الموروثة من المستخدم الذي يُفعّله، ويصل بالضبط إلى ما يستطيع ذلك المستخدم الوصول إليه، مع فارق تشغيلي واحد يُغيّر كل شيء: أنه يفعل ذلك بسرعة الآلة.

توثّق Microsoft هذا الأسلوب بدقة. تُحدّد معمارية الكوبايلوت لديها أن النظام يعمل داخل محيط الخدمة، مُقيَّدًا بالمستخدم المُوثَّق والمحتويات التي يملك تلك الشخص صلاحية الوصول إليها. لا يكسر النظام الأذونات، بل ينفّذها. وهنا يكمن الجانب الذي لم يحسبه كثير من فِرَق الأمن بوضوح كافٍ: إذا كانت الأذونات أكثر انفتاحًا مما ينبغي، فبإمكان استفسار واحد أن يسترجع ما كان يتطلّب سابقًا عشرات عمليات البحث اليدوي المتفرّقة.

سنوات من المجلدات المشتركة التي لم تُغلَق قط. ملفات نُسخت لغرض تحليل آني فبقيت في محرّكات شخصية. رسائل إلكترونية تحمل مرفقات حسّاسة مؤرشفة دون تصنيف. مستودعات وثائق تراكمت فيها سجلات لا يحذفها أحد لأنّ أحدًا لا يتذكّر وجودها. هذه هي المادة الخام الحقيقية التي يعمل عليها مساعد الذكاء الاصطناعي حين يتّصل بمؤسسة لم تراجع بيئتها قبل تفعيل الوصول.

لا ينشأ الخطر من نموذج اللغة. ينشأ من معمارية البيانات التي يرثها النموذج.

تواجه فِرَق الأمن هنا مشكلة في الرؤية لا تحلّها أدواتها التقليدية. فقد صُمّمت أنظمة منع فقدان البيانات لمراقبة نقاط الخروج. وتُدير أنظمة إدارة الهويات الأدوار والصلاحيات. وتوثّق سجلات النشاط ما حدث بالفعل. لم يُبنَ أيٌّ من هذه الأدوات لرسم خريطة ما يحدث حين تعبر استعلام ذكاء اصطناعي وثائقَ وصناديق بريد وقواعد بيانات ومستودعات معرفة في تفاعل واحد، منتجًا استجابةً تجمع شتاتًا من المعلومات لم تكن مترابطة قط.

ما ينبثق من هذا التقاطع قد يكون مشروعًا تمامًا. وقد يكون أيضًا تركيزًا لبيانات حسّاسة لم يتوقّعها أي نظام رقابي سابق.

التكلفة الخفية لتجاهل البنية التحتية قبل اعتماد النموذج

تعاني الرواية السائدة حول تبنّي الذكاء الاصطناعي في المؤسسات من تشويه أصيل: إذ تُركّز الحوار على النماذج والواجهات وحالات الاستخدام، وتُهمّش السؤال الجوهري حول أيّ بيانات تُغذّي تلك القرارات وتحت أيّ ظروف من النظام والتصنيف والحوكمة.

تُقدّر مؤسسة Gartner أن 63% من المؤسسات لا تمتلك الممارسات اللازمة لإدارة البيانات بما يكفي لإعالة مشاريع الذكاء الاصطناعي. هذا الرقم يُساعد على فهم سبب توقّف كثير من عمليات النشر قبل الوصول إلى الإنتاج، ليس بسبب قصور النموذج ولا بسبب شحّ الميزانية، بل لأن البنية التحتية للبيانات الكامنة لا تستطيع استيعاب ما يحتاجه النموذج للعمل بتماسك.

للفجوة تداعيات مالية مباشرة. المؤسسات التي تستثمر في التراخيص والتدريب وتغيير العمليات دون معالجة طبقة البيانات أولًا تدفع مقابل طاقة لا تستطيع استخدامها بموثوقية. والأسوأ من ذلك: أنها تتحمّل انكشافًا لا تستطيع قياسه. فإذا عملت أنظمة الذكاء الاصطناعي على بيانات غير مصنّفة، وبصلاحيات مفتوحة أكثر من اللازم، ودون جرد محدَّث لما يوجد أين، فإن نافذة الانكشاف التنظيمي تتّسع بأساليب لا يزال المدققون والفِرَق القانونية يتعلّمون قياسها.

تهيكل شركة Persistent Systems، من بين مزوّدين آخرين متخصّصين في هذا المجال، حلولها حول ثلاثة محاور دقيقة: تحسين البنية التحتية، وجودة البيانات، والتوسّع الآمن لأعباء عمل الذكاء الاصطناعي. والتسلسل ليس اعتباطيًّا. فالتوسّع يأتي في الآخر، لا في البداية.

توثّق شركة Astutis في تقريرها لعام 2026 أن الغالبية العظمى من العمّال تتوقّع أن يكون للذكاء الاصطناعي تأثير جوهري في وظائفهم خلال خمس سنوات، لكن نسبة ضئيلة فحسب تستخدمه بصورة فاعلة اليوم. لا يعود السبب إلى مقاومة ثقافية، بل إلى أن التجربة الفعلية مع أدوات الذكاء الاصطناعي في بيئات مؤسسية غير مُهيَّأة تُوجد احتكاكات ملموسة: استجابات متضاربة، ونتائج تخلط معلومات من سياقات مختلفة، وغموض حول موثوقية ما يُعيده النظام. هذه الاحتكاكات لا تُحلّ بتحسين النموذج. تُحلّ بمعالجة البيانات.

حوكمة الذكاء الاصطناعي كما تُحكم هوية عالية المخاطر

ثمّة تحوّل مفاهيمي تُنجزه بالفعل المؤسسات الأكثر تقدّمًا في هذا الميدان، وسيضطر الآخرون في نهاية المطاف إلى تبنّيه: التعامل مع وكلاء الذكاء الاصطناعي بوصفهم هويات محكومة، لا بوصفهم أدوات للمستخدم.

حين يصل كوبايلوت أو وكيل أتمتة إلى الأنظمة المؤسسية، فإنه يفعل ذلك عبر حسابات الخدمة وواجهات البرمجة وسياقات المستخدم. فله صلاحيات. ويتصرّف على البيانات. ويُنتج مخرجات قد تحتوي على معلومات حسّاسة. لكلّ هذه الأسباب، يستحق أن يُعامَل كأي هوية ذات امتيازات عالية في المؤسسة: مراجعة دورية للوصول، وتطبيق مبدأ الحدّ الأدنى من الصلاحية، ومراقبة السلوك، وقابلية تتبّع ما يتّصل به.

معظم برامج الأمن المؤسسية غير مُهيَّأة لهذا. صُمّمت للتعامل مع البشر والأنظمة، لا مع وكلاء ذكاء اصطناعي يعملون بمنطق خاص بهم، ويجمعون مصادر معلومات ويُنتجون مخرجات لا يستطيع مشغّلوهم البشريون دائمًا توقّعها.

تستلزم جاهزية البيانات للذكاء الاصطناعي، بمفهومها التشغيلي، أربع خطوات عملية على الأقل. أولًا: بناء جرد محدَّث لأنظمة الذكاء الاصطناعي النشطة في البيئة، بما في ذلك الكوبايلوتس المضمّنة في منصات الإنتاجية والنماذج المخصّصة ووكلاء الأتمتة، مع تعيينها إلى مصادر البيانات التي تصل إليها. ثانيًا: تصنيف البيانات الحسّاسة بصورة متسقة عبر التخزين السحابي وتطبيقات البرمجيات كخدمة والمستودعات الموروثة، لأنه دون هذا التصنيف لا تستطيع ضوابط الامتثال التمييز بين المعلومات الحسّاسة والعامة. ثالثًا: تطبيق المراجعة ذاتها على وكلاء الذكاء الاصطناعي التي تُطبَّق على حسابات الخدمة عالية المخاطر: إذ ينبغي أن تعكس صلاحياتهم الاستخدام الفعلي لا الإرث المتراكم. رابعًا: ربط هذا السياق البياناتي بالضوابط القائمة، بما فيها أنظمة منع فقدان البيانات وإدارة الوصول والهويات وبوّابات الوصول الآمن، لكي تعكس السياسات الانكشاف الحقيقي بدلًا من الأنماط المجرّدة.

لا تستلزم أيٌّ من هذه الخطوات انتظار تحسّن نماذج الذكاء الاصطناعي. إنها قرارات تتعلق بالبنية التحتية الموجودة أصلًا.

جاهزية البيانات ليست مرحلة مسبقة، بل هي الرهان الحقيقي

يشهد سوق الذكاء الاصطناعي المؤسسي نموًّا بمعدلات تتجاوز 30% سنويًّا، ومن المتوقّع أن يبلغ ما بين 150 و200 مليار دولار بحلول عام 2030. في هذا السياق، لن تكمن الميزة التنافسية في اعتماد الذكاء الاصطناعي قبل الآخرين، بل في اعتماده على أساس يُتيح العمل بثقة والتوسّع دون احتكاكات.

المؤسسات التي تعاملت مع جاهزية البيانات باعتبارها شكلية تقنية ثانوية تكتشف في مرحلة الإنتاج أن أنظمة الذكاء الاصطناعي لديها تُنتج نتائج متضاربة، وأن فِرَقها القانونية لا تستطيع إثبات الامتثال التنظيمي للعمليات المُساعَدة بالذكاء الاصطناعي، وأن فِرَق الأمن لديها لا تستطيع الإجابة على أسئلة جوهرية حول أيّ المعلومات تُعالَج ومن يعالجها.

التحوّل الذي يكشفه هذا المنعطف ليس تكنولوجيًّا في جوهره. إنه حوكمي. يُجبر الذكاءُ الاصطناعي المؤسساتِ على مواجهة مشكلات بيانات كانت قائمة قبل أن يُفعَّل أي كوبايلوت: بيانات غير مصنّفة، وصلاحيات متراكمة دون مراجعة، وجرود منقوصة، وضوابط صُمّمت لعالم كانت فيه عمليات البحث يدوية وبطيئة. ما تغيّر ليس أن هذه المشكلات ظهرت، بل أنه لم يعد ممكنًا تجاهلها دون تبعات مرئية وسريعة.

المؤسسات التي ستخرج في وضع أفضل من هذه الدورة هي التي أدركت أن إعداد البيانات ليس خطوة سابقة لاعتماد الذكاء الاصطناعي. إنه، بدقة، العمل الجوهري الذي يُحدّد ما إذا كان التبنّي يُنتج قيمةً حقيقية أم يُنتج فحسب مساحة مخاطر أوسع تعمل عليها منظومة أسرع.

مشاركة

قد يعجبك أيضاً