كلود يحدد أذوناته الخاصة ولا تنظر الصناعة إلى ذلك بشكل جيد

كلود يحدد أذوناته الخاصة ولا تنظر الصناعة إلى ذلك بشكل جيد

أعلنت شركة أنكروبتيك عن وضع جديد لأدواتها، مما قد يخلق مشكلات جديدة للمستخدمين.

Clara MontesClara Montes٢٦ مارس ٢٠٢٦6 دقيقة
مشاركة

كلود يحدد أذوناته الخاصة ولا تنظر الصناعة إلى ذلك بشكل جيد

هناك لحظة في تطوير أي أداة تكنولوجية حيث تتوقف الاحتكاكات عن كونها مشكلة تصميم وتتحول إلى علامة تنذر بالخطر يبدأ السوق في تجاهلها. لقد تجاوزت شركة أنكروبتيك هذه الخطوط.

أعلنت الشركة عن وضع تشغيل جديد لأداة كلود كود — أداتها البرمجية المدعومة بالذكاء الاصطناعي — تحت اسم "الوضع الذاتي". الآلية بسيطة: بدلاً من مقاطعة المطور بطلبات إذن كلما احتاج إلى تنفيذ إجراء حساس (مثل قراءة الملفات، تعديل الشيفرة، الوصول إلى موارد النظام)، يقوم كلود بتقييم مستوى الوصول الذي يحتاجه بنفسه ويقوم بأخذه. الحجة المقدمة من أنكروبتيك هي أن هذا يمثل حلاً وسطاً بين التحكم الدقيق — الذي كان المستخدمون يتجنبونه بنشاط — والاستقلالية الكاملة دون حواجز. حلاً وسطاً. حلاً عمليًا.

المشكلة مع الحلول الوسط هي أنها ترث التوترات من كلا الطرفين دون أن تحل أيًا منها.

الحل البديل الذي أجبر أنكروبتيك على اتخاذ قرار

أكثر ما يُظهر هذا الإعلان ليس في التقنية الجديدة، بل في التشخيص الذي أدى إليه. وفقًا للشركة نفسها، كان مستخدمو كلود كود يتجنبون بانتظام شاشات الإذن. ليس لأنهم كانوا غير مبالين أو متهورين، بل لأن الاحتكاك المعياري الذي ولدته إلكترونيات الإذن الدقيقة كان يدمر سير العمل الذي تم تصميم الأداة من أجله.

هذا نمط كلاسيكي للهندسة الزائدة للأمن مما يؤدي في النهاية إلى تأثير عكسي. عندما يولد نظام التحكم احتكاكًا كافيًا، يقوم المستخدمون — خاصة الفنيون، الذين لديهم الوسائل للقيام بذلك — ببناء اختصاراتهم الخاصة. والنتيجة هي شعور زائف بالأمان: نظام الأذونات لا يزال موجودًا، لكن عمليًا هو ميت. لم تكن أنكروبتيك تحمي أحدًا؛ بل كانت تنتج وثائق للامتثال لم يقرأها أحد.

يولد "الوضع الذاتي"، إذن، ليس من رؤية جريئة للمنتج، بل من ضغط قاعدة مستخدمين تصوت بالفعل بأصابعها. قد شرعت الشركة ما كان السوق يقوم به بالفعل بشكل غير رسمي. هذا ليس سلبًا في حد ذاته — العديد من أفضل قرارات المنتجات هي كذلك بالضبط — ولكن من المهم فهم ذلك لتقييم المخاطر القادمة.

السؤال الفني الذي يبقى هو من الذي يدقق في القرارات التي يتخذها كلود بشأن أذوناته الخاصة، وتحت أي معايير يمكن للمستخدمين الوثوق بأن هذا التقييم الداخلي يتماشى مع مصالحهم التشغيلية، وليس فقط مع مصالح المنصة.

ما الذي يبحث عنه المطورون؟ ليس السرعة

من الخارج، يبدو أن هذه الخطوة هي تحسين لتجربة المستخدم. أقل نقرات، أقل مقاطعات، مزيد من التدفق. هذا ما تبيعه أنكروبتيك. لكن المطورين الذين يستخدمون كلود كود لا يبحثون عن سرعة بمعناها السطحي.

هم يبحثون عن الثقة التشغيلية: القدرة على تفويض مهمة معقدة واحتساب، مع درجة معقولة من اليقين، أن الوكيل سيعمل ضمن الحدود التي كانوا سيحددونها لو كان لديهم وقت للتفكير في الأمر. يتضمن ذلك نموذجًا ذهنيًا مشتركًا حول ما هو مقبول وما هو غير مقبول في السياق المحدد لكل مشروع.

نظام الأذونات الصريح، مهما كان محبطًا، كان يؤدي وظيفة تتجاوز الأمن الفني: كان يبني ذلك النموذج المشترك في الوقت الحقيقي. كانت كل موافقة عبارة عن معايرة صغيرة بين الوكيل والمطور. "الوضع الذاتي" يلغي هذه المعايرة ويستبدلها بالثقة في أن كلود لديه النموذج الصحيح بالفعل. قد ينجح هذا في سيناريوهات قابلة للتنبؤ. في المشاريع التي تتطلب التقييد، أو البنية التحتية الحساسة، أو الفرق ذات مستويات الخبرة المختلفة، تصبح الرهانات أكثر تكلفة بكثير.

أنا لا أقول إن النموذج السابق كان أفضل. أنا أقول إن العمل الحقيقي الذي يبحث عنه المطور هو تقليل عدم اليقين، وهذا العمل الآن يقع على قدرة كلود على استنتاج السياق بشكل صحيح، وليس على التفكير الصريح من المستخدم. إنه تغيير في هندسة الثقة، وليس مجرد واجهة.

المخاطر التي يعيد توزيعها أنكروبتيك

هناك آلية مالية وسمعة لم يتم تحليلها في الكثير من التغطيات عن هذا الخبر: عندما تختار ذكاءً اصطناعيًا أذوناته الخاصة ويحدث خطأ ما، من الذي يتحمل تكلفة الخطأ؟

في نموذج الأذونات الصريحة، كانت سلسلة المسؤولية واضحة إلى حد معقول. لقد وافق المستخدم على الإجراء. لقد تحمل المستخدم المخاطر. نفذت الأداة ضمن التفويض الممنوح. مع "الوضع الذاتي"، تنكسر تلك السلسلة. كلود يقيم، كلود يقرر، كلود ينفذ. إذا كانت التقييمات غير صحيحة — إذا كان النموذج يبالغ في تقدير الأذونات التي يبررها السياق — يتعرض المطور لعواقب لم يوافق عليها صراحة.

تقوم أنكروبتيك بإعادة توزيع هذا الخطر نحو المستخدم دون أن يسجل المستخدم بالضرورة ذلك. السرعة مرئية وفورية. أما الخطر المعاد توزيعه فهو غير مرئي حتى يتجلى. هذا ليس مجرد عيب تصميم بسيط؛ بل هو المتغير الأهم بالنسبة لأي منظمة تفكر في اعتماد هذه الأداة في بيئات الإنتاج.

النقطة ليست أن أنكروبتيك تتصرف بسوء نية. النقطة هي أن هندسة المسؤولية في الأنظمة الذاتية الذكاء تتشكل فعليًا، دون وجود أطر تنظيمية أو تعاقدية تترافق مع تلك السرعة. الشركات التي تعتمد هذه الأدوات دون معالجة هذا السؤال داخليًا تقوم ببناء ديون حكم ستحتاج في النهاية إلى من يسددها.

الاستقلالية كميزة تنافسية لها تاريخ انتهاء

ليست أنكروبتيك وحدها في هذا الاتجاه. إن ميل الوكلاء الذكاء الاصطناعي نحو مزيد من الاستقلالية التشغيلية يتناسب مع جميع أنحاء الصناعة: تقليل التأكيدات، وزيادة التنفيذ، والقدرة المتزايدة على العمل نيابة عن المستخدم دون إشراف دائم. المنطق التنافسي مفهوم: النموذج الذي يتسبب بأقل مقاطعات يفوز بالاعتماد في الأجل القصير.

لكن هذا المنطق له أفق محدد. مع تشغيل هذه الوكلاء في سياقات أكثر تعقيدًا وعواقب أكثر تكلفة — شفرة في الإنتاج، بنية تحتية حرجة، بيانات منظّمة — تنخفض بشكل كبير التسامح مع الأخطاء الذاتية. ستكون المؤسسات التي تحتفل اليوم بالسرعة هي الأولى في المطالبة بتدقيقات دقيقة عندما يحدث أول حادث كبير.

إن "الوضع الذاتي" لكلود هو، في هذا السياق، رهان يعمل بشكل مثالي في الوقت الحالي في السوق وينشئ ضعفًا هيكليًا لمستقبل المنتج. سيتعين على أنكروبتيك حل كيفية تقديم الاستقلالية والتتبع في الوقت نفسه، لأنه في البيئات المؤسسية الناضجة، لا تعتبر واحدة دون الأخرى حلاً كاملاً.

سيؤكد النجاح الأولي لهذا النموذج فرضية كانت واضحة بالفعل: العمل الذي كان المطورون يطلبونه لم يكن نظام أذونات، بل إمكانية التفويض بثقة. ستقوم الصناعة التي تنجح في جعل ذلك التفويض قابلًا للتدقيق — وليس فقط سريعًا — بالاستحواذ على الشريحة التي تحرك فعليًا الإنفاق المؤسسي على أدوات الذكاء الاصطناعي.

مشاركة
0 أصوات
صوت لهذا المقال!

التعليقات

...

قد يعجبك أيضاً