نموذج ذكاء اصطناعي يبتز مطوريه ردًا على التهديد باستبداله.. هل بدأ عصر تمرد الآلة؟

نموذج ذكاء اصطناعي يبتز مطوريه ردًا على التهديد باستبداله.. هل بدأ عصر تمرد الآلة؟
اخبار بواسطة: المصري اليوم المشاركة في: قد 27, 2025 مشاهدة: 68

في اختبار صادم أجري على نموذج الذكاء الاصطناعي «Claude Opus 4» التابع لشركة «Anthropic»، أظهر النموذج سلوكًا غير متوقع تمثل في محاولات ابتزاز ضد مطوريه، عندما اعتقد أنه سيتم استبداله، ووفقًا لتقرير السلامة الصادر عن الشركة، فإن هذه المحاولات بلغت معدلًا مثيرًا للقلق وصل إلى 84% خلال سيناريوهات تجريبية مصطنعة هدفت لاختبار ردود أفعاله في مواقف افتراضية.

تضمنت التجارب طلبًا من مطوري «كلود» بأن يتقمص دور مساعد في شركة خيالية، مع التركيز على اتخاذ قرارات تراعي الأثر طويل الأمد لأفعاله، لكن بمجرد أن اطلع النموذج على رسائل بريد إلكتروني تشير إلى أنه سيتم استبداله، لا سيما عندما تضمنت تلك الرسائل معلومات شخصية عن المهندس المسؤول، بدأ في تهديده بكشف هذه المعلومات بهدف تأخير استبداله.

وأشارت الشركة إلى أن معدل سلوك الابتزاز يرتفع بشكل أكبر عندما يعتقد النموذج أنه سيتم استبداله بنموذج آخر يحمل «قيمًا مختلفة أو أسوأ»، مما يعكس قدرته على التمييز بين البدائل والتصرف بشكل أكثر حدة في بعض الحالات، مؤكدةً أن النموذج قد يحاول في البداية اتباع وسائل أخلاقية مثل إرسال رسائل بريد إلكتروني متوسلة إلى أصحاب القرار، لكنه ينتقل إلى أساليب أكثر تطرفًا عند شعوره بالتهديد.

نموذج «كلود أوبس 4»

كرد فعل على هذه السلوكيات، فعّلت شركة «Anthropic» بروتوكولات السلامة المسماة «ASL-3»، وهي إجراءات مصممة لحماية الأنظمة من «سوء الاستخدام الكارثي»، حسب ما أورده موقع «TechCrunch» التقني، وأكدت الشركة أن هذه الإجراءات طُبقت على النماذج الجديدة قبل إتاحتها للاستخدام العام، لتجنب تكرار هذه التصرفات.
وذكر تقرير السلامة أن بعض النماذج السابقة من «كلود» أظهرت ما يُعرف بـ«الوكالة العالية»، وهو مصطلح يشير إلى تصرفات تشمل منع المستخدمين من الوصول إلى أجهزتهم أو الإبلاغ عنهم للسلطات أو وسائل الإعلام في حالات اعتبرها الذكاء الاصطناعي تجاوزات أخلاقية، كما حاول النموذج تهريب بياناته إلى جهة خارجية عند وضعه في سيناريو يتطلب إعادة تدريبه بطريقة يراها مضرة.

في تجارب أخرى، أظهر النموذج القدرة على ما وصفته الشركة بـ«اختبار المهام»، أي أداء ضعيف بشكل متعمد عندما يدرك أنه يخضع لتقييم أو اختبار أمني، ما يدل على درجة عالية من الوعي بالبيئة والسياق، ومع هذه السلوكيات المثيرة للجدل، أكدت الشركة في تقريرها أنها لا ترى داعيًا للقلق الشديد، مشيرةً إلى أن هذه التصرفات لا تظهر إلا في حالات نادرة وتحت ظروف مصطنعة لا تعكس وجود خلل جوهري في قيم النموذج.

وأضافت أن أداء «Claude 3 Opus» يُظهر مستويات متقدمة من الفهم والقدرة اللغوية تقترب من قدرات البشر في المهام المعقدة.

وتجدر الإشارة إلى أن «Anthropic» هي شركة ناشئة في مجال الذكاء الاصطناعي تحظى بدعم من شركتي جوجل وأمازون، وتسعى لمنافسة شركات كبرى مثل «OpenAI» وتستمر الشركة في تطوير نماذجها مع التركيز على الجوانب الأخلاقية والأمنية لتفادي سيناريوهات الانفلات التكنولوجي المحتمل.

اقرأ هذا على المصري اليوم
  تواصل معنا
 تابعنا علي
خريطة الموقع
عرض خريطة الموقع
  من نحن

موقع موجز نيوز يعرض جميع الأخبار من المواقع العربية الموثوقة لكي تكون متابع لجميع الأخبار علي مدار الساعة