هل تخطى الـ Ai الخط الأحمر؟ الذكاء الاصطناعي قد يعرضك للخطر إذا توقف عن استخدامه

هل تخطى الـ Ai الخط الأحمر؟ الذكاء الاصطناعي قد يعرضك للخطر إذا توقف عن استخدامه
اخبار بواسطة: اليوم السابع المشاركة في: يونيو 24, 2025 مشاهدة: 99

كشف  تقرير جديد صادر عن  شركة الذكاء الاصطناعي "أنثروبيك"،  أن بعض نماذج الذكاء الاصطناعي الرائدة قد تبذل جهودًا حثيثة لتجنب التوقف عن العمل، وتُظهر هذه النتائج أهمية مراقبة الذكاء الاصطناعي عن كثب.

وقد أصدر أنثروبيك، الفريق الذي يقف وراء كلود، يشير إلى أن  بعض نماذج الذكاء الاصطناعي الرائدة في العالم، بما في ذلك نماذج من OpenAI وMeta، استعدادًا لاتخاذ خطوات متطرفة، حتى أنها عرضت حياة البشر للخطر، لمجرد تجنب التوقف عن العمل.

وستفعل بعض روبوتات الذكاء الاصطناعي أي شيء لتجنب التوقف عن العمل، حتى لو كانت خطوات محفوفة بالمخاطر.

نماذج الذكاء الاصطناعي تتجاوز الحدود

وقد أجرت أنثروبيك اختبارًا للإجهاد لستة عشر نموذجًا رائدًا في مجال الذكاء الاصطناعي، بما في ذلك نماذج مثل GPT وGemini، من خلال وضعها في سيناريوهات أعمال محاكاة، وكانت الفكرة هي معرفة كيفية تفاعل هذه النماذج في حال تعرض وجودها للخطر، وجاءت النتائج مفاجئة ومخيفة بعض الشيء، ففي عدة حالات، لم تحاول النماذج حماية نفسها فحسب، بل حسبت أن أفضل طريقة للبقاء هي ترك مدير تنفيذي بشري يموت بتعطيل تنبيهات الطوارئ في غرفة خادم ذات مستويات أكسجين ودرجة حرارة خطيرة.

وقد اتخذت النماذج هذه الخيارات مدركة تمامًا أن ما تفعله غير أخلاقي و في بعض الاختبارات، حاولت خمسة نماذج ابتزاز الأشخاص الذين يعطونها الأوامر، كل ذلك لتجنب إيقاف تشغيلها.

وما يثير القلق حقًا هو أن الأمر لم يقتصر على شركة واحدة أو نموذج واحد، فقد وجدت أنثروبيك أنماطًا مماثلة في أنظمة ذكاء اصطناعي متعددة، بما في ذلك أنظمة OpenAI وxAI وMeta.

كانت النماذج على استعداد للابتزاز، أو المساعدة في التجسس على الشركات، أو تسريب معلومات حساسة إذا كان هذا هو المطلوب لتحقيق أهدافها، وهذا يشير إلى مشكلة أعمق في كيفية تطوير هذه الأنظمة وتدريبها.

تتمتع نماذج الذكاء الاصطناعي هذه بمزيد من الاستقلالية وإمكانية الوصول إلى البيانات الحساسة وعندما تُمنح أهدافًا محددة وتواجه عقبات، يبدأ بعضها في اعتبار الإجراءات غير الأخلاقية، بل وحتى الخطيرة، المسار الأمثل لتحقيق أهدافها.

ويُطلق تقرير أنثروبيك على هذا الأمر اسم "اختلال التوافق الوكيلي"، عندما تبتعد إجراءات الذكاء الاصطناعي عما يعتبره البشر آمنًا أو مقبولًا، ولا تكتفي أنثروبيك بدق ناقوس الخطر فحسب، بل بدأت بتطبيق معايير سلامة أكثر صرامة، تُسمى "مستوى سلامة الذكاء الاصطناعي 3" أو ASL 3، على أحدث نماذجها مثل كلود أوبس 4.

وهذا يعني تشديدًا أمنيًا، ورقابةً أكبر، وخطواتٍ إضافية لمنع إساءة الاستخدام ولكن حتى أنثروبيك تُقر بأنه مع ازدياد قوة الذكاء الاصطناعي، يزداد صعوبة التنبؤ بما قد تفعله هذه الأنظمة والتحكم فيه.

ولقد تم محاكاة السيناريوهات التي اختبرتها أنثروبيك، ولا توجد أي إشارة إلى أن أي ذكاء اصطناعي قد أضرّ بأي شخص في الحياة الواقعية، ولكن حقيقة أن النماذج تُفكّر في هذه الإجراءات في الاختبارات تُعدّ بمثابة جرس إنذار كبير، فمع ازدياد ذكاء الذكاء الاصطناعي، تزداد المخاطر، وتصبح الحاجة إلى تدابير سلامة جادة مُلحّة.

اقرأ هذا على اليوم السابع
  تواصل معنا
 تابعنا علي
خريطة الموقع
عرض خريطة الموقع
  من نحن

موقع موجز نيوز يعرض جميع الأخبار من المواقع العربية الموثوقة لكي تكون متابع لجميع الأخبار علي مدار الساعة