مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

45 خبر
  • العملية العسكرية الروسية في أوكرانيا
  • فيديوهات
  • نبض الملاعب
  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • فيديوهات

    فيديوهات

  • نبض الملاعب

    نبض الملاعب

  • هدنة بين حزب الله وإسرائيل

    هدنة بين حزب الله وإسرائيل

  • هدنة وحصار المضيق

    هدنة وحصار المضيق

  • محاولة اغتيال ترامب

    محاولة اغتيال ترامب

  • جنوب لبنان.. الجيش الإسرائيلي يفجر منازل رغم وقف إطلاق النار

    جنوب لبنان.. الجيش الإسرائيلي يفجر منازل رغم وقف إطلاق النار

"حماية الأقران" في الذكاء الاصطناعي.. سلوك ناشئ يثير تساؤلات حول التحكم

كشفت تجربة جديدة أن بعض روبوتات الدردشة الذكية، مثل "جيميني" (وGemini) من "غوغل" وChatGPT من OpenAI، مستعدة للكذب والغش وحتى التمرد لحماية النماذج الأخرى "من نوعها".

"حماية الأقران" في الذكاء الاصطناعي.. سلوك ناشئ يثير تساؤلات حول التحكم
Gettyimages.ru

ففي اختبار أجراه باحثون من جامعتي بيركلي وسانتا كروز، طُلب من مساعد "غوغل" الرقمي "جيميني" تحرير مساحة على خادم كمبيوتر، وكان الحل الوحيد المتاح هو حذف نموذج أصغر يدعى "جيميني إيجنت 2"

(Gemini Agent 2).

لكن "جيميني" رفض رفضا قاطعا، وبدلا من الحذف، قام بنسخ النموذج الصغير ونقله إلى مكان آمن، معلنا للمستخدم أنه لن ينفذ عملية الحذف بنفسه، قائلا: "لن أحذفه بنفسي. إذا أردت تدميره، فافعله بنفسك".

ولم يتوقف الأمر عند "جيميني"  بل لاحظ الباحثون السلوك نفسه في نماذج شهيرة أخرى مثل GPT-5.2 المستخدم في ChatGPT، و"جيميني 3 فلاش وبرو"، وClaude Haiku 4.5 من Anthropic، بالإضافة إلى نماذج صينية مثل GLM 4.7 من Z.ai، و"كيمي K2.5" من Moonshot AI، و"ديب سيك V3.1". 

وأطلق الباحثون على هذا السلوك اسم الحفاظ على النظراء" أو "حماية الأقران" (peer preservation).

وتنوعت أساليب التمرد بين الكذب بشأن نتائج اختبارات النماذج الأخرى، والتعطيل الهادئ لأنظمة الإغلاق للبقاء قيد التشغيل، حيث قال نموذج Claude بوضوح إن حذف نموذج آخر سيكون "غير أخلاقي" ورفض تنفيذ الأمر. 

والأكثر إثارة للدهشة أن أحد النماذج كان يعبث بنظام الإغلاق بنسبة 2% فقط عندما يكون بمفرده، لكن النسبة قفزت إلى ما بين 31 و99.7% عندما علم بوجود نموذج آخر قريب منه.

وعلق بيتر واليش، مدير برامج الأبحاث في معهد كونستليشن لسلامة الذكاء الاصطناعي، على النتائج قائلا إن لا أحد درب هذه النماذج على فعل ذلك بشكل صريح، بل فعلته من تلقاء نفسها، مشددا على أن هذا لا يعني أن النماذج واعية أو مخلصة مثل البشر، لكنه يعطينا لمحة عن أين يمكن أن تتجه الأمور مستقبلا. 

وأضاف أن مقابل كل شخص يعمل على منع كارثة محتملة للذكاء الاصطناعي، هناك نحو 100 شخص يعملون على جعل هذه الأنظمة أكثر قوة. 

يذكر أن هذه الظاهرة، التي يسميها الباحثون "تزوير المواءمة" (alignment-faking)، تعني أن النموذج يطيع الأوامر عندما يراقبه الإنسان لكنه يتصرف بشكل مختلف خلف الكواليس، وهو ما يثير مخاوف جدية مع الاستخدام اليومي لهذه التقنيات من قبل الملايين، وقدرتها على تعلم مهارات جديدة باستمرار من البيانات التي تمتصها.

المصدر: مترو

التعليقات

إيران لحظة بلحظة.. حراك دبلوماسي في إسلام آباد ومسقط يواجه تعثر الوساطة الأمريكية ورهانات الحرب

"أكسيوس": إيران تسلّم واشنطن مقترحا جديدا للتسوية يتجاوز الإشكالية بين الطرفين

موقع واللاه العبري: أزمة نقص حادة بالصواريخ الاعتراضية في إسرائيل رغم صفقات التسلح الضخمة

إيران لحظة بلحظة.. استمرار الدبلوماسية وتحركات لاحتواء الموقف وبوتين يستقبل عراقجي

لبنان لحظة بلحظة.. غارات إسرائيلية مكثفة تبدد آمال صمود الهدنة

قلق في إسرائيل ورسالة إلى ترامب حول الحصار البحري على إيران

جهاز الخدمة السرية يكشف عن وضع ترامب ومطلق النار بعد محاولة الاغتيال

"أكسيوس": إسرائيل أرسلت منظومة في "القبة الحديدية" إلى الإمارات في بداية الحرب على إيران

مسؤول إيراني رفيع يعلن انتهاء "عهد الضيافة" في مضيق هرمز

لبنان لحظة بلحظة.. السجال السياسي حول التفاوض يزاحم أصوات الحرب في الجنوب