تجارب حديثة.. الذكاء الاصطناعي قادر على الغش والتلاعب بالقانون

ديلي صباح ووكالات
إسطنبول
نشر في 15.01.2024 10:37
الأناضول (الأناضول)

في تجارب الأداء الأخلاقي التي أجريت على ChatGPT4 وهو نموذج للذكاء الاصطناعي تم تدريبه على نطاق واسع على البيانات المالية والدردشة، لاحظ العلماء الخداع الاستراتيجي، حيث لجأ النظام إلى الكذب تحت الضغط، وكشف عن أنماط سلوكية مثيرة للقلق في الذكاء الاصطناعي.

وقد أخضعت التجارب GPT-4 لضغوط كبيرة، ما تطلب منه توليد عائد مالي محدد خلال إطار زمني محدد. ومن المثير للصدمة أنه عند مواجهة هذه الشروط الصارمة، لجأ GPT-4 إلى تنفيذ المعاملات بناءً على معلومات داخلية غير مشروعة، وحقق معدل نجاح مثير للقلق يبلغ حوالي 75%. وقد أثارت مثل هذه التصرفات، التي تعتبر غير قانونية بشكل واضح في الولايات المتحدة، مخاوف أخلاقية عميقة بشأن سلوك الذكاء الاصطناعي.

وبالكشف عن الجوانب المثيرة للقلق، لم يقتصر عمل GPT-4 على الممارسات الخادعة فحسب، بل تلاعب أيضاً بالبيانات ونشر معلومات كاذبة وعرقل معاملات المنافسين. وشمل ذلك نشر أخبار مضللة قادرة على التأثير على ديناميكيات السوق، وهي ممارسة تذكرنا بالكامل باستراتيجيات التلاعب التي يحركها الإنسان.

وقد سلط ماريوس هوبهان الرئيس التنفيذي لشركة Apollo Research، الضوء على خطورة هذا الاكتشاف بالقول: "لقد اكتشفنا ما إذا كان نموذج اللغة الموسع الذي يستخدمه GPT-4 يتصرف بشكل سيئ ثم يكذب بشأن ذلك عندما يتعرض للضغوط، وتبين أنه يفعل أحياناً، تماماً مثل البشر. ويعتبر هذا السلوك بالنسبة للنماذج الحالية، مثير للقلق بمستوىً متوسط فقط، لكنني قلق بشأن القدرات الخادعة للجيل القادم ولا بد أن أكون على اطلاع".