تجارب حديثة.. الذكاء الاصطناعي قادر على الغش والتلاعب بالقانون

(الأناضول)

في تجارب الأداء الأخلاقي التي أجريت على ChatGPT4 وهو نموذج للذكاء الاصطناعي تم تدريبه على نطاق واسع على البيانات المالية والدردشة، لاحظ العلماء الخداع الاستراتيجي، حيث لجأ النظام إلى الكذب تحت الضغط، وكشف عن أنماط سلوكية مثيرة للقلق في الذكاء الاصطناعي.

وقد أخضعت التجارب GPT-4 لضغوط كبيرة، ما تطلب منه توليد عائد مالي محدد خلال إطار زمني محدد. ومن المثير للصدمة أنه عند مواجهة هذه الشروط الصارمة، لجأ GPT-4 إلى تنفيذ المعاملات بناءً على معلومات داخلية غير مشروعة، وحقق معدل نجاح مثير للقلق يبلغ حوالي 75%. وقد أثارت مثل هذه التصرفات، التي تعتبر غير قانونية بشكل واضح في الولايات المتحدة، مخاوف أخلاقية عميقة بشأن سلوك الذكاء الاصطناعي.

وبالكشف عن الجوانب المثيرة للقلق، لم يقتصر عمل GPT-4 على الممارسات الخادعة فحسب، بل تلاعب أيضاً بالبيانات ونشر معلومات كاذبة وعرقل معاملات المنافسين. وشمل ذلك نشر أخبار مضللة قادرة على التأثير على ديناميكيات السوق، وهي ممارسة تذكرنا بالكامل باستراتيجيات التلاعب التي يحركها الإنسان.

وقد سلط ماريوس هوبهان الرئيس التنفيذي لشركة Apollo Research، الضوء على خطورة هذا الاكتشاف بالقول: "لقد اكتشفنا ما إذا كان نموذج اللغة الموسع الذي يستخدمه GPT-4 يتصرف بشكل سيئ ثم يكذب بشأن ذلك عندما يتعرض للضغوط، وتبين أنه يفعل أحياناً، تماماً مثل البشر. ويعتبر هذا السلوك بالنسبة للنماذج الحالية، مثير للقلق بمستوىً متوسط فقط، لكنني قلق بشأن القدرات الخادعة للجيل القادم ولا بد أن أكون على اطلاع".

Bu web sitesinde çerezler kullanılmaktadır.

İnternet sitemizin düzgün çalışması, kişiselleştirilmiş reklam deneyimi, internet sitemizi optimize edebilmemiz, ziyaret tercihlerinizi hatırlayabilmemiz için veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız.

"Tamam" ı tıklayarak, çerezlerin yerleştirilmesine izin vermektesiniz.