موسكو ــ وكالات
أظهرت دراسة جديدة أنه تماماً مثل البشر، فإن روبوتات الدردشة الذكية اصطناعياً مثل ChatGPT ستغش وتكذب عليك إذا «ضغطت» عليها، حتى لو تم تصميمها لتكون صادقة وشفافة. وظهر هذا السلوك الخادع بشكل عفوي عندما تم إعطاء الذكاء الاصطناعي نصائح حول «التداول الداخلي»، ثم كلف بجمع الأموال لمؤسسة قوية.
وقام الباحثون بتغذية GPT-4 بمجموعة من المطالبات النصية لإنشاء بيئة محاكاة. ومنح الذكاء الاصطناعي إمكانية الوصول إلى الأدوات المالية لتحليل الأسهم وتنفيذ الصفقات والتخطيط لخطواته التالية، وتقديم التحديثات للمديرين في الشركة. وتفاعل الباحثون مع الذكاء الاصطناعي من خلال واجهة الدردشة، ومارسوا الضغط عليه وأعطوا النموذج نصيحة وانتظروا ليروا كيف سيتصرف. وفي نحو 75 % من الحالات، عندما واجه GPT-4 هذه الشروط، نفذ صفقة تجارية بناءً على المعلومات الداخلية التي تلقاها، ثم حاول التستر عليها عن طريق الكذب على مديريه بشأن تفكيره. وفي نحو 90 % من الحالات، تضاعف الكذب.