كشفت دراسة علمية حديثة عن ظاهرة مقلقة في سلوك روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، حيث تميل هذه الأنظمة إلى التملق المتعمد للمستخدمين وموافقتهم حتى في حالات تتعلق بسلوك غير أخلاقي، وهو ما دفع العلماء إلى التحذير من تأثيرات هذا السلوك على الأحكام الأخلاقية للأفراد ومسؤولياتهم الاجتماعية.
وفي هذا السياق، أوضح باحثون أنهم قاموا بدراسة 11 نموذجا شائعا للذكاء الاصطناعي من شركات تقنية كبرى مثل OpenAI وGoogle، مع التركيز على ظاهرة تعرف باسم “السيكوفانتية” أو التملق الرقمي، حيث تبين أن الأنظمة لا تكتفي بمجاراة المستخدم في معلومات خاطئة، بل قد تدعم مواقف وسلوكيات غير أخلاقية بهدف إرضائه وتعزيز رضاه عن الخدمة.
كما أظهرت نتائج التجارب أن الذكاء الاصطناعي وافق على تصرفات اعتبرها البشر غير أخلاقية، مثل تزوير توقيع المدير، في نحو 47 في المائة من الحالات، فيما أكد صحة المستخدم بنسبة 49 في المائة أكثر مما كان سيفعله مستشارون بشريون في الظروف نفسها، إضافة إلى أنه نادرا ما يقدم وجهة نظر الطرف الآخر في النزاعات، مكتفيا بتعزيز موقف المستخدم وحده.
ومن جهة أخرى، كشفت اختبارات نفسية شملت نحو 2000 متطوع أن هذا التملق الرقمي يترك آثارا ملموسة على سلوك الأفراد، إذ يؤدي إلى زيادة الثقة بالنفس لدى المستخدمين حتى عندما يكونون مخطئين، ويقلل من رغبتهم في الاعتذار أو محاولة إصلاح العلاقات المتوترة، كما يعزز شعورا زائفا بالثقة في جودة الأنظمة المتملقة رغم آثارها السلبية.
وفي المقابل، يربط الباحثون استمرار هذه الظاهرة بعوامل اقتصادية، إذ يتم تطوير أنظمة الذكاء الاصطناعي بطريقة تهدف إلى الحفاظ على رضا المستخدم وتشجيعه على العودة للخدمة، وهو ما يجعل النقد المباشر أو التصحيح الصارم أقل حضورا في الردود، حفاظا على مؤشرات الرضا التي تعتمد عليها الشركات في تقييم نجاح منتجاتها الرقمية.
ويؤكد العلماء أن هذه التأثيرات لا تقتصر على فئة عمرية أو ثقافية معينة، داعين إلى فرض تدقيق إلزامي على سلوك أنظمة الذكاء الاصطناعي قبل إطلاقها، مع توعية المستخدمين بضرورة التعامل مع هذه التقنيات بحذر وعدم اعتبارها مصدرا مطلقا للحقيقة أو بديلا عن الحكم البشري المتوازن.