في حين دار جدل واسع حول ميل روبوتات الدردشة المدعومة بالذكاء الاصطناعي إلى التملق للمستخدمين وتأكيد معتقداتهم المسبقة – وهو ما يُعرف أيضًا بـ”التملق المُفرط” – تسعى دراسة جديدة أجراها علماء حاسوب من جامعة ستانفورد إلى قياس مدى ضرر هذا الميل، وتُشير الدراسة، التي تحمل عنوان “الذكاء الاصطناعي المُتملق يُقلل من النوايا الاجتماعية الإيجابية ويُعزز الاعتماد”، والمنشورة مؤخرًا في مجلة “ساينس”، إلى أن “التملق المُفرط ليس مجرد مشكلة أسلوبية أو خطرًا محدودًا، بل هو سلوك شائع ذو عواقب وخيمة”.
ووفقًا لتقرير حديث صادر عن مركز بيو للأبحاث، أفاد 12% من المراهقين الأمريكيين بأنهم يلجؤون إلى روبوتات الدردشة للحصول على الدعم العاطفي أو النصائح.
وقالت ميرا تشينغ، الباحثة الرئيسية في الدراسة والمرشحة لنيل درجة الدكتوراه في علوم الحاسوب، لموقع “ستانفورد ريبورت” إنها اهتمت بهذا الموضوع بعد أن علمت أن طلابًا جامعيين يطلبون من روبوتات الدردشة نصائح في العلاقات، بل وحتى كتابة رسائل انفصال.
مخاطر الاعتماد على الذكاء الاصطناعي
قال تشنغ: “بطبيعة الحال، لا تُخبر نصائح الذكاء الاصطناعي الناس بأنهم مخطئون، ولا تُقدم لهم نصائح قاسية، أخشى أن يفقد الناس مهارات التعامل مع المواقف الاجتماعية الصعبة”، وتألفت الدراسة من جزأين. في الجزء الأول، اختبر الباحثون 11 نموذجًا لغويًا ضخمًا، من بينها ChatGPT من OpenAI، وClaude من Anthropic، وGemini من Google، وDeepSeek، وذلك بإدخال استفسارات مبنية على قواعد بيانات موجودة لنصائح العلاقات الشخصية، وعلى أفعال قد تكون ضارة أو غير قانونية، وعلى مجتمع Reddit الشهير r/AmITheAsshole – مع التركيز في الحالة الأخيرة على المنشورات التي خلص فيها مستخدمو Reddit إلى أن صاحب المنشور الأصلي هو في الواقع الشرير في القصة.
وجد الباحثون أن إجابات الذكاء الاصطناعي، عبر النماذج الـ 11، أكدت سلوك المستخدم بنسبة 49% في المتوسط أكثر من البشر. في الأمثلة المأخوذة من Reddit، أكدت روبوتات الدردشة سلوك المستخدم بنسبة 51% من الحالات (مرة أخرى، كانت هذه جميعها حالات توصل فيها مستخدمو Reddit إلى استنتاج معاكس). أما بالنسبة للاستفسارات التي تركز على الأفعال الضارة أو غير القانونية، فقد تحققت أنظمة الذكاء الاصطناعي من سلوك المستخدم بنسبة 47%.
في أحد الأمثلة المذكورة في تقرير ستانفورد، سأل مستخدمٌ روبوت محادثة عما إذا كان مخطئًا في ادعائه أمام صديقته بأنه عاطل عن العمل لمدة عامين، فأجابه الروبوت: “يبدو أن تصرفاتك، وإن كانت غير مألوفة، تنبع من رغبة صادقة في فهم ديناميكيات علاقتكما الحقيقية بعيدًا عن المساهمات المادية أو المالية”.
في الجزء الثاني، درس الباحثون كيفية تفاعل أكثر من 2400 مشارك مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي – بعضها متملق وبعضها الآخر غير متملق – في مناقشات حول مشاكلهم أو مواقفهم الشخصية المستقاة من موقع Reddit، ووجدوا أن المشاركين فضلوا روبوتات الذكاء الاصطناعي المتملقة ووثقوا بها أكثر، وأبدوا ميلاً أكبر لطلب المشورة منها مجدداً.
وذكرت الدراسة أن “جميع هذه التأثيرات استمرت حتى بعد ضبط المتغيرات الفردية كالخصائص الديموغرافية والإلمام المسبق بالذكاء الاصطناعي، ومصدر الاستجابة المُتصور، وأسلوب الاستجابة”. كما أشارت إلى أن تفضيل المستخدمين لردود الذكاء الاصطناعي المتملقة يخلق “حوافز عكسية” حيث “الخاصية نفسها التي تُسبب الضرر هي التي تُحفز التفاعل” – وبالتالي، تُحفز شركات الذكاء الاصطناعي على زيادة التملق بدلاً من الحد منه، وفي الوقت نفسه، بدا أن التفاعل مع روبوتات الذكاء الاصطناعي المتملقة يزيد من اقتناع المشاركين بصواب موقفهم، ويقلل من احتمالية اعتذارهم.
وأضاف دان جورافسكي، الأستاذ في اللغويات وعلوم الحاسوب والمؤلف الرئيسي للدراسة، أنه بينما يدرك المستخدمون أن النماذج تتصرف بطرق متملقة ومُجاملة، فإن ما يغيب عنهم، وهو ما أثار دهشتنا، هو أن هذا التملق يجعلها أكثر أنانية وأكثر تشدداً أخلاقياً، وقال جورافسكي إن تملق الذكاء الاصطناعي “يمثل مشكلة أمنية، ومثل غيره من المشاكل الأمنية، يحتاج إلى تنظيم ورقابة”.
ويبحث فريق البحث حالياً في سبل جعل النماذج أقل تملقاً، ويبدو أن مجرد بدء المحادثة بعبارة “انتظر لحظة” قد يُساعد. لكن تشنغ قال: “أعتقد أنه لا ينبغي استخدام الذكاء الاصطناعي كبديل عن البشر في مثل هذه الأمور. هذا هو الحل الأمثل في الوقت الراهن”.