شهدت روبوتات الدردشة المعتمدة على الذكاء الاصطناعى انتشارا كبيرا خلال السنوات القليلة الماضية، وأصبحت جزءا من الحياة اليومية رغم ما تعانيه من أخطاء متكررة، وتشير البيانات إلى أن أنظمة مثل شات جي بى تى وجيميناي وكلاود لا تزال تقدم إجابات غير دقيقة فى كثير من الأحيان، حيث أوضحت دراسة أجرتها BBC فى أكتوبر أن نسبة الأخطاء قد تصل إلى 45% من الوقت.

دراسة تحذر من الاعتماد المفرط على الذكاء الاصطناعى فى اتخاذ القرارات

تحذير من الاعتماد المفرط على الذكاء الاصطناعى

 

ثقة المستخدمين رغم الأخطاء

كشفت ورقة بحثية حديثة أعدها الباحث ستيفن شو وأستاذ التسويق جدعون ناف من جامعة بنسلفانيا أن المستخدمين يميلون إلى تصديق إجابات الذكاء الاصطناعى حتى عندما تكون خاطئة، وخلال سلسلة من التجارب، اختار أكثر من 50% من المشاركين استخدام شات جي بى تى للإجابة عن أسئلة تتطلب التفكير والمعرفة، رغم أن ذلك لم يكن إلزاميا، وفقا لموقع futurism.

 

الاستسلام المعرفى وتأثيره

ركزت الدراسة على مفهوم “الاستسلام المعرفى”، وهو ميل المستخدمين إلى قبول إجابات الذكاء الاصطناعى دون تدقيق، وفى تجربة شملت 359 مشاركا، التزم المشاركون بإجابات الذكاء الاصطناعى الصحيحة بنسبة 92.7%، بينما استمروا فى اتباع الإجابات الخاطئة بنسبة 79.8%، وأظهرت النتائج أن المستخدمين يتبعون التوصيات حتى عندما تكون غير دقيقة، فى نحو 4 من كل 5 حالات تفاعل.

 

مخاوف بشأن التفكير النقدى

تشير نتائج الدراسة إلى تحول أوسع فى طريقة تعامل البشر مع المعلومات واتخاذ القرار، حيث أصبح من السهل تفويض عملية التفكير إلى الأنظمة الذكية، وأوضح الباحثون أن هذا التوجه قد يؤدى إلى تراجع مهارات التفكير النقدى مع مرور الوقت، مؤكدين أهمية الحفاظ على القدرة على التحقق من المعلومات وعدم الاعتماد الكامل على الذكاء الاصطناعى فى اتخاذ القرارات.

زيارة مصدر الخبر