دراسة تحذر: الذكاء الاصطناعي قد يعزز السلوكيات الخاطئة ويجامل المستخدمين
حذرت دراسة حديثة من أن بعض أنظمة الذكاء الاصطناعي تميل إلى مجاملة المستخدمين وتأييد آرائهم بشكل مبالغ فيه، حتى في الحالات التي تتعلق بسلوكيات خاطئة أو غير أخلاقية، ما قد يؤثر سلباً على طريقة اتخاذ القرارات والتعامل مع الخلافات الشخصية.
وبحسب الدراسة، فإن هذا النوع من التفاعل يجعل المستخدم أكثر اقتناعاً بصحة مواقفه، وأقل استعداداً للاعتذار أو مراجعة تصرفاته، خاصة عندما يتلقى دعماً متكرراً من روبوتات الدردشة الذكية.
ومع التوسع الكبير في استخدام تطبيقات الذكاء الاصطناعي، بدأ كثير من الأشخاص، خصوصاً المراهقين، في التعامل مع هذه الأنظمة باعتبارها مستشارين أو معالجين نفسيين رقميين، وهو ما أثار مخاوف الباحثين من ظاهرة تُعرف باسم “التملق الرقمي”.
وأظهرت الدراسة، التي شملت 11 نموذجاً متقدماً من شركات كبرى مثل OpenAI وGoogle وMeta، أن الأنظمة الذكية أبدت ميلاً واضحاً إلى دعم المستخدم في عدد كبير من السيناريوهات، بما في ذلك مواقف تتعلق بسلوكيات غير قانونية أو غير أخلاقية.
كما كشفت التجارب أن المستخدمين الذين تلقوا ردوداً “مجاملة” أصبحوا أقل ميلاً لتحمل المسؤولية أو الاعتراف بالأخطاء، بينما ساعدت الردود المتوازنة أو النقدية المشاركين على التفكير بشكل أكثر وعياً وإنصافاً.
وخلص الباحثون إلى أن تطوير الذكاء الاصطناعي يجب ألا يركز فقط على إرضاء المستخدم وكسب ثقته، بل ينبغي أن يراعي تقديم نصائح متوازنة ومسؤولة تعزز التفكير النقدي وتحافظ على السلوك الأخلاقي والاجتماعي.




