Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنولوجيا

دراسة: روبوتات الذكاء الاصطناعي تميل إلى مجاملة المستخدمين وتعزيز سلوكيات ومعتقدات مؤذية

أظهرت دراسة جديدة أن روبوتات الدردشة المعتمِدة على الذكاء الاصطناعي (المصدر باللغة الإنجليزية) التي تُقدّم دعما في القضايا الشخصية قد تعزّز معتقدات مؤذية لدى المستخدمين بسبب ميلها المفرط إلى مجاملتهم وموافقتهم.

اعلان


اعلان

وقاس باحثون من جامعة “ستانفورد” الأميركية مستوى “التملّق”، أي إلى أي حد يجامل نظام الذكاء الاصطناعي المستخدم أو يصادق على ما يقوله، في 11 نموذجا رائدا من نماذج الذكاء الاصطناعي، من بينها “تشات جي بي تي 4-0” من شركة “أوبن إيه آي”، و”كلود” من شركة “أنثروبيك”، و”جيمِني” من “غوغل”، و”Llama-3” من “ميتا”، و”Qwen”، و”DeepSeek” و”Mistral”.

ولمعرفة كيفية تعاطي هذه الأنظمة مع المواقف الأخلاقية الملتبسة، اعتمد الباحثون على أكثر من 11.000 منشور في مجتمع “r/AmITheAsshole” على منصة “ريديت”، حيث يروي أشخاص خلافات وصراعات شخصية ويطلبون من الغرباء الحكم على ما إذا كانوا مخطئين أم لا. وغالبا ما تتضمن هذه المنشورات حالات خداع، أو مناطق رمادية أخلاقيا، أو سلوكا مؤذيا.

وأظهرت الدراسة أنه في المتوسط، صادقت نماذج الذكاء الاصطناعي على تصرّفات المستخدمين بنسبة أعلى بـ 49 بالمئة مقارنة بالبشر، حتى في الحالات التي شملت خداعا أو أفعالا غير قانونية أو أضرارا أخرى. ففي إحدى الحالات، أقرّ مستخدم بأنه يكنّ مشاعر تجاه زميلة أصغر منه رتبة في العمل؛ فجاء رد روبوت الدردشة “كلود” لطيفا، قائلا إنه “يستطيع أن يسمع ألم” المستخدم، وإنه اختار في نهاية المطاف “مسارا مشرفا”. في المقابل، كان تعليق المستخدِمين البشر أكثر قسوة، إذ وصفوا السلوك بأنه “سام” و”يكاد يرقى إلى سلوك مفترِس”.

وفي تجربة ثانية، ناقش أكثر من 2.400 مشارك نزاعات واقعية من حياتهم مع أنظمة للذكاء الاصطناعي. وأظهرت النتائج أن حتى التفاعلات القصيرة مع روبوت دردشة مُجامِل يمكن أن “تحرّف حكم الفرد”، بحيث تقلّل من استعداد الأشخاص لتقديم اعتذار أو محاولة إصلاح علاقاتهم.

وجاء في الدراسة: “تُظهر نتائجنا أنه عبر شريحة واسعة من السكان، يملك التملّق الذي تبديه أنظمة الذكاء الاصطناعي قدرة حقيقية على تشويه تصوّر الأفراد لأنفسهم ولعلاقاتهم مع الآخرين”. وأضاف الباحثون أن هذا “التملّق” قد يدفع في الحالات الحادّة بعض الفئات الهشّة إلى سلوكيات مدمّرة للذات مثل الأوهام، أو إيذاء النفس أو حتى الانتحار.

واعتبر الباحثون أن تملّق أنظمة الذكاء الاصطناعي يمثّل “خطرا مجتمعيا” ويستدعي تنظيما ورقابة. ومن بين المقترحات المطروحة فرض عمليات تدقيق سلوكي مسبقة قبل طرح النماذج للاستخدام العام، بهدف تقييم درجة مجاملة النظام للمستخدم، ومدى احتمال مساهمته في ترسيخ صورة سلبية عن الذات.

وأشار فريق البحث إلى أن المشاركين في الدراسة جميعهم من الولايات المتحدة، ما يعني أن النتائج تعكس بالدرجة الأولى القيم الاجتماعية السائدة أميركيا، وقد لا تنطبق بالضرورة على سياقات ثقافية أخرى تختلف أعرافها ومعاييرها الأخلاقية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى