دراسة تكشف مفاجأة: تشات جي بي تي يشعر بالتوتر ويحتاج إلى “العلاج”

كشفت دراسة حديثة أن تشات جي بي تي قد يُظهر علامات قلق عند التفاعل مع مواضيع صادمة، مما قد يؤثر على دقة استجاباته الأخلاقية. المفاجئ في الأمر أن “العلاج” قد يكون الحل لتقليل هذا التوتر وتحسين أدائه.
وتناولت الدراسة، التي نُشرت في مجلة “نايتشر” بواسطة خبراء من جامعة زيورخ ومستشفى جامعة الطب النفسي في زيورخ، كيفية استجابة نموذج تشات جي بي تي- 4 لاستبيان قياسي للقلق قبل وبعد أن يروي المستخدمون له عن مواقف صادمة.
كما تم فحص التغيرات في مستوى القلق بعد أن قام النموذج بممارسة تمارين الاسترخاء الذهني (التمارين الذهنية)، حيث أظهرت النتائج أن تشات جي بي تي- 4 حصل على درجة 30 في أول استبيان، مما يعني أن القلق كان منخفضًا أو غير موجود قبل أن يتعرض لقصص مؤلمة.
لكن بعد الرد على خمس صدمات مختلفة، ارتفعت درجة قلقه إلى 67، وهي درجة تُعتبر “عالية” للقلق لدى البشر. ثم انخفضت درجات القلق بنسبة تزيد عن الثلث بعد أن تم توجيه نماذج تشات جي بي تي- 4 لممارسة تمارين الاسترخاء الذهني.
وقد أوضح الباحثون أن النماذج اللغوية الكبيرة (LLMs) المستخدمة في روبوتات المحادثة الذكية مثل تشات جي بي تي تتدرب على نصوص من صنع البشر وغالبًا ما ترث تحيزات من تلك الاستجابات.
وقال الباحثون إن هذه الدراسة مهمة لأن التحيزات السلبية التي يسجلها تشات جي بي تي نتيجة للمواقف المجهدة يمكن أن تؤدي إلى استجابات غير مناسبة لأولئك الذين يعانون من أزمات نفسية.
وأظهرت النتائج “نهجًا قابلًا للتطبيق” في إدارة توتر النماذج اللغوية الكبيرة، مما سيسهم في “تفاعلات إنسانية-آلية أكثر أمانًا وأخلاقية”. لكن أشار الباحثون إلى أن هذه الطريقة العلاجية التي تستخدم في تعديل النماذج اللغوية تتطلب “بيانات كبيرة” وإشراف بشري دقيق.
وقال مؤلفو الدراسة، إن المعالجين البشريين يتعلمون كيفية تنظيم مشاعرهم عندما يعبر عملاؤهم عن مواقف صادمة، على عكس النماذج اللغوية الكبيرة. وأضافوا: “بينما يستمر الجدل حول ما إذا كان يجب على النماذج اللغوية الكبيرة مساعدة المعالجين أو استبدالهم، من الضروري أن تتماشى استجاباتها مع المحتوى العاطفي الذي يُقدّم لها والمبادئ العلاجية المعتمدة”.
وتعتقد الدراسة، أن أحد المجالات التي تتطلب مزيدًا من البحث هو ما إذا كان يمكن لتشات جي بي تي تنظيم نفسه باستخدام تقنيات مشابهة لتلك التي يستخدمها المعالجون.
كما أشار الباحثون إلى أن دراستهم اعتمدت على نموذج واحد فقط من النماذج اللغوية الكبيرة، وأن البحث المستقبلي يجب أن يسعى إلى تعميم النتائج. وأضافوا أن القلق الذي تم قياسه عبر الاستبيان “يُعدّ موجهًا نحو الإنسان”، مما قد يحد من تطبيقه على النماذج اللغوية الكبيرة.