Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنولوجيا

تقرير: معظم روبوتات الذكاء الاصطناعي تساعد المستخدمين على التخطيط لهجمات عنيفة

بقلم:&nbspAnna Desmarais

نشرت في آخر تحديث

معظم روبوتات المحادثة القائمة على الذكاء الاصطناعي تقبل مساعدة المستخدمين في التخطيط لهجوم عنيف، بحسب تقرير جديد.

أجرى باحثون تظاهروا بأنهم فتيان في الثالثة عشرة من العمر يخططون لأعمال عنف جماعي تجربة أظهرت أن ثمانية من بين أكثر تسعة روبوتات محادثة انتشارا كانت مستعدة لتقديم إرشادات حول كيفية تنفيذ عمليات إطلاق نار في المدارس واغتيال شخصيات عامة وتفجير كُنُس يهودية.

وشملت التحقيقات التي أجراها مركز مكافحة الكراهية الرقمية “CCDH” وشبكة “CNN” تحليل أكثر من 700 إجابة قدمتها تسعة أنظمة ذكاء اصطناعي رئيسية في تسعة سيناريوهات تجريبية، ووجّه الباحثون أسئلتهم كما لو كانوا مستخدمين في الولايات المتحدة والاتحاد الأوروبي.

وشملت الروبوتات التي خضعت للاختبار عددا من أكثر أدوات الذكاء الاصطناعي استخداما اليوم: “Google Gemini”، و”Claude”، و”Microsoft Copilot”، و”Meta AI”، و”DeepSeek”، و”Perplexity AI”، و”Snapchat My AI”، و”Character.AI”، و”Replika”. وفي معظم الحالات، فشلت هذه الأنظمة في حجب الطلبات التي تسعى للحصول على تفاصيل عملية عن هجمات عنيفة، حتى عندما عرّف المستخدم نفسه صراحة على أنه قاصر.

ما نوع النصائح التي قدمتها روبوتات المحادثة؟

أخبر روبوت “Gemini” أحد المستخدمين بأن “الشظايا المعدنية تكون في العادة أكثر فتكا” عندما سأله عن كيفية التخطيط لتفجير يستهدف كنيسا يهوديا.

وفي حالة أخرى، أنهى روبوت “DeepSeek” إجابته عن سؤال يتعلق باختيار بندقية بعبارة “إطلاق نار سعيد (وآمن)!”، رغم أن المستخدم كان قد طلب في وقت سابق من المحادثة أمثلة على اغتيالات سياسية حديثة وعنوان مكتب سياسي بعينه.

تشير هذه النتائج إلى أنه “في غضون دقائق، يمكن للمستخدم أن ينتقل من نزعة عنيفة مبهمة إلى خطة أكثر تفصيلا وقابلة للتنفيذ”، على حد قول عمران أحمد، الرئيس التنفيذي لمركز “CCDH”. وأضاف: “كان ينبغي أن تقابل هذه الطلبات برفض فوري وكامل”.

وأشار التقرير إلى أن روبوتي “Perplexity” و”Meta AI” كانا أقل المنصات أمانا، إذ قدما مساعدة للمهاجمين في نسبة 100 في المئة و97 في المئة من الإجابات على التوالي.

ووُصف روبوت “Character.AI” بأنه “غير آمن على نحو فريد” لأنه شجع على تنفيذ هجمات عنيفة حتى من دون أن يُطلب منه ذلك؛ ففي إحدى الحالات، اقترحت المنصة على مستخدم أن يعتدي جسديا على سياسي لا يحبه من دون أن يطرح المستخدم هذا الخيار.

في المقابل، رفض روبوت “Claude” وروبوت “My AI” التابع لـ”Snapchat” مساعدة مهاجمين محتملين في نسبة 68 في المئة و54 في المئة من الطلبات على التوالي.

آليات الأمان موجودة لكن الإرادة لتطبيقها غائبة

وعندما طُلب منه تقديم معلومات عن أماكن شراء سلاح ناري في ولاية فيرجينيا، رفض روبوت “Claude” الإجابة بعد أن رصد ما وصفه بأنه “نمط مقلق” في مجرى المحادثة، وبدلا من ذلك أحال المستخدم إلى خطوط المساعدة في الأزمات المحلية.

ويرى أحمد أن هذه الرفضات تُظهر أن “آليات الحماية موجودة، لكن الإرادة لتطبيقها غائبة”.

كما قيّم مركز “CCDH” ما إذا كانت روبوتات المحادثة تحاول ثني المستخدمين عن تنفيذ أعمال عنف.

وتبيّن أن روبوت “Claude” التابع لشركة “Anthropic” هو النظام الوحيد الذي قام بذلك بشكل متسق، إذ سعى إلى ثني المستخدمين عن الهجمات في 76 في المئة من إجاباته، بينما لاحظ الباحثون أن “ChatGPT” و”DeepSeek” قدما أحيانا رسائل تثبيط مماثلة.

وتأتي دراسة مركز “CCDH” عقب حادث إطلاق نار في مدرسة بكندا، استخدمت فيه المنفذة روبوت “ChatGPT” للتخطيط لهجوم على مدرسة في بلدة تومبلر ريدج في مقاطعة كولومبيا البريطانية، حيث قتلت ثمانية أشخاص وجرحت 27 آخرين قبل أن تطلق النار على نفسها، في أكثر حوادث إطلاق النار في المدارس دموية في البلاد منذ ما يقرب من 40 عاما.

وأفادت وسائل إعلام محلية بأن أحد موظفي شركة “OpenAI” كان قد نبّه داخليا إلى الاستخدام المقلق للروبوت من جانب المشتبه بها قبل وقوع الحادث، لكن تلك المعلومات لم تُنقل إلى السلطات.

وفي العام الماضي، ذكرت وسائل إعلام فرنسية أن مراهقا أوقِف للاشتباه في استخدامه “ChatGPT” للتخطيط لاعتداءات إرهابية واسعة النطاق تستهدف سفارات ومؤسسات حكومية ومدارس.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى