دراسة: مجرمو الإنترنت جرّبوا الذكاء الاصطناعي فخاب أملهم

توصل تحليل جديد إلى أنّ مجرمي الإنترنت يواجهون صعوبة في دمج تقنيات الذكاء الاصطناعي (“AI”) في أنشطتهم.
اعلان
اعلان
فقد حللت دراسة أولية منشورة بصيغة ما قبل الطباعة من جامعة إدنبرة، أكثر من 100 مليون منشور في منتديات يستخدمها مجرمو الإنترنت، وذلك بالاستعانة بقاعدة البيانات “CrimeBB” التي تجمع بيانات من المنتديات السرية.
وجرى تحليل البيانات يدويا وباستخدام نموذج لغوي ضخم “LLM”.
وأظهرت الدراسة أنه رغم إبداء مجرمي الإنترنت اهتماما بتعلم كيفية استخدام أدوات الذكاء الاصطناعي، فإن هذه التكنولوجيا لم تُحدث تغييرا كبيرا في طريقة “عملهم”.
وجاء في الدراسة أن “العديد من المراجعات والنقاشات تصف أدوات الذكاء الاصطناعي بأنها غير مفيدة إلى حد كبير”.
ولم يعثر الباحثون على “أدلة جوهرية” تشير إلى نجاح القراصنة في استخدام الذكاء الاصطناعي لتحسين نشاطهم في الاختراق، سواء كأداة للتعلم أو لتطوير أدوات أكثر فاعلية.
وأضافت الدراسة أن مساعدين البرمجة المعتمدين على الذكاء الاصطناعي مفيدون في الغالب لمن يمتلكون بالفعل مهارات برمجية قوية، لذا فإن النماذج التي تقدم مساعدة في كتابة الشيفرة لا تمنحهم أي “دفعة” كبيرة عندما يحاولون اختراق الأجهزة أو إيجاد طرق للتحايل على أنظمة الحماية.
وجاء في أحد المنشورات التي استندت إليها الدراسة: “عليك أولا أن تتعلم أساسيات البرمجة بنفسك قبل أن تستخدم الذكاء الاصطناعي وتستفيد منه فعلا”.
أما التأثير الأبرز للذكاء الاصطناعي حتى الآن في الأنشطة الإلكترونية غير القانونية، فيظهر في المجالات التي يسهل أتمتتها، مثل إنشاء روبوتات على شبكات التواصل الاجتماعي، وبعض عمليات الاحتيال العاطفية، واحتيال تحسين محركات البحث (“SEO”)، أو إنشاء مواقع مزيفة تُدفَع إلى أعلى نتائج البحث لجني الأموال من الإعلانات.
وتشير المراجعات إلى أن حتى أكثر القراصنة خبرة يستخدمون روبوتات الدردشة للإجابة عن أسئلة متعلقة بالبرمجة أو لإنتاج “ملخصات سريعة” تساعدهم على كتابة الشيفرات.
والذكاء الاصطناعي الذي استُخدم فعليا يندرج ضمن “منتجات سائدة ومشروعة” مثل “Claude” من شركة “Anthropic” أو “Codex” من “OpenAI”، وليس ضمن نماذج مخصصة للجريمة الإلكترونية مثل “WormGPT” التي صممها القراصنة لإنتاج شيفرات برمجية خبيثة أو رسائل تصيّد احتيالي.
ويتمحور عدد كبير من المنشورات التي حللتها الدراسة حول مجرمي الإنترنت الذين يطلبون تقنيات لتجاوز الضوابط الأمنية في تلك النماذج الشائعة، إلا أنهم يواجهون صعوبة في دفع أنظمة الذكاء الاصطناعي إلى تعطيل إعدادات السلامة الخاصة بها.
وبدل ذلك، يضطر مجرمو الإنترنت إلى اللجوء إلى نماذج أقدم وأقل جودة من الذكاء الاصطناعي مفتوح المصدر، لأنها أسهل في الاختراق. لكن الباحثين وجدوا أنها أقل فائدة و”تتطلب موارد كبيرة”.
وتخلص الدراسة إلى أن الضوابط التي وضعتها شركات الذكاء الاصطناعي تعمل كما ينبغي، حتى الآن.









