Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تكنولوجيا

خبراء يحذرون: رسوم الذكاء الاصطناعي الكاريكاتورية قد تفتح الباب أمام الاحتيال وانتحال الهوية

بقلم:&nbspEuronews

نشرت في

تحذّر مجموعة من خبراء الأمن السيبراني من أن موضة الرسوم الكاريكاتورية التي ينشئها الذكاء الاصطناعي وتعكس في صورة ملوّنة كل ما يعرفه روبوت دردشة عن شخص ما، قد تنطوي على مخاطر أمنية خطيرة.

يقوم المستخدمون برفع صورة شخصية لأنفسهم، أحيانا مع شعار الشركة أو تفاصيل عن دورهم الوظيفي، ويطلبون من روبوت الدردشة “ChatGPT” التابع لشركة “OpenAI” ابتكار رسم كاريكاتوري لهم ولطبيعة عملهم اعتمادا على المعلومات التي يمتلكها عنهم.

خبراء أمن سيبراني قالوا لـ”Euronews Next” إن تحديات وسائل التواصل الاجتماعي، مثل رسوم الذكاء الاصطناعي الكاريكاتورية، يمكن أن توفّر للمحتالين ثروة من المعلومات القيّمة؛ فصورة واحدة، مقرونة بتفاصيل شخصية، قد تكشف عن أمور أكثر بكثير مما يتخيّل المستخدمون.

وقال بوب لونغ، نائب رئيس شركة “Daon” المتخصّصة في التحقق من السن: “أنتم تقومون بعمل المحتالين بالنيابة عنهم؛ إذ تقدّمون لهم تمثيلا بصريا واضحا لهويتكم”.

وأضاف أن مجرد طريقة الترويج لهذه الصيحة ينبغي أن تدق ناقوس الخطر، لأنها “تبدو كما لو أن محتالا هو من أطلقها عمدا لتسهيل عمله”.

ماذا يحدث للصور بعد تحميلها؟

يوضح مستشار الأمن السيبراني جاك مور أنه عندما يحمّل المستخدم صورة إلى روبوت دردشة يعتمد على الذكاء الاصطناعي، يقوم النظام بمعالجة الصورة لاستخراج بيانات مثل مشاعر الشخص وبيئته والمعلومات التي قد تكشف عن موقعه الجغرافي، ثم يمكن تخزين تلك البيانات لمدة غير معروفة.

ويرى لونغ أن الصور التي تُجمَع من المستخدمين يمكن استخدامها والاحتفاظ بها لتدريب مولّدات الصور العاملة بالذكاء الاصطناعي، بوصفها جزءا من مجموعات البيانات الخاصة بها.

وأي خرق لبيانات شركة مثل “OpenAI” قد يعني أن بيانات حساسة، مثل الصور المرفوعة والمعلومات الشخصية التي يجمعها روبوت الدردشة، قد تقع في أيدي جهات خبيثة يمكن أن تستغلها.

وبحسب شارلوت ويلسون، رئيسة قطاع الشركات في شركة الأمن السيبراني الإسرائيلية “Check Point”، فإن وقوع صورة واحدة عالية الدقة في الأيدي الخطأ قد يتيح إنشاء حسابات مزيفة على شبكات التواصل الاجتماعي، أو مقاطع “ديب فيك” مزيفة شديدة الواقعية يمكن استخدامها لتنفيذ عمليات احتيال.

وقالت: “صور السيلفي تساعد المجرمين على الانتقال من عمليات احتيال عامة إلى انتحال هوية شخصي ومقنع للغاية”.

وتشير إعدادات الخصوصية لدى “OpenAI” إلى أن الصور التي يتم تحميلها قد تُستخدَم لتحسين النموذج، بما في ذلك تدريبِه. وعند سؤال “ChatGPT” عن إعدادات الخصوصية الخاصة بالنموذج، أوضح أن ذلك لا يعني أن كل صورة تُحفظ في قاعدة بيانات متاحة للعامة.

وأضاف روبوت الدردشة أنه بدلا من ذلك يستخدم أنماط المحتوى الذي يقدّمه المستخدمون لتحسين الطريقة التي يولّد بها النظام الصور.

كيف تشاركون في صيحات الذكاء الاصطناعي بأمان؟

يُنصَح من يرغب في الاستمرار في متابعة هذه الصيحات بالحد قدر الإمكان مما يشاركه من بيانات.

وتقول ويلسون إن على المستخدمين تجنّب تحميل صور تكشف أي معلومات تعريفية عنهم.

وأضافت: “اقطعوا الصورة بإحكام، واجعلوا الخلفية خالية من التفاصيل قدر الإمكان، ولا تُظهِروا شارات أو زيّا رسميا أو بطاقات تعريف عمل أو دلالات على الموقع أو أي شيء يربطكم بصاحب عملكم أو بعاداتكم اليومية”.

كما حذّرت ويلسون من مشاركة قدر مفرط من المعلومات الشخصية في مطالبات الاستخدام، مثل المسمّى الوظيفي أو المدينة أو اسم صاحب العمل.

وفي السياق نفسه، ينصح مور بمراجعة إعدادات الخصوصية قبل المشاركة، بما في ذلك خيار استبعاد البيانات من تدريب نماذج الذكاء الاصطناعي.

وتتيح بوابة الخصوصية لدى “OpenAI” للمستخدمين إيقاف استخدام بياناتهم في التدريب عبر اختيار خيار “do not train on my content”.

كما يمكن للمستخدمين تعطيل استخدام محادثاتهم النصية مع “ChatGPT” في التدريب، من خلال إيقاف إعداد “improve the model for everyone”.

وبموجب قانون حماية البيانات في الاتحاد الأوروبي، يحق للمستخدمين طلب حذف بياناتهم الشخصية التي تجمعها الشركة. غير أن “OpenAI” توضح أنها قد تحتفظ ببعض المعلومات حتى بعد حذفها، للتعامل مع قضايا الاحتيال وإساءة الاستخدام والمخاوف الأمنية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى