صراع الذكاء الاصطناعي يتصاعد: شركات أميركية تتهم منافسين صينيين بسرقة أبحاث

بينما تتسابق الولايات المتحدة والصين لتطوير تقنيات الذكاء الاصطناعي (AI)، أصبحت الشركة الأميركية Anthropic أحدث جهة تدق ناقوس الخطر، متهمة شركات صينية للذكاء الاصطناعي بسرقة تكنولوجيا قد تحسم هوية الفائز في هذا السباق.
اعلان
اعلان
وتزعم Anthropic أن شركات DeepSeek وMoonshot AI وMiniMax أنشأت سرا أكثر من 16 مليون محادثة مع روبوت الدردشة “كلود” التابع لها، مستعينة بأكثر من 24.000 حساب مزيف، من أجل جمع معارفه وتدريب نماذج منافسة خاصة بها.
وكانت شركتا OpenAI وGoogle قد حذرتا هذا الشهر من اتهامات مشابهة تطال شركات صينية، ما يثير مخاوف من أن تكون الصين تختصر أو تتجاوز سنوات من أبحاث الذكاء الاصطناعي المكلفة.
ما هو “تقطير” نماذج الذكاء الاصطناعي؟
تُعرَّف “هجمات استخلاص النماذج” (MEA)، المعروفة أيضا باسم “التقطير”، على أنها تقنية يستخدم فيها طرفٌ لديه إمكانية الوصول إلى نموذج قوي من نماذج الذكاء الاصطناعي هذا النموذجَ لتدريب منافس أرخص وأسرع.
وتقوم هذه الطريقة على تغذية النموذج الأكبر بآلاف الأسئلة، وجمع الإجابات، ثم استخدام تلك الردود لتعليم نموذج جديد التفكير بالطريقة نفسها.
ويمكن للمستخدم أن يوجّه أسئلة إلى النموذج الأكبر، ثم يستعين بإجاباته لتدريب النموذج الأصغر، ما يسمح بتطوير الذكاء الاصطناعي الأصغر بوتيرة أسرع و”بجزء يسير من الكلفة” مقارنة بما لو أن الجهة المهدِّدة قامت بالعمل الأصلي بنفسها، بحسب ادعاءات Anthropic.
وأوضحت الشركة الأميركية أن التقطير ممارسة “مشروعة” عندما تقوم مختبرات الذكاء الاصطناعي المتقدمة بتقطير نماذجها الخاصة “لإنشاء نسخ أصغر وأرخص لعملائها”.
وتقول Google إن النماذج الأصغر تجيب عن الاستفسارات بسرعة أكبر وتحتاج إلى قدرة حوسبة وطاقة أقل للتشغيل مقارنة بالنماذج الضخمة.
في المقابل، تحذر Anthropic من أن النماذج المطوَّرة عبر التقطير تشكل مخاطر كبيرة على الأمن القومي لأنها “تفتقر إلى الضوابط اللازمة” للحد من المخاطر المحتملة لهذه النماذج.
وتضيف الشركة أن النماذج المقطَّرة لن تحتوي على آليات الحماية الكافية لمنع الجهات الحكومية وغير الحكومية من استغلال الذكاء الاصطناعي في تطوير أسلحة بيولوجية أو شن هجمات إلكترونية.
من جانبها، تؤكد Google أنه لا توجد مخاطر على المستهلكين العاديين لخدمات الذكاء الاصطناعي في حال وقوع هجوم بالتقطير، لأن هذه الهجمات لا “تهدد سرية أو توافر أو سلامة خدمات الذكاء الاصطناعي”.
في الأثناء، أبلغت OpenAI المشرعين في الولايات المتحدة في شهر فبراير أنها ضبطت شركة DeepSeek وهي تحاول سرا نسخ أقوى نماذجها للذكاء الاصطناعي، محذرة من أن الشركة الصينية تطوّر أساليب جديدة لإخفاء ما تقوم به.
ماذا يعلّم القراصنة نماذجهم؟
وتتهم Anthropic شركات الذكاء الاصطناعي الصينية بأنها حوّلت حركة المرور عبر عناوين بروكسي تدير شبكة واسعة أطلقت عليها اسم “شبكة الهيدرا”، وهي مجموعة ضخمة من الحسابات الوهمية توزّع نشاطها على منصات مختلفة للوصول إلى خدمات Anthropic المحظورة في الصين.
وبمجرد أن نجحت هذه الشركات في الدخول، أنشأت كما هائلا من المطالبات (Prompts)، إما للحصول على ردود عالية الجودة لتدريب النماذج، أو لإنتاج عشرات الآلاف من المهام المستخدمة في “التعلم المعزز”، أي الكيفية التي يتعلم بها الوكيل اتخاذ القرارات بناء على التغذية الراجعة.
وطلبت الحسابات المرتبطة بـ DeepSeek، التي اخترقت “كلود”، من النموذج أن يشرح كيف توصّل إلى إجاباته عن المطالبات، خطوة بخطوة، وهو ما تقول الشركة إنه “أنتج بيانات تدريب من نوع سلسلة التفكير على نطاق واسع”.
كما استُخدم “كلود” من جانب هذه الحسابات لـ”ابتكار صيغ آمنة رقابيا من الأسئلة السياسية الحساسة”، مثل الأسئلة المتعلقة بمعارضي الحزب الشيوعي الحاكم حاليا، وفقا لادعاءات Anthropic.
وتقدّر الشركة الأميركية أن مثل هذه الأسئلة درّبت نماذج DeepSeek على “توجيه المحادثات بعيدا عن الموضوعات الخاضعة للرقابة”، وهو ما قد يدعم دراسة حديثة خلصت إلى أن نماذج الذكاء الاصطناعي الصينية تميل إلى فرض الرقابة على الموضوعات نفسها التي تفرض عليها وسائل الإعلام لديهم قيودا.
وتقول Anthropic إن شركتي MiniMax AI وMoonshoot AI نفذتا حملات تقطير أوسع من DeepSeek، لكنها لم تقدّم أمثلة عن نوعية المعلومات التي جمعتها هاتان الشركتان من خلال المطالبات.
وتذكر Google أن (المصدر باللغة الإنجليزية) روبوت الدردشة الخاص بها “Gemini” يُساء استخدامه باستمرار في مهام البرمجة وكتابة الشيفرات، أو في جمع معلومات حساسة مثل بيانات اعتماد الحسابات وعناوين البريد الإلكتروني.
وتقول Anthropic إنها طوّرت آليات لرصد مثل هذه الحملات في الوقت الفعلي، لكنها تشدد على أنه لا توجد شركة واحدة في مجال الذكاء الاصطناعي قادرة بمفردها على حل هذه المشكلة.









