من في قطاع التكنولوجيا يدعم أنثروبيك ضد الحكومة الأميركية؟

نشرت في
تتلقى شركة “Anthropic” دعما من “Microsoft” وقادة عسكريين متقاعدين ومراكز أبحاث متخصصة في الذكاء الاصطناعي، في معركتها القانونية لإزالة تصنيف إدارة ترامب للشركة على أنها “مخاطر على سلسلة الإمداد”.
اعلان
اعلان
وجاء في المذكرة القانونية لـ”Microsoft” أن إجراءات وزارة الحرب الأمريكية (DOW) “تجبر المتعاقدين مع الحكومة على الامتثال لتوجيهات غامضة وغير محددة لم يسبق أن استُخدمت علنا ضد شركة أمريكية”.
وأضافت المذكرة أن تصنيف مخاطر سلسلة الإمداد “قد يترتب عليه آثار اقتصادية قاسية لا تصب في المصلحة العامة”، وطالبت القاضي بإصدار أمر مؤقت بتعليق هذا التصنيف. وتأتي هذه الخطوة بعد أن بدأت “Anthropic” الأسبوع الماضي ملاحقة وزارة الحرب الأمريكية قضائيا للطعن في هذا الوصف.
ويعني وسم “Anthropic” على أنها مخاطر على سلسلة الإمداد أن بإمكان الحكومة استبعاد الشركة من منح العقود، وإخراج منتجاتها من دائرة البحث، ومنع المتعاقدين الرئيسيين مباشرة مع الدولة من التعامل معها كمورّد.
وكانت “Anthropic” حتى وقت قريب الشركة الوحيدة بين نظيراتها التي حظيت بالموافقة على استخدامها داخل الشبكات العسكرية السرية. فقد جرى نشر برنامجها للمحادثة بالذكاء الاصطناعي في مختلف شبكات المعلومات المصنفة للحكومة الأمريكية، واستخدم في المختبرات النووية الوطنية، وفي تحليل المعلومات الاستخباراتية لصالح وزارة الحرب.
من يدعم “Anthropic” أيضا؟
قدّم عدد من كبار الضباط العسكريين الأمريكيين السابقين وشركات التكنولوجيا الكبرى ومنظمات الذكاء الاصطناعي مذكرات مشتركة إلى المحكمة دعما لـ”Anthropic”.
وجاء في إحدى المذكرات، التي يدعمها مايكل هايدن، المدير السابق لوكالة الاستخبارات المركزية الأمريكية (CIA)، أن سلوك وزير الدفاع الأمريكي بيت هيغسِث تجاه “Anthropic” “يهدد مبادئ سيادة القانون التي عززت جيشنا طويلا”. ويتهم مقدمو المذكرة هيغسِث أيضا بإساءة استغلال السلطة الحكومية لـ”الانتقام من شركة خاصة أغضبت القيادة”.
وحذّر الضباط السابقون من أن “حالة عدم اليقين المفاجئة” الناتجة عن استهداف تكنولوجيا مدمجة على نطاق واسع في المنصات العسكرية قد تربك التخطيط وتعرض الجنود للخطر في العمليات الجارية، مثل الحرب في إيران.
وفي مذكرة (المصدر باللغة الإنجليزية) أخرى، مقدَّمة باسم 37 مهندسا في مجال الذكاء الاصطناعي سبق لهم العمل في “OpenAI” و”DeepMind” التابعة لـ”Google”، وُصفت إجراءات وزارة الحرب بأنها “استخدام غير سليم وتعسفي للسلطة، له تداعيات خطيرة على صناعتنا”.
وجاء في المذكرة: “إذا سُمح بالمضي قدما في هذا المسعى لمعاقبة إحدى الشركات الأمريكية الرائدة في الذكاء الاصطناعي، فستكون له دون شك عواقب على القدرة الصناعية والعلمية للولايات المتحدة في مجال الذكاء الاصطناعي وما يتجاوزه. كما سيُثني الباحثين في مجالنا عن النقاش الصريح حول مخاطر وفوائد أنظمة الذكاء الاصطناعي الحالية”.
وحذّرت مذكرة منفصلة من أنه ليس من الصعب “تخيّل عالم تسيطر فيه الحكومة عمليا على ما يفعله ويقوله جميع الأمريكيين” إذا تمكنت من إملاء سياسات “Anthropic”. وأكدت مذكرة مشتركة (المصدر باللغة الإنجليزية) أخرى، وقّعت عليها منظمات بينها مؤسسة الحدود الإلكترونية “Electronic Frontier Foundation” ومعهد “Cato”، أن إجراءات الحكومة تنتهك التعديل الأول للدستور، الذي يكفل حرية التعبير. وجاء فيها: “إجراءات الحكومة… تهدد حيوية ديمقراطيتنا واستقلالها”.
كيف بدأ الخلاف؟
نشب الخلاف بين “Anthropic” والجيش الأمريكي عندما رفضت الشركة منح الجيش حق الوصول غير المقيّد إلى برنامجها للمحادثة بالذكاء الاصطناعي “Claude”. ومنحت الحكومة الشركة 48 ساعة لتوفير هذا الوصول، تحت طائلة التعرض لعقوبات.
وقال الرئيس التنفيذي لـ”Anthropic” داريو أمودي إن الشركة رسمت للجيش خطّين أحمرين: ألا تُستخدم تقنيتها في مراقبة جماعية داخلية، وألا تُدمج في أسلحة ذاتية التشغيل بالكامل. وفي بيان (المصدر باللغة الإنجليزية) صدر في 26 فبراير، قال أمودي إنه “لا يستطيع، من منطلق الضمير، أن يرضخ لطلب البنتاغون” بالحصول على حق وصول غير مقيّد إلى أنظمة الذكاء الاصطناعي الخاصة بالشركة.
وكتب أمودي: “نعتقد أن الذكاء الاصطناعي يمكن، في مجموعة ضيقة من الحالات، أن يقوّض القيم الديمقراطية بدلا من حمايتها”، مضيفا: “بعض الاستخدامات تقع ببساطة خارج نطاق ما يمكن للتكنولوجيا الحالية أن تنجزه بأمان وموثوقية”.
ودعمت المذكرة المقدمة من “Microsoft” إلى المحكمة الخطوط الحمراء التي وضعتها “Anthropic”، إذ جاء فيها أن “الذكاء الاصطناعي الأمريكي لا ينبغي أن يُستخدم لتنفيذ مراقبة جماعية داخلية أو لشن حرب من دون سيطرة بشرية”، مؤكدة أن هذا الموقف “منسجم مع القانون”. من جانبه، أعلن هيغسِث أن برنامج “Claude” سيُسحب تدريجيا من العمليات العسكرية خلال الأشهر الستة المقبلة.
وقال أمودي في بيان إن وزارة الحرب يمكنها أن تختار شركاء آخرين في العقود يتوافقون أكثر مع رؤيتها، لكنه أضاف: “نظرا للقيمة الكبيرة التي توفرها تكنولوجيا “Anthropic” لقواتنا المسلحة، نأمل أن تعيد الوزارة النظر”.









