أنثروبيك تريد أن تكون شركة الذكاء الاصطناعي الجيدة الوحيدة في أمريكا ترمب

أنثروبيك: شركة الذكاء الاصطناعي التي تتحدى المراقبة الجماعية
تحاول شركة أنثروبيك، المطورة للروبوت الدردشة “كلود”، ترسيخ مكانتها كـ”الوجه الأخلاقي” في مجال الذكاء الاصطناعي. جاء ذلك بعد أن كانت الشركة الوحيدة بين كبرى شركات الذكاء الاصطناعي التي أيدت مشروع قانون سلامة الذكاء الاصطناعي في كاليفورنيا، لتتبع ذلك بموقف جديد أثار اهتمام وسائل الإعلام.
رفض واضح لتقنيات المراقبة
كشف تقرير لموقع “سيمافور” أن أنثروبيك ترفض بشكل قاطع السماح باستخدام نموذجها الذكي في مهام المراقبة، وهو ما أثار استياء إدارة ترامب. وفقاً للتقرير، تشعر وكالات إنفاذ القانون بتقييد بسبب سياسة استخدام أنثروبيك، التي تتضمن قسمًا يحظر استخدام تقنيتها في “العدالة الجنائية، الرقابة، المراقبة، أو أغراض إنفاذ القانون المحظورة”.
حظر استخدامات محددة
تشمل القيود حظر استخدام أدوات الذكاء الاصطناعي الخاصة بالشركة في:
- اتخاذ قرارات متعلقة بتطبيقات العدالة الجنائية
- تتبع الموقع الجغرافي أو الحالة العاطفية أو اتصالات الشخص دون موافقته
- تحليل أو تحديد محتوى معين للرقابة نيابة عن منظمة حكومية
توتر مع الوكالات الفيدرالية
شكلت هذه السياسة مشكلة حقيقية للوكالات الفيدرالية بما في ذلك مكتب التحقيقات الفيدرالي (FBI)، الخدمة السرية، وهجرة والجمارك (ICE). وقد خلقت توتراً بين الشركة والإدارة الحالية، على الرغم من منح أنثروبيك الحكومة الفيدرالية حق الوصول إلى روبوت الدردشة “كلود” ومجموعة أدوات الذكاء الاصطناعي مقابل دولار واحد فقط.
سياسات أكثر صرامة من المنافسين
وفقاً للتقرير، فإن سياسة أنثروبيك واسعة النطاق وتحتوي على استثناءات أقل من المنافسين. على سبيل المثال، تحدد سياسة استخدام “أوبن إيه آي” “المراقبة غير المصرح بها للأفراد”، مما قد لا يمنع استخدام التكنولوجيا في المراقبة “القانونية”.
تطبيق خاص للمجتمع الاستخباراتي
أوضح مصدر مطلع أن وكالات حكومية تستخدم “كلود” لأغراض الأمن القومي، بما في ذلك الأمن السيبراني، لكن سياسة استخدام الشركة تقيد الاستخدامات المتعلقة بالمراقبة المحلية. وأكد متحدث باسم أنثروبيك أن الشركة طورت “ClaudeGov” خصيصاً للمجتمع الاستخباراتي، وحصلت الخدمة على تصنيف “عالي” من برنامج إدارة المخاطر الفيدرالية.
انتقادات حكومية وردود أخلاقية
اشتكى مسؤول حكومي لـ”سيمافور” من أن سياسة أنثروبيك تصدر أحكاماً أخلاقية حول كيفية عمل وكالات إنفاذ القانون. لكن الأمر لا يقتصر على الجانب الأخلاقي فقط، بل له أبعاد قانونية واضحة. إذا كانت الحكومة الفيدرالية منزعجة من أن سياسة استخدام الشركة تمنعها من إجراء المراقبة المحلية، فلعل الاستنتاج الأساسي هو أن الحكومة تقوم بمراقبة محلية واسعة النطاق وتحاول أتمتتها باستخدام أنظمة الذكاء الاصطناعي.
جهود التموضع كشركة أخلاقية
يمثل الموقف المبدئي لأنثروبيك أحدث جهودها لتموضع نفسها كشركة ذكاء اصطناعي معقولة. في وقت سابق من هذا الشهر، دعمت مشروع قانون سلامة الذكاء الاصطناعي في كاليفورنيا الذي يفرض على الشركات الكبرى الخضوع لمتطلبات سلامة جديدة وأكثر صرامة.
تناقض في الصورة الأخلاقية
لكن صورة الشركة “الأخلاقية” تتعرض لبعض التشويه بسبب حقيقة أنها قامت بقرصنة ملايين الكتب والأوراق المستخدمة في تدريب نموذجها اللغوي، منتهكة بذلك حقوق أصحاب الملكية الفكرية. تسوية بقيمة 1.5 مليار دولار تم التوصل إليها earlier this month ستعوض部分ياً من قاموا بإنشاء الأعمال المستخدمة في التدريب.
تقييم مالي هائل
في المقابل، تم مؤخراً تقييم أنثروبيك بما يقارب 200 مليار دولار في جولة تمويلية، مما يجعل الغرامة القضائية تبدو كمجرد خطأ تقريبي في الحسابات.