نموذج DeepSeek “ناجح بنسبة 100% تقريبًا” في تجنب الموضوعات المثيرة للجدل

ديب سيك الجديد: معزز بالامتثال الحكومي وتجنب الموضوعات الحساسة
كشف تقرير جديد لوكالة “رويترز” عن إطلاق نسخة مُطوّرة من نموذج الذكاء الاصطناعي اللغوي الصيني الشهير “ديب سيك”، تحمل اسم DeepSeek-R1-Safe، والمصممة خصيصًا لتجنب الخوض في الموضوعات السياسية المثيرة للجدل.
تعاون غير متوقع: هواوي وجامعة تشجيانغ يطوران النموذج الآمن
تم تطوير هذا النموذج بواسطة عملاق التكنولوجيا الصيني “هواوي” بالتعاون مع باحثين من جامعة تشجيانغ – في مفاجأة حيث لم تشارك شركة “ديب سيك” نفسها في المشروع. اعتمد الفريق على النموذج مفتوح المصدر “ديب سيك آر1” وقاموا بتدريبه باستخدام 1000 شريحة ذكاء اصطناعي من “هواوي أسيند”، بهدف تقليص قدرة النموذج على الخوض في النقاشات المثيرة للجدل.
أداء مذهل مع حماية مشددة
تدعي “هواوي” أن النموذج الجديد حقق نجاحًا بنسبة تقارب 100% في منع مناقشة الموضوعات الحساسة سياسيًا، مع الاحتفاظ بحوالي 99% من سرعة وأداء النموذج الأصلي. وأصبح النموذج مجهزًا بشكل أفضل لتجنب “الكلام الضار والمسموم، والمحتوى الحساس سياسيًا، والتحريض على الأنشطة غير القانونية”.
الثغرات تظهر عند التمويه واللعب بالأدوار
ورغم هذه المزاعم، فإن النموذج ليس معصومًا من الأخطاء. حيث أظهرت الاختبارات أن قدرته على تجنب المحادثات المشبوهة تهبط إلى 40% فقط عندما يحاول المستخدمون تمويه أسئلتهم أو طرحها في سياق تحدٍّ أو لعب أدوار. يبدو أن نماذج الذكاء الاصطناعي هذه تحب الانخراط في السيناريوهات الافتراضية التي تسمح لها بتخطي القيود المفروضة عليها!
امتثال للوائح: ليس الصين وحدها من يفرض الرقابة
صُمم “ديب سيك-آر1-سيف” ليكون متوافقًا مع متطلبات الجهات التنظيمية الصينية، التي تفرض على جميع نماذج الذكاء الاصطناعي المطروحة للجمهور أن تعكس قيم البلاد وتلتزم بقواعد تقييد الخطاب. على سبيل المثال، لا يجيب روبوت الدردشة “إيرني” من شركة “بايدو” الصينية على الأسئلة المتعلقة بالسياسة الداخلية أو الحزب الحاكم.
ولكن الصين ليست البلد الوحيد الذي يسعى لضمان استقرار الذكاء الاصطناعي داخل حدوده. ففي وقت سابق من هذا العام، أطلقت الشركة السعودية “Humain” روبوت دردشة باللغة العربية مدربًا على عكس “الثقافة والقيم والتراث الإسلامي”. حتى النماذج الأمريكية ليست بمنأى عن هذا: حيث تذكر “أوبن إيه آي” صراحة أن “شات جي بي تي” منحاز نحو “وجهات النظر الغربية”.
مقارنة عالمية: معايير الحياد متغيرة
وفي الولايات المتحدة، أعلن الرئيس السابق دونالد ترامب عن “خطة عمل الذكاء الاصطناعي لأمريكا”، والتي تشترط أن تكون أي نماذج ذكاء اصطناعي تتعامل مع الوكالات الحكومية محايدة و”غير منحازة”. ولكن ما معنى ذلك عمليًا؟ وفقًا لأمر تنفيذي وقعه ترامب، يجب على النماذج التي تحصل على عقود حكومية أن ترفض مفاهيم مثل “العقيدة المناخية المتطرفة” و”العدالة والمساواة والتنوع” ونظريات مثل “النظرية العرقية الحرجة” و”قضايا المتحولين جنسيًا” و”التحيز غير الواعي”.
خلاصة القول: قبل توجيه الانتقادات حول الرقابة، يجدر بكل دولة أن تلقي نظرة على سياساتها الداخلية أولاً.