آخر الأخبار

خبراء الذكاء الاصطناعي يحثون الحكومات بشكل عاجل على التفكير في اتخاذ إجراءات محتملة

مبادرة عالمية جديدة: رسم “الخطوط الحمراء” للذكاء الاصطناعي لمنع المخاطر الكارثية

بات من الواضح للجميع أن الذكاء الاصطناعي يمثل تقنية ناشئة تتطور بسرعة هائلة، تحمل في طياتها إمكانية التسبب بأضرار جسيمة إذا ما تم تشغيلها دون ضوابط. لكن يبقى التحدي الأكبر هو كيفية تنظيم هذه التقنية، حيث لا يوجد إجماع دولي حول السبل المثلى لذلك، باستثناء بعض الجهود التي تبذلها الاتحاد الأوروبي إلى حد ما.

بدلاً من محاولة وضع مسار ضيق ومحدد لكيفية السماح للذكاء الاصطناعي بالعمل، اختار خبراء المجال نهجاً جديداً: لماذا لا نحدد أولاً الأمثلة المتطرفة التي نتفق جميعاً على أنها سيئة ونتعهد بمنعها؟

نداء عالمي من الأمم المتحدة

يوم الاثنين، توجه مجموعة من السياسيين والعلماء والأكاديميين إلى جمعية الأمم المتحدة العامة للإعلان عن “النداء العالمي لوضع خطوط حمراء للذكاء الاصطناعي”. هذا النداء هو مناشدة لحكومات العالم للالتقاء والاتفاق على أوسع الضوابط لمنع “المخاطر غير المقبولة عالمياً” التي قد تنتج عن نشر الذكاء الاصطناعي. ويهدف الفريق إلى وضع هذه الخطوط الحمراء بحلول نهاية عام 2026.

حظي الاقتراح حتى الآن بتأييد كبير، حيث جمع أكثر من 200 توقيع من خبراء الصناعة والقادة السياسيين والفائزين بجائزة نوبل. ومن بين الموقعين الرئيسيين:

  • ماري روبنسون، الرئيسة السابقة لأيرلندا.
  • خوان مانويل سانتوس، الرئيس السابق لكولومبيا.
  • جيفري هينتون ويوشوا بينجيو، اثنان من “أعمدة الذكاء الاصطناعي” الثلاثة الحاصلين على جائزة تورينج.
  • عدة فائزين بجائزة نوبل.

ما هي هذه الخطوط الحمراء بالضبط؟

الإجابة المختصرة: الأمر يعود للحكومات لتقرره. لا يتضمن النداء توصيات سياسية محددة، لكنه يسلط الضوء على بعض الأمثلة التوضيحية لما يمكن اعتباره “خطاً أحمر”.

على سبيل المثال، قد تشمل الخطوط الحمراء لاستخدامات الذكاء الاصطناعي:

  • حظر استخدام الذكاء الاصطناعي لإطلاق الأسلحة النووية.
  • حظر استخدامه في أنظمة المراقبة الجماعية.

أما بالنسبة لسلوك الذكاء الاصطناعي نفسه، فقد يكون من الخطوط الحمراء المحتملة:

  • حظر تطوير أنظمة ذكاء اصطناعي لا يمكن للإنسان تعطيلها أو السيطرة عليها.

ويؤكد القائمون على المبادرة أن هذه مجرد أمثلة استرشادية، وأن على الحكومات وضع قواعدها الخاصة بناءً على إجماع دولي.

الأعمدة الثلاثة لأي اتفاقية عالمية

ما تقدمه المجموعة بشكل ملموس هو الإطار الذي يجب أن تُبنى عليه أي اتفاقية عالمية، والمتمثل في ثلاثة أركان أساسية:

  1. قائمة واضحة بالمحظورات: تحديد الممارسات التي يجب منعها تماماً.
  2. آليات تحقق قابلة للتدقيق: ضمان وجود طرق مستقلة للتحقق من الالتزام بالضوابط.
  3. هيئة مستقلة للإشراف: تعيين جهة مستقلة من قبل الأطراف الموقعة للإشراف على تنفيذ الاتفاقية.

التحدي الحقيقي: التوصل إلى اتفاق سياسي

التفاصيل الدقيقة هي المهمة الصعبة الملقاة على عاتق الحكومات للاتفاق عليها. يوصي النداء عقد قمم ومجموعات عمل لوضع هذه التفاصيل، لكن المحادثات ستشهد بلا شك تصارعاً للعديد من المصالح والأجندات المتضاربة.

فعلى سبيل المثال، التزمت الولايات المتحدة بالفعل بعدم السماح للذكاء الاصطناعي بالتحكم في الأسلحة النووية (اتفاق تم في عهد إدارة بايدن). لكن تقارير حديثة كشفت عن استياء أجزاء من مجتمع الاستخبارات في عهد ترامب من رفض بعض شركات الذكاء الاصطناعي السماح باستخدام أدواتها في عمليات المراقبة المحلية.

السؤال المطروح: هل ستوافق أمريكا على مثل هذا الاقتراح العالمي؟ الإجابة قد نعرفها بحلول نهاية 2026… إذا بلغنا ذلك الموعد بسلام.

زر الذهاب إلى الأعلى