١٨ دولة تتحد لحماية أنظمة الذكاء الاصطناعي من السوء الاستخدام
هذا التعاون يعكس جهودًا عالمية في تطوير الذكاء الاصطناعي بشكل آمن
الولايات المتحدة وبريطانيا وأكثر من دولة أخرى تجاوزت عددها العشرين قدمت أول اتفاقية دولية تركز على ضمان سلامة الذكاء الاصطناعي ضد السوء استخدامه من قبل الأطراف الخارجة عن القانون. وقد صاغت هذه الدول ال١٨ اتفاقًا غير ملزم يمتد إلى ٢٠ صفحة يشدد على ضرورة أن تكون أنظمة الذكاء الاصطناعي "آمنة بالتصميم".
تشمل الاتفاقية توصيات عامة مثل مراقبة أنظمة الذكاء الاصطناعي لمنع السوء استخدام، وحماية البيانات من التلاعب، والتحقق من مزودي البرمجيات. وعلى الرغم من عدم وجود قوة قانونية ملزمة، إلا أن الاتفاق يمثل خطوة مهمة نحو إعطاء الأولوية لسلامة الذكاء الاصطناعي، وفقًا لجين إيسترلي، مديرة وكالة الأمن السيبراني وبنية البنية التحتية للولايات المتحدة. يعالج الإطار مخاوف منع تكنولوجيا الذكاء الاصطناعي من الاستغلال من قبل قراصنة الكمبيوتر ولكنه لا يتناول مسائل مثل الاستخدام المناسب للذكاء الاصطناعي أو طرق جمع البيانات.
الاتفاق يعكس جهودًا عالمية لتشكيل تطوير الذكاء الاصطناعي، ولكن فعاليته لا تزال غير مؤكدة بسبب طابعه غير الملزم. أوروبا كانت أكثر نشاطًا في تنظيم الذكاء الاصطناعي، حيث يعمل المشرعون هناك على قواعد للذكاء الاصطناعي واتفاقيات تتعلق بـ "التنظيم الذاتي الإلزامي من خلال أوامر السلوك" لنماذج الذكاء الاصطناعي الأساسية. وعلى العكس من ذلك، واجهت الولايات المتحدة تحديات في تمرير تشريع فعال للذكاء الاصطناعي، على الرغم من جهود إدارة بايدن لمعالجة مخاطر الذكاء الاصطناعي وتعزيز الأمن القومي من خلال الأوامر التنفيذية.