Skip to main content

في ضوء الوفرة العالمية واثار وسائل التواصل الاجتماعي والبرامج الضارة والمعلومات المضللة، فإن توسيع نطاق التنظيم القانوني للذكاء الاصطناعي يعد أمر ضروري، وينبغي ألا يتخلف أي بلد أو منظمة عن هذا الركب. وتجري الآن جهود إقليمية ومتعددة الأطراف في سباق لتنظيم الذكاء الاصطناعي. إن استخدام ضمانات الوكالة الدولية للطاقة الذرية كنموذج لتنظيم الذكاء الاصطناعي سيضمن السلامة والشفافية والتطوير المفيد للذكاء الاصطناعي.

يوجد حاجة لوجود تشريعات متفق عليها دوليا للذكاء الاصطناعي لتجنب المعايير المتضاربة أو المتنافسة، وأيضا لضمان سلامة وموثوقية وشفافية الذكاء الاصطناعي المبني على نماذج اللغة الكبيرة أو التعلم العميق مثل ChatGPT وGPT-4.1. . ولكن ينبغي عند تشريع تلك القواعد والقوانين الدولية تضمين جميع البلدان والمنظمات ذات الصلة.

مجهودات تنظيم الذكاء الاصطناعي الى الآن

توصلت فرنسا وألمانيا وإيطاليا إلى اتفاق في 18 نوفمبر 2023 بشأن التنظيم المستقبلي للذكاء الاصطناعي، مع وجود الاتحاد الأوروبي كسلطة لمراقبة الامتثال.

واقترح الرئيس الروسي … مبادئ مشتركة للتحكم في الذكاء الاصطناعي مماثلة لقواعد عدم الانتشار النووي (تاس، 24 نوفمبر 2023).

ولقد وافقت قمة سلامة الذكاء الاصطناعي 2023، المنعقدة في الفترة من 1 إلى 2 نوفمبر 2023 في بلتشلي بارك بالمملكة المتحدة، على دعم تنظيم الذكاء الاصطناعي بشكل آمن وموثوق، والسيطرة على مخاطر الذكاء الاصطناعي. وفي القمة، اتفق الاتحاد الأوروبي والولايات المتحدة والصين ودول أخرى على التعامل مع المخاطر الناجمة عن الذكاء الاصطناعي بشكل جماعي. كما وافقت الأمم المتحدة على إعلان بلتشلي بارك. ومن المقرر عقد اجتماع اخر لقمة المملكة المتحدة الخاصة بسلامة الذكاء الاصطناعي الحكومية الدولية في فرنسا في عام 2024.

وفي 26 أكتوبر 2023، قام الأمين العام للأمم المتحدة بتعيين هيئة استشارية رفيعة المستوى معنية بالذكاء الاصطناعي تتألف من 39 عضوًا من البلدان المتقدمة والنامية على حد سواء. وستناقش هذه الهيئة الاستشارية الفرص والمخاطر والحوكمة الدولية للذكاء الاصطناعي.

أصدر الرئيس الأمريكي في 30 أكتوبر 2023 أمرًا تنفيذيًا بشأن تنظيم الذكاء الاصطناعي، وذلك لضمان سلامة وأمن تطبيقات الذكاء الاصطناعي، وحماية المستهلكين، وتشجيع الابتكار، والمنافسة.

وفي 7 سبتمبر 2023، التزمت مجموعة السبع (الولايات المتحدة والمملكة المتحدة وفرنسا وألمانيا وإيطاليا واليابان وكندا) بتطوير مبادئ إرشادية ومدونة سلوك دولية للمؤسسات لأنظمة الذكاء الاصطناعي المتقدمة. حيث تؤكد المسودة الدولية للمبادئ الإرشادية للمنظمات التي تطور أنظمة الذكاء الاصطناعي المتقدمة، على سبيل المثال، على الحاجة إلى السلامة والأمن والموثوقية والشفافية وإدارة المخاطر والمعايير الدولية. ويقوم الاتحاد الأوروبي الآن بمراجعة هذه المبادئ الإرشادية.

ولقد وافق برلمان الاتحاد الأوروبي في 14 يونيو 2023 على أول قانون في العالم ينظم الذكاء الاصطناعي، وهو قانون الاتحاد الأوروبي للذكاء الاصطناعي. وفي حالة اذا ما صدقت الدول الأعضاء في الاتحاد الأوروبي على قانون الذكاء الاصطناعي، فسوف يصبح قانونًا بحلول عام 2025.

وفي 13 يوليو 2023، نشرت هيئة تنظيم الإنترنت الصينية القواعد النهائية بشأن الذكاء الاصطناعي التوليدي: تدابير مؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي. تتضمن تلك القواعد العديد من المبادئ التي يناقشها منتقدو الذكاء الاصطناعي في الغرب: انتهاك الملكية الفكرية من خلال نماذج الذكاء الاصطناعي؛ انتهاك الخصوصية بواسطة الذكاء الاصطناعي؛ وعدم التمييز من خلال خوارزميات الذكاء الاصطناعي؛ وشفافية شركات الذكاء الاصطناعي فيما يتعلق بالبيانات والتدريب.

وبالتالي، هنالك وعي واضح ومتزايد على أعلى المستويات السياسية بأهمية تنظيم الذكاء الاصطناعي، وبأن السيطرة على الانتشار النووي يعد تجربة مشابهة.

هناك حاجة إلى تنظيم دولي للذكاء الاصطناعي فورا

تم إنشاء الوكالة الدولية للطاقة الذرية (IAEA) لتعزيز الاستخدامات السلمية للطاقة النووية وإنشاء نظام فعال ومقبول دوليًا لحظر الأنشطة غير السلمية ومراقبتها. ولهذه الأسباب نفسها، ينبغي إنشاء وكالة دولية للذكاء الاصطناعي (IAIA) لتنظيم الذكاء الاصطناعي ولضمان السلامة والشفافية والتطوير المفيد للذكاء الاصطناعي. لقد أصبح هذا أمرًا طارئا، وتحديدا لتحقيق نظام دولي موحد بدلاً من قيام دول فردية أو مجموعات من الدول بتطوير أنظمة خاصة بها ومختلفة وربما متضاربة لتنظيم الذكاء الاصطناعي. ولقد أكد إيلون ماسك ووارن بافيت بقوة على أن خطورة وحجم المخاطر المرتبطة بالذكاء الاصطناعي أكثر خطورة من تلك المرتبطة بالأسلحة النووية.

الوكالة الدولية للذكاء الاصطناعي (https://www.iglobenews.org/iaea-safeguards-a-model-for-international-ai-regulation)

ستكون مسؤولة عن التنظيم الدولي للذكاء الاصطناعي والتحقق المستقل والموضوعي من أنظمة الذكاء الاصطناعي الوطنية والتطبيقات لضمان الامتثال للالتزامات الوطنية والدولية. وسيوفر التحقق ضمانات بأن الذكاء الاصطناعي يتم تطويره واستخدامه للأغراض الآمنة والسلمية فقط، والحد من تطوير تطبيقات الذكاء الاصطناعي الفعلية/المحتملة الخطيرة والمحظورة.

ضمانات الوكالة الدولية للطاقة الذرية: نموذج الوكالة الدولية للذكاء الاصطناعي

إن تجربة الوكالة الدولية للطاقة الذرية ذات أهمية فريدة. وتتوافق أسباب ودور تنظيم الوكالة الدولية للذكاء الاصطناعي بشكل أساسي مع الأسباب التي تم من أجلها إنشاء نظام الضمانات الدولي التابع الوكالة الدولية للطاقة الذرية. وتشمل ضمانات الوكالة الدولية للطاقة الذرية التحقق المستقل من أنظمة الضمانات الوطنية لتوفير ضمانات موثوقة تأكد استخدام المواد والمرافق النووية للأغراض السلمية فقط.

وبالمثل، ستتولى الوكالة الدولية للذكاء الاصطناعي IAIA أيضًا مهمة ذات شقين تتمثل في تعزيز الاستخدامات الآمنة والسلمية للذكاء الاصطناعي مع التحقق والسيطرة على عدم استخدام الذكاء الاصطناعي لأغراض غير مشروعة أو مزعزعة للاستقرار. وتشمل الالتزامات والفوائد التي ستعود على الدول المشاركة في الوكالة الدولية للذكاء الاصطناعي IAIA ما يلي:

  • الالتزام بلوائح الذكاء الاصطناعي الدولية وقبول التحقق الدولي من أنشطتهم في مجال الذكاء الاصطناعي
  • اعلان الكيانات ذات الصلة بجميع أنشطة البحث والتطوير في مجال الذكاء الاصطناعي وتطبيقات الذكاء الاصطناعي وأنشطة الذكاء الاصطناعي الأخرى، والتي يجب أن تلتزم جميعها بالالتزامات القانونية وغيرها من التزامات الدولة فيما يتعلق بالاستخدام السلمي والمفيد للذكاء الاصطناعي
  • التحقق من اكتمال وصحة اعلانات الذكاء الاصطناعي الوطنية
  • تأهيل المفتشين الدوليين المخولين بالتفتيش والتحقق من إعلانات أنشطة الذكاء الاصطناعي والكشف عن أنشطة الذكاء الاصطناعي غير المعلنة (على غرار ما يفعله مفتشو ضمانات الوكالة الدولية للطاقة الذرية فيما يتعلق بالمواد والأنشطة النووية)
  • إمكانية الوصول إلى تكنولوجيا الذكاء الاصطناعي والتعاون الفني لتطوير أنظمة الذكاء الاصطناعي للأغراض السلمية
  • نظام إنذار مبكر في حالة الاشتباه في استخدام الذكاء الاصطناعي أو استخدامه لأغراض غير قانونية أو معادية للمجتمع أو إجرامية
  • تحديد ومنع، التطوير غير المنضبط، والتطبيقات والمنافسة للاستيلاء والتحكم ب سوق الذكاء الاصطناعي
  • تقديم معلومات حول عمليات التفتيش على الذكاء الاصطناعي وغيرها من البيانات ذات الصلة المتفق عليها من خلال قاعدة بيانات دولية للذكاء الاصطناعي
  • يمكن تقديم الانتهاكات الجسيمة لقواعد الوكالة الدولية للذكاء الاصطناعي إلى مجلس الأمن التابع للأمم المتحدة، كما هو الحال بالنسبة للانتهاكات الخطيرة لضمانات الوكالة الدولية للطاقة الذرية

الوكالة الدولية للذكاء الاصطناعي: النهج الشامل مقابل النهج الحصري لتنظيم الذكاء الاصطناعي

سيتم إنشاء الوكالة الدولية للذكاء الاصطناعي من خلال اجراءات دولية لتعزيز وضمان الاستخدام السلمي والصناعي للذكاء الاصطناعي التوليدي. وحتى تعمل الوكالة الدولية للذكاء الاصطناعي بشكل فعال فيجب تعزيز التعاون الدولي ليشمل جميع الدول ومنظماتها وخبرائها الذين لديهم اهتمام ومصالح في مجال الذكاء الاصطناعي. إن النهج الدولي وحده هو الذي يمكن أن ينجح في التعامل مع الأبعاد والتحديات العالمية والتطور السريع لتكنولوجيا الذكاء الاصطناعي. وبالتالي، يجب مشاركة ليس فقط مجموعة السبع والاتحاد الأوروبي، ولكن أيضًا الدول الرئيسية الأخرى، بما في ذلك البرازيل والصين والهند وجمهورية كوريا وروسيا وغيرها.

وفي ضوء الوفرة العالمية واثار وسائل التواصل الاجتماعي والبرامج الضارة والمعلومات المضللة، ، فإن توسيع نطاق التنظيم القانوني للذكاء الاصطناعي أمر ضروري. وينبغي ألا يتخلف أي بلد أو منظمة عن هذا الركب.

ومن المأمول أن تبدأ هيئة الأمم المتحدة الاستشارية رفيعة المستوى المعنية بالذكاء الاصطناعي، والتي تم تشكيلها حديثًا، في أقرب وقت ممكن، محاولتها لتنظيم الذكاء الاصطناعي على المستوى الدولي.

صورة © kjpargeter على Freepik
WordPress Cookie Notice by Real Cookie Banner