كيف تتعامل مختلف بلدان العالم مع الذكاء الاصطناعي والتشريعات الناظمة لاستخدامه؟

حاز الذكاء الاصطناعي التوليدي اهتماماً كبيراً منذ ظهور أول أدواته في أواخر العام الماضي، وسرعان ما أصبحت هذه التكنولوجيا في صدارة اهتمام الهيئات المنظمة في مختلف أنحاء العالم؛ إذ تشير الدلائل والأخبار الحالية بأنّ قطاع الذكاء الاصطناعي قد يصير أكثر القطاعات التكنولوجية تنظيماً.

ففي أرجاء العالم يعكف المشرّعون على دراسة الخيارات المتاحة أمامهم لسنّ قواعد لإدارة تكنولوجيا الذكاء الاصطناعي، وضبط بعض استخداماته المثيرة للقلق والهواجس. ويبدو مرجحاً أن يكون الاتحاد الأوروبي أول منطقة تتبع شكلاً من أشكال الرقابة والتنظيم في مسألة الذكاء الاصطناعي التوليدي.

المنطقة العربية

بينما لم تقدم أي دول عربية قوانين أو أطراً تشريعية تحد أو تنظم من استخدام الذكاء الاصطناعي حقاً، فقد كان هناك نشاط تشريعي من حيث دراسة استخدامات التقنية بشكل أفضل وعلى نطاق أوسع مع دراسة الفوائد المرجوة والأخطار المحتملة لها. فقد أنشأت الإمارات العربية المتحدة وزارة هي الأولى من نوعها عالمياً للذكاء الاصطناعي، وذلك بالإضافة لمجلس الذكاء الاصطناعي والبرنامج الوطني للذكاء الاصطناعي، والاستراتيجية الوطنية للذكاء الاصطناعي. وفي السعودية أيضاً، هناك هيئة خاصة بالإضافة لاستراتيجية وطنية متعلقة بالبيانات والذكاء الاصطناعي للبحث عن طرق استخدامها بالشكل الأمثل.

الاتحاد الأوروبي

تواصل المفوضية الأوروبية حالياً إجراء المفاوضات النهائية بين أعضائها العشرين بخصوص قانون الذكاء الاصطناعي، الذي أطلقت عليه: القواعد العالمية الأولى للذكاء الاصطناعي. وتشير التوقعات إلى احتمالية الاتفاق على النسخة النهائية من هذا القانون في العام الحالي، على أنْ يدخل حيّز التنفيذ في أواخر عام 2025.

واقترح الأعضاء هذا القانون للمرة الأولى في عام 2021، أي قبل أن تطلق شركة OpenAI أدوات الذكاء الاصطناعي التوليدي لديها مثل ChatGPT وDALL-E. وسرعان ما تبعتها شركات تكنولوجية كبيرة، مثل ميتا ومايكروسوفت وجوجل، وأخذت تتنافس فيما بينها لتحقيق الريادة في هذا المجال.

وجرى في هذا العام تحديث مشروع اللائحة الاتحاد الأوروبي؛ ولعل أبرز دفعة تلقاها القانون في الوقت الراهن هي تصنيف نماذج الذكاء الاصطناعي التوليدي وأدواته ضمن فئتين:  عالية الخطورة أو غير مقبولة. وعلى العموم تتضمن قائمة أدوات الذكاء الاصطناعي المندرجة ضمن الفئة العالية الخطورة كلاً من المقاييس البيومترية لتحديد هوية المستخدمين، وأدوات الذكاء الاصطناعي المعتمدة في مجالات التعليم والقانون وإنفاذ القانون وإدارة شؤون العمال والموظفين.

وبمقتضى هذا القانون، تستطيع السلطات في الاتحاد الأوروبي حظر أدوات الذكاء الاصطناعي التي تراها غير مناسبة، فضلاً عن حظر استخداماتها المختلفة كذلك. وتندرج ضمن ذلك الأنظمة البيومترية لتحديد هوية المستخدمين أو تكنولوجيا التعرف على الوجوه، ونظام الرصيد الاجتماعي المتبع لتصنيف الأشخاص تبعاً لطبقتهم الاقتصادية وصفاتهم الشخصية، والممارسات المنطوية على تلاعب سلوكي ومعرفي مثل الأدوات العاملة بالذكاء الاصطناعي التي تشتغل عندما يتكلم المستخدم.

أما فيما يخص الذكاء الاصطناعي التوليدي، فيقتضي القانون المقترح بإلزامية الكشف عن المحتوى الذي ينشئه الذكاء الاصطناعي، بالإضافة إلى الكشف عن البيانات المعتمدة في تدريب نماذج اللغة الضخمة. وهذا الأمر مهم جداً؛ فالشركات عمدت في الآونة الأخيرة إلى إخفاء مصادر بيانات التدريب لديها، لا سيما عقب زيادة التدقيق والإجراءات القانونية من المؤلفين وصانعي المحتوى، الذي جمعته الشركات من مواقع الإنترنت وأدخلته في قواعد بيانات التدريب لديها. كذلك يستلزم الشركات أن تقدم براهين على جهودها في تخفيف الأخطار القانونية قبل إطلاق أدوات ونماذج جديدة من الذكاء الاصطناعي التوليدي، ويجب عليها تسجيل النماذج الأساسية في قاعدة بيانات موجودة عند مفوضية الاتحاد الأوروبي.

الولايات المتحدة الأمريكية

مواضيع مشابهة

تسعى الولايات المتحدة الأمريكية بدورها إلى تنظيم مجال الذكاء الاصطناعي في البلاد؛ ففي شهر سبتمبر الفائت، قال متحدث باسم البيض الأبيض إنّ “الرئاسة الأمريكية تعد مرسوماً تنفيذياً” بخصوص هذه التكنولوجيا، وهي بصدد وضع لائحة تنظيمية أعدها الحزبان الجمهوري والديمقراطي في البلاد. ويواصل البيت الأبيض مساعيه لاستشارة خبراء الصناعة بشأن هذه المسألة.

في المقابل عقد مجلس الشيوخ جلسة استماع واجتماعاً مغلقاً مع قادة شركات التكنولوجيا الكبرى بخصوص الذكاء الاصطناعي، دون أن يتمخض عن هذه اللقاءات أي تطورات مهمة باستثناء مواجهة مارك زوكربيرج بشأن تقديم نموذج Llama 2، التابع لشركته، دليلاً مفصلاً عن طريقة تطوير الجمرة الخبيثة.

ومن المتوقع أن ترخي هذه التطورات والمساعي التنظيمية بظلالها على قانون حقوق الطبع والنشر والتوزيع في الولايات المتحدة الأمريكية؛ إذ قال مكتب حقوق الطبع والنشر إنه ينظر في اتخاذ إجراءات أو قواعد جديدة بخصوص الذكاء الاصطناعي التوليدي، لا سيما في ظل الجدال العام حول تأثير هذه التكنولوجيا على قطاع الأعمال الإبداعية المختلفة.

المملكة المتحدة

لا تدخر المملكة المتحدة أي جهد حتى تصبح قوة عظمى في مجال الذكاء الاصطناعي، وهذا ما كشفته ورقة بحثية صادرة عن وزارة العلوم والابتكار والتكنولوجيا في البلاد. فصحيح أن الهيئات الحكومية أنشأت “صندوقَ حمايةٍ تنظيمياً لتكنولوجيا الذكاء الاصطناعي”، لكن لا نية فورية لديها لوضع تشريعات جديدة للإشراف عليه، وإنما تعتزم إخضاع هذه التكنولوجيا وأدواتها المختلفة للتقييم في أثناء تطورها مع مرور الوقت.

وتقول ميشيل دونيلان، وزيرة الدولة للعلوم والابتكار والتكنولوجيا: “لا شك أن استعجال سن التشريعات في وقت مبكر جداً يضع على كاهل الشركات عبئاً ثقيلاً لا مبرر له على الإطلاق”، وتابعت دونيلان كلامها بالقول: “كلما تطورت تكنولوجيا الذكاء الاصطناعي، وجب علينا تعديل نهجنا وتشريعاتنا التنظيمية أيضاً”. ومن هذا المنطلق ترى المملكة المتحدة ضرورة التأني في سنّ تلك التشريعات، وهي إلى ذلك تراقب طبيعة التطور الحاصل في الذكاء الاصطناعي.

البرازيل والصين

تتبع البرازيل نهجاً مشابهاً للاتحاد الأوروبي في تصنيف أدوات الذكاء الاصطناعي واستخداماته إلى فئات متعددة حسب درجة الخطورة، سواء أكانت عالية أو مفرطة. وقررت السلطات البرازيلية أن تحظر أي أدوات للذكاء الاصطناعي تندرج ضمن فئة الخطورة المفرطة حسب مشروع قانون جرى تحديثه في وقت سابق من العام الحالي. كذلك تنوي السلطات البرازيلية تحميل شركات التكنولوجيا المتطورة لنماذج اللغة الضخمة كامل المسؤولية عن الأضرار الناجمة عن أنظمة الذكاء الاصطناعي المصنفة ضمة الفئة الخطورة العالية.

أما فيما يتعلق بالصين، فقد وضعت السلطات هناك بعض اللوائح التنظيمية المرتبطة بتكنولوجيا الذكاء الاصطناعي؛ فعلى مدار العامين الماضيين، سنّت الحكومة قوانين وتشريعات بخصوص الخوارزميات المستخدمة في توصيات المنتجات للمستخدمين، فضلاً عن تكنولوجيا التزييف العميق. وتسعى الحكومة حالياً إلى تنظيم الذكاء الاصطناعي التوليدي؛ فعلى سبيل المثال يقتضي مشروع القانون الجديد أن تكون نماذج اللغة الضخمة والبيانات المستخدمة في تدريبيها دقيقة وحقيقية للموافقة عليه.

ولا شك أنّ هذا الشرط كفيل بألا تصبح أدوات الذكاء الاصطناعي التوليدي متاحة للمستهلكين في الصين، فهو عقبة لا سبيل للتخلص منها أمام روبوتات المحادثة المدعومة بتكنولوجيا الذكاء الاصطناعي.

شارك المحتوى |
close icon