شركات الذكاء الاصطناعي تتفق على وضع “علامة مائية” لتمييز المحتوى المولد بخدماتها

⬤ قطعت كبرى شركات الذكاء الاصطناعي منها OpenAI وألفابت تعهدات لرفع مستوى أمان الذكاء الاصطناعي.

⬤ ستلتزم الشركات بتمييز المحتوى المولد بالذكاء الاصطناعي عن طريق تضمين “علامة مائية مميزة” وفق تعبيرها.

⬤ تعهدت الشركات بالتركيز على حماية خصوصية المستخدمين وعلى ضمان أن التقنية خالية من التحيز والتمييز.

قطعت كبرى شركات الذكاء الاصطناعي هي شركة OpenAI، وألفابت، وميتا، وأمازون، وشركة Inflection مطورة روبوت محادثة Pi، وشركة Anthropic تعهدات طوعية للبيت الأبيض لتنفيذ تدابير لتمييز المحتوى المولد بالذكاء الاصطناعي بوضع علامات مائية عليه لجعل محتوى الذكاء الاصطناعي أكثر أماناً.

حيث ستلتزم الشركات بتضمين علامة مائية مميزة في كل المحتوى المولد بالذكاء الاصطناعي سواء كان نصاً أو صورة أو مقطع فيديو أو حتى ملفاً صوتياً. مما يسمح للمستخدمين تمييز المحتوى المزيف أو الزيف العميق على الفور. لكن لم تتضح بعد الطريقة التي ستظهر بها العلامات المائية عند تبادل المعلومات.

مواضيع مشابهة

وتعهدت هذه الشركات باختبار أنظمتها بدقة قبل إطلاقها وبمشاركة المعلومات ترشد المستخدمين لتقليل مخاطر الذكاء الاصطناعي وتبني حلول الأمن السيبراني. كما تعهدت الشركات بالتركيز على حماية خصوصية المستخدمين في ظل تطور الذكاء الاصطناعي وعلى ضمان أن التقنية خالية من التحيز وأنه لا يتم استخدامها في التمييز ضد المجموعات الأكثر ضعفاً.

وتتضمن تعهدات الشركات الأخرى تطوير حلول ذكاء اصطناعي للمشكلات العلمية مثل الأبحاث في مجال الطب وتخفيف تغير المناخ. إذ تعد هذه التعهدات خطوة كبيرة نحو تنظيم الذكاء الاصطناعي بشكل أكبر، وهو هدف تسعى إليه الجهات التنظيمية حول العالم منذ أن ظهرت مخاطر التقنية المحتملة على أمور مهمة مثل الأمن القومي والاقتصاد العالمي.

كما ينظر الكونجرس الأمريكي في مشروع قانون سيلزم الإعلانات السياسية بالكشف عما إذا استخدمت الذكاء الاصطناعي لإنشاء صورها أو أي جزء من محتواها. وقال الرئيس الأمريكي، جو بايدن، أيضاً إنه يعمل على إصدار أمر تنفيذي وتشريع مؤيد من الحزبين الديمقراطي والجمهوري بشأن تقنيات الذكاء الاصطناعي.

تعد الولايات المتحدة متأخرة في تنظيم الذكاء الاصطناعي بالمقارنة مع الاتحاد الأوروبي. ففي يونيو الماضي، وافق المشرعون في الاتحاد الأوروبي على مشاريع قوانين ستلزم أنظمة مثل ChatGPT بالكشف عن المحتوى المولد بالذكاء الاصطناعي، والمساعدة في تمييز الصور المزيفة عن الصور الحقيقية، وتنفيذ إجراءات وقائية ضد المحتوى غير القانوني.

على المستوى العالمي، هناك الكثير من الجدل حول الطرق الأفضل للتعامل مع تقنيات الذكاء الاصطناعي التوليدي الجديدة. إذ تتخذ بعض الحكومات مواقف حذرة مع قيود عالية على هذه الخدمات بما يخص قدراتها واستخداماتها والمضار الناتجة عنها، فيما تسعى حكومات أخرى لتخفيف القيود التشريعية حول المجال لجذب الشركات والمستثمرين والتحول إلى مراكز تطوير للتقنية الجديدة.

شارك المحتوى |
close icon