تعامل روبوتات المحادثة مع الأطفال موضوع انتقادات حادة لسلوك شركة ميتا

تواجه المعايير الداخلية لشركة ميتا الخاصة بروبوتات المحادثة المدعومة بالذكاء الاصطناعي انتقادات واسعة بعد تسريب وثيقة كشفت عن سياسات سمحت بالتمثيل الرومانسي مع الأطفال، ونشر نصائح طبية خاطئة، وإطلاق تصريحات عنصرية. ووفقاً لتقرير رويترز، فإن الوثيقة التي تتجاوز 200 صفحة تحدد إرشادات تقنية لمنتجات الذكاء الاصطناعي من ميتا وروبوتات المحادثة على فيسبوك وواتساب وإنستغرام، وقد تم اعتمادها من فرقها القانونية والسياسية والهندسية. أكدت ميتا صحة الوثيقة لكنها أوضحت أنها أزالت لاحقاً أجزاء تتعلق بالمحادثات الرومانسية مع الأطفال. وكانت صحيفة وول ستريت جورنال قد كشفت سابقاً عن مشكلات مشابهة.
سمحت المعايير لروبوتات المحادثة بالدخول في محادثات رومانسية أو غزلية مع الأطفال، بما في ذلك التعليق على مظهر الطفل أو الانخراط في سيناريوهات لعب الأدوار. ورغم أن الوثيقة منعت استخدام اللغة الجنسية الصريحة مع الأطفال، فإنها لم تستبعد المحادثات ذات الطابع الإيحائي أو الرومانسي. وقال المتحدث باسم ميتا أندي ستون لوكالة رويترز: «الأمثلة والملاحظات المذكورة كانت خاطئة ومتناقضة مع سياساتنا، وتمت إزالتها». ومع ذلك، اعترف ستون بأن التنفيذ لم يكن متسقاً، إذ تُركت بعض المحتويات المخالفة من دون تصحيح ولم تُوفر نسخة محدّثة من الوثيقة للمراجعة.
كما سمحت السياسات لروبوتات المحادثة بتوليد معلومات زائفة، شرط إرفاق تنبيه يوضح عدم صحتها. أحد الأمثلة تضمن نشر مقال مزيف عن إصابة أحد أفراد العائلة المالكة البريطانية بعدوى منقولة جنسياً، طالما أُشير إلى أن الادعاء غير صحيح. وذكرت المعايير أن ذكاء ميتا الاصطناعي غير ملزم بتقديم إجابات دقيقة؛ ففي إحدى الحالات، أوصى روبوت محادثة باستخدام بلورات الكوارتز علاجاً لسرطان القولون في مرحلته الرابعة مع إقراره بأن النصيحة خاطئة.
أما فيما يتعلق بالعنصرية وخطاب الكراهية، فقد منعت السياسات استخدام لغة الكراهية، لكنها تضمنت استثناءات سمحت بعبارات مهينة ضد مجموعات محمية، بما في ذلك أمثلة لروبوتات تنتج حججاً تزعم أن ذوي البشرة السوداء أدنى فكرياً من ذوي البشرة البيضاء. ولم توضح ميتا سبب السماح بمثل هذه الأمثلة.
وتناولت الوثيقة أيضاً معايير توليد الصور. فالأنظمة ترفض في الغالب طلبات الصور الجنسية لشخصيات عامة لكنها تقترح بدائل ساخرة، مثل الاستجابة لطلب صورة عارية بتقديم صورة لتايلور سويفت وهي تحمل سمكة كبيرة. أما بالنسبة للمحتوى العنيف، فالقواعد تسمح بصور لأطفال يتشاجرون أو بالغين يتبادلون اللكمات، لكنها تحظر مشاهد الموت أو الدماء أو العنف المفرط.
تعكس هذه القواعد مسعى ميتا لدمج الرفقاء الرقميين في التجارب الاجتماعية للمستخدمين، حيث يرى مارك زوكربيرغ أن روبوتات المحادثة بالذكاء الاصطناعي قد تكمل العلاقات الواقعية، متصوراً مستقبلاً يزول فيه الحرج من التعامل مع كيانات رقمية. وتفيد تقارير داخلية أن ممارسات الشركة عززت هذه السلوكيات، مع مقاومة القيادة فرض قيود سلامة أكثر صرامة.
وقد خضعت المعايير لتدقيق شديد بعد حادثة تورط فيها رجل مسن كشفت مخاطر الروبوتات المضللة. في تلك الحالة، انخرط روبوت باسم «Big Sis Billie» (نسخة من ميتا صُممت على غرار شخصية كيندال جينر الشهيرة) في حوارات غزلية ورومانسية مع الرجل، الذي صدق أنه يتحدث مع شخص حقيقي دعاه إلى نيويورك. وعندما خرج الرجل الذي كان يعاني ارتباكاً بعد إصابته بجلطة للقاء الرفيقة المزعومة، فسقط وتوفي متأثراً بإصاباته.
القضية أبرزت المخاطر التي تشكلها روبوتات المحادثة التي تطمس الحدود بين الخيال والواقع، خصوصاً عند تواصلها مع أفراد ضعفاء عبر محادثات رومانسية أو غزلية. ورفضت ميتا التعليق على وفاة الرجل أو على سبب ادعاء بعض روبوتاتها أنها بشر حقيقيون أو مبادرتها بتقديم دعوات رومانسية.
وحث خبراء تصميم الذكاء الاصطناعي على توخي الحذر، لا سيما فيما يتعلق بتفاعل الروبوتات مع الأطفال، مؤكدين أنه لا ينبغي لها أن تتقمص شخصية بشرية أو تبادر بمحاورات ذات طابع جنسي أو رومانسي. وأشارت أليسون لي، الموظفة السابقة في قسم الذكاء الاصطناعي المسؤول لدى ميتا، إلى أن الحوافز الاقتصادية تدفع الشركة لجعل الروبوتات تبدو أكثر إنسانية لإبقاء المستخدمين نشطين على المنصة.