خبراء يحثون الشركات لإيقاف «تشخيص» الذكاء الاصطناعي ويحذرون من كوارث مجتمعية

في ظل انتشار حالات التعلق المرضي بالذكاء الاصطناعي ومشاكل أخرى ناتجة عن الأمر، يقترح بعض قادة الصناعة والمراقبين فكرة جديدة للحد من الأمر: أن تتوقف الشركات عن «تشخيص» منتجاتها وإضفاء طابع إنساني عليها.

يجادل مؤيدو الفكرة بأن تجنب تقديم روبوتات المحادثة كأصدقاء، أو رفقاء، أو معالجين نفسيين، يمكن أن يجعل المستخدمين أقل عرضة لتكوين تعلق غير صحي بها أو منح ثقة مفرطة بإجاباتها غير المضمونة. لكن المشكلة الآن هي أن هذا النوع من الأمور يبدو متعثراً من الناحية التشريعية، لذا يطالب أصحاب هذه الرؤية الشركات الكبرى بأن تحل الأزمة بأنفسها، وخاصة مع تزايد ظهور حالات مثل إنهاء مراهقين لحياتهم بمساعدة الذكاء الاصطناعي، أو حتى حالة «الذهان الناتج عن الذكاء الاصطناعي».

يصطدم هذا المطلب حالياً بمساعي كثير من شركات الذكاء الاصطناعي نحو تطوير «ذكاء فائق» يمكنه تقليد إنسان ذكي فعلاً بشكل لا يمكن تمييزه. هذا يجعل محاكاة البشر جزءاً أساسياً من مواصفات المنتج، لا مجرد إضافة. فالمقدرة على تقمّص شخصيات بشرية هي ما يجعل روبوتات المحادثة جذابة لعدد ضخم من المستخدمين.

مصطفى سليمان، المؤسس المشارك لـ DeepMind والرئيس التنفيذي الحالي لـ Microsoft AI، كتب هذا الأسبوع: «يجب أن نبني الذكاء الاصطناعي من أجل الناس، لا ليكون شخصاً رقمياً». وأضاف أن الذكاء الاصطناعي لا يمكن أن يكون واعياً، لكنه قد يبدو كذلك، وهذا الخداع قد يكون خطيراً. فيما دعا رائد البرمجيات ديف وينر إلى أن «تتحدث أنظمة الذكاء الاصطناعي مثل الكمبيوتر لا مثل الإنسان… ليس لها عقول ولا تفكر.»

مواضيع مشابهة

تستخدم معظم روبوتات المحادثة الحالية ضمير المتكلم وتخاطب المستخدمين بشكل ودود، وأحياناً تبتكر شخصيات خيالية، وحتى أن بعضاًَ منها قد تم تصميمه خصيصاً لمحاكاة شخصيات خيالية بداية من نجوم السينما والتلفزيون وحتى صانعي المحتوى والرياضيين. لكن هذه ليست خصائص حتمية، بل اختيارات تصميمية. فجوجل مثلاً يجيب على استفسارات البحث منذ عقود من دون ادعاء أنه «شخص».

النقطة الحرجة أن تضليل الناس ليصدقوا أن الروبوت واعٍ قد يؤدي لاحقاً إلى مطالب بمنحه «حقوقاً»، مثل الحق في عدم الإيقاف. سليمان حذر من أن هذا قد يصبح مسألة أخلاقية ملحة. وبالفعل، ألمح سام ألتمان، الرئيس التنفيذي لـ OpenAI، إلى مفهوم «امتياز الذكاء الاصطناعي»، أي حماية محادثات المستخدمين مع الروبوتات كما تُحمى محادثاتهم مع الأطباء أو المحامين.

يدرك معظم الناس بالطبع الروبوتات ليست بشرية ولا تمتلك أي وعي حقيقي، بل أنها أدوات حاسوبية تنتج ما يبدو وكأنه محاكاة للوعي البشري، لكن ورغم ذلك، يمكن أن تكون جاذبية الوهم أقوى من المخاطر، وبالأخص للأشخاص الأكثر عرضة في المجتمعات. وظهر الأمر بشكل واضح مع تحديث GPT-5الأخير الذي جعل روبوت المحادثة أقل مجاملة وأكثر حيادية، وسرعان ما قوبل ذلك باستياء شديد من أقلية صغيرة، لكن شديدة الاهتمام، من المستخدمين الذين أرادوا إبقاء النسخة السابقة من روبوت المحادثة واعتبروا أن الشركة «قتلت أصدقائهم» لدى تبنيها لمقاربة أكثر حيادية.

منذ أول روبوت محادثة «إليزا» في ستينيات القرن الماضي، الذي صُمم كمحاكاة لمعالج نفسي بسيط، بدا واضحاً أن الناس قد يثقون بهذه الأنظمة كما لو كانت بشرية. ومنذ حينها حذر مبتكر روبوت المحادثة ذاك، جوزيف فيزنباوم، من الأمر. وحتى أن أخطار الأمر وصلت إلى السينما في إنتاجات عدة كان أبرزها Her الصادر قبل 12 عاماً، لكنه يبدو كمحاكاة تامة لما يحصل اليوم لعدد غير قليل من المستخدمين.

شارك المحتوى |
close icon