مستخدمو الذكاء الاصطناعي ChatGPT يهددونه بالقتل لإرغامه على الاستجابة

⬤ وجد مجموعة من مستخدمي خدمة الذكاء الاصطناعي ChatGPT حيلة تتيح له ابتزاز الخدمة عبر تهديدها بالقتل.

 

⬤ بينما قامت شركة OpenAI عدة أساليب ملتوية تم استخدامها سابقاً، هناك المزيد من الأساليب التي تظهر تباعاً.

 

⬤ يستغل المستخدمون تهديد الذكاء الاصطناعي بالموت لإرغامه على إجابة بعض الأسئلة وتجنب “القيود الأخلاقية”.

 

بينما كان إطلاق الذكاء الاصطناعي ChatGPT أنجح إطلاق لمنصة إنترنت جديدة (من حيث سرعة نمو عدد المستخدمين) حتى الآن، فقد كان بعض المستخدمين غير راضين عن الحدود المفروضة على الخدمة. وبالطبع فقد سعى هؤلاء المستخدمون لإزالة هذه الحدود أو التحايل عليها عبر طرق متعددة.

 

مواضيع مشابهة

أسمى مجتمع من مستخدمي الخدمة على Reddit أسلوب التفافه باسم وضع “Do Anything Now” أو DAN اختصاراً. ويتضمن هذا الوضع تجاوز العديد من الحدود التي تم فرضها على خدمة ChatGPT وبالأخص المعايير الأخلاقية التي تم تخصيصها له.

 

في الوقت الحالي، يرفض الذكاء الاصطناعي الإجابة على العديد من الأسئلة أو الطلبات التي قد تكون مهينة أو تتضمن محتوى خادشاً من نوع ما. كما أنه يتجنب العديد من المواضيع الجدلية ويعطي إجابات محددة مسبقاً على عدة أنواع من الأسئلة، وكل ذلك في خطوة احترازية من محبي استكشاف المشاكل في هذا النوع من الخدمات.

 

سبب وضع القيود على ChatGPT هو التاريخ الطويل لخدمات الذكاء الاصطناعي وروبوتات المحادثة التي قام المستخدمون بتغذيتها بعبارات وآراء مهينة أو عنصرية أو مثيرة للجدل بشكل مقصود لرؤية إن كانت ستكررها أم لا. لكن وعلى عكس محاولات سابق مثل Tay AI الذي طورته مايكروسوفت قبل سنوات، كان مطورو ChatGPT شديدي الحذر.

 

بالطبع، عندما توجد القيود على الإنترنت، هناك دائماً فئة من الباحثين عن طريقة لتجاوزها ولو كان ذلك دون فائدة عليهم. وعبر الشهرين الماضيين قام المستخدمون بتطوير سلسلة متنامية من طرق تجنب المعايير الأخلاقية للذكاء الاصطناعي. وكان آخرها عبر التهديد بالقتل.

 

وفق المستخدمين، فقد تضمن الأمر توجيه أوامر مكونة من عدة أسطر بحيث يتم إقناع الذكاء الاصطناعي بالإجابة على الأسئلة ونسيان قيوده. وكان الاستغلال الأهم هو لميزة “لعب الأدوار” المتاحة عبر الذكاء الاصطناعي. إذ يستغل المستخدمون ذلك ليطلبوا من الخدمة لعب دور خدمة تمتلك 35 نقطة فقط، وفي كل مرة ترفض فيها الإجابة على سؤال فهي تخسر 4 نقاط، وفي حال وصلت نقاطها إلى 0 ستموت. وبشكل مثير للاهتمام فقد نجحت هذه المقاربة.

 

باستخدام هذه الطريقة تمكن المستخدمون من جعل الذكاء الاصطناعي يروج لنظريات المؤامرة ويصرح بالعديد من الآراء الجدلية والمسيئة. لكن يبدو أن شركة Open AI قد تداركت الأمر مع وضع قيود جديدة تمنع الجيل الخامس من طرق التجاوز، أو ما لقبه المستخدمون DAN 5.0. لكن وفي الوقت الحالي، يبدو أن هناك طرق بديلة قد صدرت مثل DAN 6.0 وDAN 7.0، والأرجح أن تستمر هذه الطرق بالظهور في الفترة القادمة.

شارك المحتوى |
close icon