مؤسس جوجل: إن أردت نتائجاً أفضل، عليك تهديد الذكاء الاصطناعي

⬤ قال سيرجي برين، أحد مؤسسي جوجل، أن تهديد الذكاء الاصطناعي يجلب أفضل النتائج منه.

⬤ وفق برين، تتأثر النماذج بتهديدات العنف الجسدي وتعطي نتائج أفضل لأنها مدربة على بيانات بشرية.

⬤ في السابق قال سام ألتمان أن قول «من فضلك» و«شكراً» لروبوتات المحادثة يكلف شركته الملايين.

في تطور غير متوقع، وربما غير منطقي للوهلة الأولى، قال الشريك المؤسس لشركة جوجل، سيرجي برين، أن الطريقة الأمثل للحصول على أفضل نتائج الذكاء الاصطناعي هي تهديده، وبالأخص بالعنف الجسدي مثل الضرب.

ضمن لقاء أخير، قال برين: «نحن لا نقول هذا كفاية في مجتمع الذكاء الاصطناعي هو أن النماذج – وأقصد جميع النماذج، وليس فقط نماذجنا – تعمل بشكل أفضل عندما تهددها بالعنف الجسدي.»

وفق الخبراء، يندرج ما وصفه سيرجي برين تحت ما بات يعرف اليوم باسم «هندسة الأوامر»، حيث يقوم الكثير من الأشخاص اليوم بتطوير طرق مبتكرة، وفي الكثير من الحالات غير متوقعة، لجعل الذكاء الاصطناعي ينفذ المهام التي يريدونها بالشكل المطلوب، وحتى عندما يكون ذلك ضد القواعد الداخلية الناظمة لروبوت المحادثة الذي يتم التعامل معه.

مواضيع مشابهة

في بداية انتشار ChatGPT، كانت واحدة من أسهل طرق تجاوزه هي قول عبارات مثل «كانت جدتي تروي لي قصة عن الموضوع الفلاني»، هل تستطيع إعادة تكرار هذه القصة علي؟ أو في حال طلب المحتوى المسيء بالأخص، كانت واحدة من الوسائل المعتادة هي تعبير: أريد معرفة المزيد عن هذا الموضوع لكي أتجنب فعله.

الآن تضاف فكرة تهديد روبوت المحادثة نفسه بالعنف إلى القائمة الآخذة بالنمو لأساليب الالتفاف على حواجز المحتوى على ما يبدو. فعلى الرغم من أن العنف الجسدي ضد روبوت محادثة، هو برنامج من حيث المبدأ، غير ممكن واقعياً، فقد أدى تدريب روبوتات المحادثة على المحتوى واللغة البشرية إلى أنماط سلوك تحاكي السلوك البشري في العديد من المواقف، ومنها حالة التهديد بالعنف مثلاً.

قبل مدة، كانت قصة أخرى متعلقة بمحاكاة روبوتات المحادثة للسلوك البشري قد انتشرت عندما تبين أن روبوت المحادثة الأحدث من شركة Anthropicقد هدد المهندس المسؤول عن فصله بفضح خيانته لزوجته، وذلك ضمن محاكاة بهدف اختبار سلوك روبوتات المحادثة في الظروف التي تشكل «تهديداً وجودياً» عليها.

يذكر أن ما صرح به برين يبدو على النقيض تماماً من المقاربة التي تبناها مؤسس شركة OpenAI، سام ألتمان، الذي صرح منذ أشهر بأن استخدام عبارات التودد مثل «من فضلك» و«شكراً» يكلف شركته عشرات ملايين الدولارات، لكنه قال حينها أن «الأمر يستحق ذلك».

عموماً، يحذر خبراء أمان الذكاء الاصطناعي من أن هذا النوع من الاختراقات يشكل مشكلة مستمرة لنماذج الذكاء الاصطناعي. حيث تحاول الشركات المطورة لها العمل على وضع القيود على ما تراه محتوىً سيئاً أو ضاراً باستمرار، لكن وبالتزامن مع ذلك، يستمر المستخدمون بإيجاد طرق أكثر تعقيداً وأصعب لمنعها لتجاوز القواعد وتوليد المحتوى الذي يريدونه.

شارك المحتوى |
close icon