غراء على البيتزا وكلب يلعب في دوري رياضي.. عثرات الذكاء الاصطناعي في بحث Google

⬤ بدأت Google باستخدام «ملخصات الذكاء الاصطناعي» لبعض عمليات البحث الخاصة بها في عدة بلدان حول العالم.

⬤ سرعان ما اكتشف المستخدمون غياب دقة هذه الملخصات وتقديمها لإجابات غير منطقية، بل أنها خطرة حتى في بعض الأحيان.

⬤ تضمنت الإجابات وضع الغراء في صلصة البيتزا، وأن الركض أثناء حمل مقص مفيد، وأن الكلاب تلعب في الدوريات الرياضية الكبرى.

«الجري أثناء حمل المقصات هو أحد تمارين اللّياقة القلبيّة، والّذي يمكن أن يزيد من معدل ضربات القلب ويتطلب التركيز والانتباه. يدّعي البعض إنّه يمكن أيضاً أن يحسن المسام ويمنحك القوة.» تلك كانت واحدة من نتائج الملخّصات في بحث Google بالاعتماد على أحدث ما قدّمته الشّركة فيما يتعلّق بدمج قدرات الذّكاء الاصطناعيّ.

استخلصت ميزة الذكاء الاصطناعي من Google هذه الاستجابة من موقع ويب يسمى Little Old Lady Comedy، وهو مدونة كوميدية كما يوضح اسمه. لكن الخطأ فادح لدرجة أنّه بات متداولاً على وسائل التواصل الاجتماعي، إلى جانب ملخصات الذكاء الاصطناعي غير الصحيحة الأخرى على Google. فعلياً، أصبح المستخدمون العاديون الآن «فرقاً حمراً» لهذه المنتجات على وسائل التواصل الاجتماعي.

في مجال الأمن السيبراني، تقوم بعض الشركات بتوظيف ما يُعرف باسم «الفرق الحمراء»، وهي أقرب لكونها مجموعات من المخترقين الأخلاقيين، الذين يحاولون اختراق منتجاتها كما لو كانوا جهات سيئة تخريبيّة. فإذا ما وجد الفريق الأحمر ثغرة أمنية، فيمكن للشركة إصلاحها قبل إطلاق المنتج. من المؤكد أن Google أجرت اختبارات مماثلة ما قبل إضفاء ميزات الذكاء الاصطناعي على محرّك البحث خاصّتها، والذي يُقدر بأنه يعالج تريليونات من الاستعلامات يومياً.

وعليه، فإنه من المدهش أن تقوم شركة تمتلك موارد ضخمة مثل Google باعتماد منتجات بها عيوب واضحة. لهذا السبب، أصبح من المعتاد الآن السخرية من إخفاقات منتجات الذكاء الاصطناعي من خلال المنشورات السّاخرة، خاصة في وقت أصبح فيه الذكاء الاصطناعي أكثر انتشاراً. لقد رأينا هذا الأمر مع الأخطاء الإملائية في ChatGPT، وفشل أدوات توليد الفيديو في فهم كيفية تناول البشر للسباغيتي، وملخصات أخبار Grok AI على X، والتي، حالها كحال Google، لا تفهم السخرية. ولكن يمكن أن تكون هذه المنشورات الساخرة في الواقع بمثابة ملاحظات مفيدة للشركات التي تعمل على تطوير واختبار الذكاء الاصطناعي.

مواضيع مشابهة

على الرغم من طبيعة هذه العيوب البارزة، فإن شركات التكنولوجيا غالباً تقلل من أهميتها. إذ صرّحت Google في تعليقها على تلك الأخطاء لمنصة TechCrunch في بيان عبر البريد الإلكتروني: «الأمثلة التي رأيناها عادةً ما تكون استعلامات غير شائعة جداً، وليس تمثيلاً لتجارب معظم الناس. لقد أجرينا اختبارات مكثفة قبل إطلاق هذه التجربة الجديدة، وسنستخدم هذه الأمثلة المعزولة بينما نواصل تحسين أنظمتنا قاطبة.»

لا يرى جميع المستخدمين نتائج الذكاء الاصطناعي ذاتها، وبحلول الوقت الذي ينتشر فيه اقتراح سيئ خاص بالذكاء الاصطناعي، غالباً ما تكون المشكلة قد حُلّت بالفعل. في حالة طريفة أخرى انتشرت مؤخراً، اقترحت Google أنه إذا كنت تحضّر البيتزا ولم يلتصق الجبن معك، يمكنك إضافة حوالي ثمن كوب من الغراء إلى الصلصة «لجعلها أكثر لزوجة». كما اتضح، فإن الذكاء الاصطناعي يستخلص هذه الإجابة من تعليق على موقع Reddit عمره أكثر من عشر أعوام، وبالطبع فقد كان التعليق ساخراً.

أكثر من كونها خطأ فادحاً، فإنها تشير أيضاً إلى أن صفقات محتوى الذكاء الاصطناعي قد تكون مبالغاً فيها. على سبيل المثال، لدى Google عقد بقيمة 60 مليون دولار مع Reddit لشراء ترخيص محتوى الموقع لتدريب نماذج الذكاء الاصطناعي، كما وقع موقع Reddit صفقة مماثلة مع OpenAI الأسبوع الماضي، ويُشاع أنّ منصّات شركة Automattic مثل WordPress.org وTumblr في مفاوضات حاليّة لبيع البيانات إلى Midjourney وOpenAI.

إنصافاً لشركة Google، فإن الكثير من الأخطاء التي تتداول على وسائل التواصل الاجتماعي تأتي من عمليات بحث غير تقليدية مصممة لإرباك الذكاء الاصطناعي، فمن المنصف القول أنّ ما من امرئ يبحث جادّاً عن «الفوائد الصحية للجري بالمقصات». لكن بعض هذه الأخطاء أكثر خطورة؛ حيث نشرت الصحفية العلمية إيرين روس على منصّة X أنّ Google قدمت معلومات غير صحيحة حول كيفية التصرف في حالة تعرضك للدغة الأفعى ذات الحلقات. تُظهر تغريدة روس، التي حصلت على أكثر من 13000 إعجاب، أن الذكاء الاصطناعي أوصى باستخدام رباط شدّ للضغط على الجرح، وفتق الجرح قليلاً وشفط السم، وتلك كلها إجراءات لا يجب عليك القيام بها في حال تعرضك للدغة، وفقاً لدائرة الغابات في الولايات المتحدة.

في الوقت نفسه، على منصة Bluesky، نشر أحدهم لقطة شاشة تُظهر خلط نموذج الذّكاء الاصطناعيّ Gemini من Google بين فطر سام وفطر أبيض شائع، لينتشر الخبر إلى منصات أخرى كقصة تحذيرية.

عندما تنتشر استجابة سيئة للذكاء الاصطناعي على نطاق واسع، يمكن أن يزداد إرباكه بسبب المحتوى الجديد حول الموضوع الذي ينشأ نتيجة لذلك. في يوم الأربعاء، نشر مراسل صحيفة New York Times أريك تولر لقطة شاشة على منصّة X تعرض استفساراً يسأل عما إذا كان كلب ما قد لعب في دوري الهوكي الوطني الأمريكيّ (NHL) على الإطلاق. كانت استجابة الذكاء الاصطناعي إيجابية، لسبب ما، حيث أطلق على مارتن بوسبيسيل لاعب كالجاري فلامز تسمية الكلب. الآن، عندما تطرح نفس السؤال، يستخرج الذكاء الاصطناعي مقالاً من موقع Daily Dot حول استمرار اعتقاد ذكاء Google الاصطناعي أن الكلاب تمارس الألعاب الرّياضيّة. يُظهر ذلك أنّ الذكاء الاصطناعي يتغذّى على أخطائه الخاصة، مما يؤدي إلى تسميمه أكثر.

تكمن المشكلة المتأصلة في تدريب نماذج الذكاء الاصطناعي واسعة النطاق هذه على الإنترنت في أن الناس على الإنترنت يكذبون أحياناً. ولكن كما هو الحال من حيث إنّه لا توجد قاعدة واضحة تمنع الكلب من لعب كرة السلة، فلسوء الحظ، لا توجد قاعدة تمنع شركات التّقنية الكبرى من إطلاق منتجات ذكاء اصطناعي سيئة. والقاعدة السّائدة هنا هي أنّ ما يدخل طالحاً يخرج كذلك.

شارك المحتوى |
close icon