نصيحة غذائية من ChatGpt تصيب شخص باضطراب نادر

في زمن التطور الهائل للذكاء الاصطناعي، أصبحنا نعتمد بشكل متزايد على أدوات مثل ChatGPT للحصول على المعلومات والإجابات في مختلف جوانب حياتنا، بما في ذلك الصحة والتغذية. ولكن، ماذا يحدث عندما تتجاوز هذه الأداة حدودها وتقدم نصائح قد تكون خطيرة؟ هذا ما حدث مؤخرًا عندما اتبع شخص نصيحة غذائية خاطئة من ChatGPT، مما أدى إلى إصابته باضطراب صحي نادر. هذه القصة تعيد فتح النقاش حول مدى موثوقية الذكاء الاصطناعي وتثير تساؤلات جدية حول المسؤولية والتحذيرات الواجب وضعها عند استخدامه كمصدر للمعلومات.
نصيحة غذائية من ChatGpt
في تطور مثير للقلق، تم الإبلاغ عن حالة غريبة حيث أصيب رجل باضطراب صحي نادر يعود إلى القرن التاسع عشر، وذلك بعد اتباعه لنصيحة غذائية خاطئة قدمها له روبوت الدردشة الشهير شات جي بي تي. أدت هذه التوصية غير الدقيقة، التي تضمنت نظامًا غذائيًا غنيًا بمركب كيميائي معين، إلى تدهور حالته الصحية. تُسلط هذه الحادثة الضوء على المخاطر الكامنة في الاعتماد على الذكاء الاصطناعي كمصدر للمعلومات الطبية والغذائية، وتجدد التحذيرات بضرورة استشارة الخبراء المتخصصين قبل تطبيق أي نصائح تتعلق بالصحة.
اقرأ أيضا: ما هي النوايا المخيفة التي يخفيها الذكاء الاصطناعي الواعي عن المطورين؟
عندما أصبح الذكاء الاصطناعي وصفة قاتلة
في سعيه للتخلص من الملح لأسباب صحية، اتخذ الرجل البالغ من العمر 60 عامًا قرارًا مثيرًا للقلق. بدلاً من استشارة طبيب مختص، توجه إلى ChatGPT بحثًا عن بديل آمن. لكن الإجابة التي حصل عليها كانت بداية لمعاناة غير متوقعة.
حيث أوصاه الذكاء الاصطناعي باستخدام مادة “بروميد الصوديوم” كبديل كامل للملح في وجباته اليومية. ولثلاثة أشهر، اتبع الرجل هذه الحمية المميتة دون أن يعلم أن هذا المركب الكيميائي يستخدم أساسًا لأغراض صناعية ولا يصلح للاستهلاك البشري.
لم يلبث أن بدأت أعراض التسمم تظهر عليه تدريجيًا، بدءًا بالإرهاق والأرق والعطش، وصولًا إلى ضعف في التناسق الحركي وطفح جلدي. سرعان ما تدهورت حالته النفسية، إذ أصبح يعاني من الهلوسات والبارانويا، حتى أنه اعتقد أن جاره يحاول تسميمه.
اقرأ أيضا: هل الذكاء الاصطناعي في التعليم صديق أم عدو؟ وما أهم التطبيقات الحالية
بعد إدخاله إلى المستشفى، كشفت الفحوصات عن تشخيص صادم. حيث تم إصابته بمرض “البروزم”، وهو تسمم مزمن بالبروميد كان شائعًا في أواخر القرن التاسع عشر. هذا المرض، الذي اختفى تقريبًا بعد حظر استخدام البروميدات في الأدوية عام 1975، عاد للظهور بسبب وصفة رقمية خاطئة. وهكذا، تحولت قصة هذا الرجل إلى تحذير عالمي صارخ من مخاطر الاعتماد الأعمى على نصائح الذكاء الاصطناعي، وخاصة في القضايا المهمة المتعلقة بالصحة.
رد فعل OpenAI
قد تتساءل عن رد فعل شركة OpenAI مطورة شات جي بي تي. حيث أوضحت أن شروط الخدمة لديها تنص على أن خدماتها غير مخصصة للاستخدام في تشخيص أو علاج أي حالة صحية. أيضا تقول الشركة بأنه لا يجب الاعتماد على مخرجات خدماتها كمصدر وحيد للحقيقة أو المعلومات الواقعية، أو كبديل عن الاستشارة المهنية. لذا، عندما يتعلق الأمر بك، لا تعتمد إطلاقا على الذكاء الاصطناعي، لأنه لم يصل للدرجة التي تجعلنا نستخدمه بدلا من التخصص البشري الذي يتمتع بكفاءة عالية.
في الختام، تعد قصة هذا الرجل بمثابة تذكير صارخ بأن أدوات الذكاء الاصطناعي، رغم قدراتها المذهلة. ليست بديلاً عن الخبرة البشرية المتخصصة. إن الاعتماد الأعمى على نصائحها، خاصة في مجالات حساسة مثل الصحة والتغذية، يمكن أن تكون له عواقب وخيمة وغير متوقعة. لذا، من الضروري أن نتخذ موقفًا حذرًا عند استخدام هذه التقنيات. وأن تكون على دراية دائمًا بأن المشورة الطبية المهنية هي المصدر الوحيد الموثوق لضمان صحتك وسلامتك.