وارن بافت: صعود الذكاء الاصطناعي حدث لا يمكن عكسه، تماماً كما بناء القنبلة النووية

⬤ قال المستثمر الملياردير وارن بافت إنه يشعر بالقلق تجاه قدرات الذكاء الاصطناعي المتنامية، مشبهاً تطوير الذكاء الاصطناعي ببناء القنبلة النووية.

⬤ يدور قلق بافت حول الإمكانات الهائلة التي أتاحها الذكاء الاصطناعي والتي لا يمكن الرجوع عنها بشكل مشابه لأسطورة “صندوق باندورا”.

⬤ مع ذلك، عبّر بافت عن إعجابه بقدرات الذكاء الاصطناعي وقال إنه تلقى درساً عن ChaGPT من بيل جيتس.

ضمن مقابلة أجراها الأسبوع الماضي، أعرب المستثمر الملياردير وارن بافت عن قلقه من صعود الذكاء الاصطناعي، وقارن صعود التكنولوجيا بحدث صناعة القنبلة الذرية في أربعينيات القرن الماضي.

قال المستثمر البالغ من العمر 92 عاماً: “أقلق قليلاً عندما أرى شيئاً يستطيع القيام بكل هذه الأمور المختلفة. لأنني أعلم أننا لن نكون قادرين على الرجوع عن اختراعه. فلقد اخترعنا – ولسبب وجيه للغاية – القنبلة الذرية في الحرب العالمية الثانية. وكان اختراعها مهماً جداً. ولكن هل أتاح هذا الاختراع أموراً ستفيد العالم على مدى المائتي عام القادمين؟”

مواضيع مشابهة

عبّر بافت عن هذا الرأي حول الذكاء الاصطناعي في نقاش واسع قام به مع شريكه، تشارلي مونجر، في الاجتماع السنوي لشركة Berkshire Hathaway القابضة التي كان بافت قد أسسها قبل عقود وبنى ثروته عبرها.

كما قال بافت إنه تلقى درساً عن أداة الذكاء الاصطناعي ChatGPT من صديقه بيل جيتس، أحد مؤسسي شركة مايكروسوفت. وقال إنه معجب بالقدرات الهائلة للذكاء الاصطناعي، بما في ذلك قدرته على التحقق من جميع الآراء القانونية “منذ بدء التاريخ”. ولكنه أعرب عن مخاوفه بشأن برامج الذكاء الاصطناعي سريعة التطور.

إضافة إلى ذلك، قال بافت إنه يعتقد أن الذكاء الاصطناعي سيغير “كل شيء في العالم، باستثناء الطريقة التي يفكر ويتصرف بها الإنسان. وهو خطوة كبيرة نخطوها”. كما أعرب مونجر، نائب رئيس شركة Berkshire Hathaway، عن بعض التخوف من الذكاء الاصطناعي قائلاً: “أشكك شخصياً في بعض الحماس الكبير الذي يحيط بمجال الذكاء الاصطناعي. فأنا أعتقد أن الذكاء البشري التقليدي يعمل جيداً”.

تأتي هذه التعليقات من عمالقة الاستثمار بافت ومونجر بعد أن وقع أكثر من 1600 باحث وخبير تقني، بما فيهم إيلون ماسك، على دعوة عامة إلى وقف تطوير الذكاء الاصطناعي لمدة ستة أشهر في أواخر مارس الماضي. زاعمين أن التقنية تشكل “مخاطر كبيرة على المجتمع والبشرية”. وأنه “لا ينبغي تطوير أنظمة الذكاء الاصطناعي القوية إلا عندما نتيقن من نفعها وفائدتها، والسيطرة على الأخطار المترتبة عليها”.

شارك المحتوى |
close icon