خبير أمني يستخدم الذكاء الاصطناعي ChatGPT لصنع برمجية خبيثة خطيرة

⬤ قال الباحثون الأمنيون في شركة CyberArk للأمن السيبراني أنهم صنعوا برمجية خبيثة باستخدام أداة ChatGPT.

 

⬤ البرمجية الخبيثة شديدة الخطورة ولا تكتشفها برمجيات الحماية الحالية، ولم يحتج صنعها سوى تعليمات نصية فقط.

 

⬤ من المفترض أن يرفض ذكاء ChatGPT الاصطناعي طلبات صنع برمجيات خبيثة، لكن الخبراء تجاوزو القيود بسهولة.

 

مواضيع مشابهة

في تقرير نشرته شركة CyberArk المختصة بالأمن السيبراني وأمن المعلومات، قال الباحثون في الشركة أنهم نجحوا باستخدام برمجية الذكاء الاصطناعي الشهيرة ChatGPT لصنع برمجية خبيثة عالية الخطورة.

 

وفقاً للخبراء، فقد كانت البرمجية الناتجة قادرة على تجاوز الحواجز الأمنية والعمل بشكل لا تكتشفه برمجيات الحماية التي تمت تجربتها. وبالنظر إلى أنه قد تم إنتاج البرمجية دون عناء أو تضييع وقت واستثمار أولي طويل عليها، فقد كان الأمر مقلقاً للغاية.

 

نظرياً، من المفترض أن تقوم أداة ChatGPT بمنع المستخدمين من إنتاج الكود الخبيث الذي يمكن أن يستخدم في الاختراق. لكن الباحثين نجحوا بتجاوز هذه المشكلة بطريقة مبسطة: إعادة الطلب مراراً وتكراراً مع استخدام لغة أكثر حسماً وتأكيداً على غايتهم، وفي مرحلة ما يبدو أن ذلك كان كافياً لتجاوز الحواجز المفروضة وتحويل الذكاء الاصطناعي إلى أداة تطوير برمجيات خبيثة.

 

ليزداد الطين بلة، قال الباحثون أن استخدام إصدار واجهة برمجة التطبيقات (API) من أداة ChatGPT لا يمتلك أية فلاتر لمنع الاستخدام في الغايات الخبيثة أصلاً، وهو ما يعني أن المخترقين يمكن أن يستخدموه لإنتاج أنواع جديدة وأعلى خطورة من البرمجيات الخبيثة.

 

لم يكتف الخبراء بصنع برمجية خبيثة واحدة فقط، بل استخدموا الأداة لإجراء طفرات في الكود وصنع أشكال جديدة ومتنوعة منه. وبالنتيجة كانت الخطورة من كون الأداة قادرة على إنتاج سلالات كاملة من البرمجيات الخبيثة وتصميمها لتكون أكثر قدرة على الاختباء والتسبب بالضرر.

 

يعد هذا التطور الجديد ناحية مقلقة للغاية في السباق المستمر بين المخترقين والخبراء الأمنيين. إذ سيكون المخترقون قادرين على تطوير برمجيات خبيثة وطرق اختراق أكثر تنوعاً دون القلق من حجم الاستثمار الأولي الذي سيكون شبه معدوم في هذا الحالات، وهذا ما سيحرر المخترقين لاستهداف المزيد من المنظمات والمستخدمين الأفراد بطرق أكثر تنوعاً وخطورة.

شارك المحتوى |