أداة الصور الجديدة من ChatGPT تفتح أبواباً جديدة من الاحتيال: تزييف فواتير وعقود وصور حوادث واقعية

حسن عدره

⬤ أثارت أداة ChatGPT الجديدة لتوليد الصور مخاوف واسعة بعد إثبات قدرتها على إنشاء وثائق مزيفة واقعية.

⬤ أظهرت تجارب متعددة إمكانية استخدام الأداة في الاحتيال المالي وهندسة الوثائق الرسمية لأغراض مشبوهة.

⬤ رغم تعهد OpenAI بمراقبة وتدقيق الاستخدام، يظل خطر الاستغلال السيئ مثار جدل أخلاقي وتقني.

بينما كانت الأوساط التقنية تحتفي بقدرات ChatGPT الجديدة في توليد الصور، انتقل الحديث سريعاً من الإعجاب بجوانبها الإبداعية إلى القلق من احتمالات إساءة استخدامها. فقد أبهرت الأداة المستخدمين بإمكانية تحويل اللحظات العادية إلى لوحات فنية بأسلوب Studio Ghibli أو The Simpsons. لكن سرعان ما بدأ بعض المستخدمين باستكشاف جانب أكثر إثارة للجدل، متمثل في إنشاء وثائق مزيفة بدرجة واقعية تثير المخاوف من موجة جديدة من الاحتيال الرقمي.

ما كان يتطلب سابقاً مهارات احترافية في Photoshop وساعات من العمل، بات اليوم ممكناً في دقائق بفضل تعليمات نصية بسيطة، بحسب ما أظهره مستخدمون على مختلف منصات التواصل الاجتماعي.

جاء أحد أبرز الأمثلة على ذلك من المستثمر ديـدي داس، الذي عرض على منصة X إيصالاً وهمياً يبدو حقيقياً من مطعم فاخر في سان فرانسيسكو، زُعم أنه مصمم باستخدام الأداة الجديدة. وسرعان ما تبعه آخرون بمحاولات مشابهة، أضافوا خلالها تفاصيل مثل بقع الطعام أو طيات الورقة لإضفاء مزيد من الواقعية، كما حدث مع إيصال وهمي من سلسلة مطاعم فرنسية نُشر على LinkedIn.

لا يقتصر القلق على فواتير المطاعم. فقد كشفت تجارب أجرتها مؤسسات إعلامية مثل Axios وTechCrunch أن الأداة قادرة ـ وإن بشكل غير مثالي ـ على إنتاج نماذج مزيفة من عروض التوظيف، تتضمن أسماء وشروطاً ورواتب من شركات كبرى مثل Apple. كما استطاعت الأداة إنشاء إعلانات مزيفة على مواقع التواصل الاجتماعي تروج لاستثمارات بالعملات الرقمية، وهو ما أثار تحذيرات المتخصصين في الأمن السيبراني.

خداع ChatGPT عبر الصور

تكمن الخطورة في احتمالية استخدام هذه الوثائق المزيفة لتقديم تقارير نفقات وهمية، أو خداع الضحايا للاستثمار في مشروعات زائفة، أو حتى لسرقة الهوية والوصول إلى أنظمة حساسة باستخدام مستندات توظيف باطلة.

في منشور جريء على Instagram، سلط حساب chatgptricks الضوء على هذا التحول المقلق، مشيراً إلى إمكانية توظيف تلك القدرات في أشياء مثل «الاحتيال على شركات التأمين،» عبر إنشاء صور مزيفة لأضرار في السيارات، مثل الخدوش والانبعاجات، في محاولة لتقديم مطالبات كاذبة.

رغم ذلك، لا تزال تلك التقنية تعاني من بعض العيوب. إذ تظهر بعض الأخطاء الواضحة في بعض الإيصالات المزيفة، والحديث هنا عن عمليات حسابية غير دقيقة، وهي مشكلة معروفة في النماذج اللغوية، أو تنسيقات غير مألوفة كاستخدام الفواصل بدل النقاط في إجمالي الفاتورة. كما أظهرت الاختبارات أيضاً أن نظام الحماية الداخلي في OpenAI قد يعرقل بعض المحاولات؛ إذ تم رفض طلب إنشاء رخصة قيادة مزيفة لولاية نيوجيرسي، واكتفى ChatGPT باقتراح تصميم عام أقل إقناعاً.

عمليات حسابية غير دقيقة في مخرجات صور ChatGPT

من جانبها، علقت شركة OpenAI على هذه المخاوف مؤكدة أن هدفها هو «منح المستخدمين حرية إبداعية واسعة»، لكنها في الوقت ذاته تراقب استخدامات الأداة، وتضيف بيانات تعريف تشير إلى أن الصور منتجة بواسطة الذكاء الاصطناعي، وتتخذ إجراءات ضد الاستخدامات المخالفة لسياستها، والتي تحظر بشكل صريح أي أعمال احتيالية. كما أشارت الشركة إلى استخدامات بديلة مشروعة للوثائق الوهمية، مثل استخدامها في تعليم مبادئ التثقيف في المجال المالي.

رغم كثرة الأمثلة التي يجري تداولها على الإنترنت، أكدت الجهات المتخصصة في الأمن السيبراني أنها لم ترَ بعد أدلة واضحة على أن المحتالين بدؤوا باستخدام القدرات الجديدة في تنفيذ عمليات احتيال فعلية.

تطرح هذه التطورات تساؤلات أخلاقية عميقة، في ظل في مشهد تقني جديد ينذر بالخير والشر معاً، ومع تصاعد موجة الإبداع، قد نكون أمام فترة ارتفاع كبير في حالات الاحتيال أيضاً. وقد تضطر مؤسسات مثل شركات التأمين إلى تشديد معاييرها، وهو تصرف قد ينعكس سلباً على العملاء الملتزمين.

الملخص - أخبار منتقاة من المنطقة كل أسبوع
تبقيك نشرة مينا تك البريدية الأسبوعية على اطلاع بأهم مستجدات التقنية والأعمال في المنطقة والعالم.
عبر تسجيلك، أنت تؤكد أن عمرك يزيد عن 18 عاماً وتوافق على تلقي النشرات البريدية والمحتوى الترويجي، كما توافق على شروط الاستخدام وسياسة الخصوصية الخاصة بنا. يمكنك إلغاء اشتراكك في أي وقت.
اقرأ أيضاً
مينا تك – أكبر منصة إعلامية باللغة العربية متخصصة في التكنولوجيا والأعمال
مينا تك – أكبر منصة إعلامية باللغة العربية متخصصة في التكنولوجيا والأعمال
حقوق النشر © 2025 مينا تك. جميع الحقوق محفوظة.