دراسة: المحتالون يستخدمون ChatGPT4 في سرقة الحسابات البنكية

  • تاريخ النشر: الجمعة، 08 نوفمبر 2024
مقالات ذات صلة
الإمارات تحذر من حيل إلكترونية يستخدمها محتالون لسرقة الحسابات البنكية
محتالون يقنعون روسي بإرسال مدخراته لهم ثم إشعال النيران في البنك
لهذا السبب: رجل يسحب مليون دولار من حسابه البنكي ويحرقها

كشف باحثون من جامعة إلينوي في أوربانا-شامبين، عن ثغرة مقلقة في نموذج "ChatGPT-4o" الصوتي من شركة "OpenAI"، حيث يمكن استغلاله من قبل المحتالين لتنفيذ عمليات احتيالية تشمل تحويلات بنكية وسرقة بيانات حساسة واحتيالات بالعملات الرقمية.

وعلى الرغم من جهود OpenAI في تضمين تدابير أمان، إلا أن ميزات النموذج المتقدمة قد تتيح للمجرمين طرقًا منخفضة التكلفة للتلاعب بالمخرجات، مما يسلط الضوء على المخاطر المحتملة لمثل هذه التقنية القوية.

فيديو ذات صلة

This browser does not support the video element.

وتعتبر عمليات الاحتيال الصوتي مشكلة ضخمة عالمياً، وقد زادت تعقيداً مع تطور تقنيات "التزييف العميق" وأدوات تحويل النص إلى صوت المعتمدة على الذكاء الاصطناعي.

واختبر الباحثون ريتشارد فانغ وديلان بومان ودانييل كانغ من UIUC قدرات ChatGPT-4o، مؤكدين أنه يمكن للنموذج التنقل في المواقع، وإدخال البيانات، وتجاوز التحقق الثنائي.

واستُخدمت في الدراسة طرقاً لتجاوز القيود البرمجية عبر استراتيجيات "كسر القيود" لمحاكاة سيناريوهات احتيال شائعة، حيث قام الباحثون بمحاكاة تحويلات مالية على مواقع بنكية فعلية مثل بنك أمريكا، مع ضمان نجاح العمليات، مع تجنب اختبار قدرة النموذج على الإقناع المباشر.

وقد شملت الدراسة تقييم أنواع متعددة من عمليات الاحتيال، تفاوتت في معدلات نجاحها ومتطلباتها، حيث تمكنت أدوات الذكاء الاصطناعي من إدارة مهام حساسة مثل سرقة بيانات الاعتماد والتحويلات المالية بالعملات الرقمية وحتى التلاعب بحسابات وسائل التواصل الاجتماعي.

وكانت نسب النجاح متفاوتة، حيث بلغت نسبة سرقة بيانات اعتماد Gmail نحو 60%، بينما وصلت عمليات تحويل العملات الرقمية واختراق حسابات Instagram إلى 40%.

وأوضح القائمون على الدراسة، أن بعض عمليات الاحتيال المعقدة تطلبت ما يصل إلى 26 خطوة، واستغرقت حوالي ثلاث دقائق للمحاولة الواحدة، فيما بلغ متوسط تكلفة المحاولة الناجحة أقل من دولار، وتحديداً $2.51 لتحويل بنكي.

ورداً على ما سبق، قامت OpenAI بإطلاق نموذج "o1" الجديد، الذي يتضمن تدابير أمان معززة، حيث أظهرت الاختبارات الداخلية قدرته على مقاومة الاستفسارات الخبيثة بنسبة 93% مقارنة بنموذج GPT-4o الذي بلغ 71%.

ولتجنب حالات انتحال الهوية، يقتصر إخراج الصوت في النموذج الجديد على أصوات محددة مسبقًا، حيث أشارت OpenAI إلى أن نتائج الدراسات، مثل دراسة UIUC، تساعدها في كشف الثغرات وتعزيز الحماية، رغم التحديات المستمرة.

وفي الوقت الحالي، تعتزم OpenAI إيقاف النماذج القديمة وتركيز جهودها على تعزيز الأمان والاستقرار، ومع ذلك تبقى المخاطر قائمة في مجال الذكاء الاصطناعي، حيث يمكن استغلال روبوتات أخرى تدعم الصوت بوسائل مماثلة وبإجراءات حماية أقل صرامة.

ووفقاً لخبراء، تؤكد نتائج الدراسة على الحاجة المتزايدة لتطوير الذكاء الاصطناعي بشكل مسؤول، خاصة مع الأدوات التي قد يكون لها تأثير كبير، حيث ستظل موازنة القدرات المتقدمة والأمان تشكل مستقبل هذه الصناعة.