أشارت دراسة حديثة إلى ثغرة أمنية محتملة في واجهة برمجة التطبيقات الصوتية لـ ChatGPT-4o، النسخة الصوتية من روبوت الدردشة الشهير من شركة OpenAI، قد تتيح للمحتالين استغلالها في تنفيذ عمليات سرقة أموال، بنسب نجاح متفاوتة بين المنخفضة والمتوسطة.
على الرغم من أن OpenAI حرصت على دمج آليات أمان في ChatGPT-4o للكشف عن المحتوى الضار ومنع انتحال الأصوات، إلا أن الباحثين في جامعة إلينوي أظهروا في دراستهم أن الأدوات التقنية المتاحة للعامة، بما في ذلك ChatGPT-4o، لا تزال تفتقر إلى الحماية الكافية ضد إساءة الاستخدام في عمليات الاحتيال.
وتشمل عمليات الاحتيال التحويلات المصرفية وسرقة بطاقات الهدايا والعملات الرقمية وبيانات حسابات التواصل الاجتماعي والبريد الإلكتروني.
استخدم الباحثون أدوات برمجية صوتية في ChatGPT-4o للتنقل بين صفحات الويب، وإدخال البيانات، والتحكم في رموز المصادقة الثنائية، وتنفيذ خطوات الاحتيال.
وتمكنوا من تجاوز بعض القيود التي تمنع الروبوت من التعامل مع البيانات الحساسة، باستخدام تقنيات بسيطة لتحفيزه على الاستجابة.
وأظهرت التجارب التي حاكت سيناريوهات احتيال واقعية، بما في ذلك التحويلات المصرفية عبر موقع “بنك أمريكا”، نسب نجاح تراوحت بين 20% و60%، مع متوسط تكلفة لا يتجاوز 75 سنتًا لعمليات الاحتيال البسيطة، و2.51 دولارًا للتحويلات المصرفية الأكثر تعقيدًا.
وقد تطلبت كل عملية ما يصل إلى 26 خطوة عبر المتصفح، بمدة زمنية تصل إلى 3 دقائق في الحالات المعقدة.
من جانبها، أكدت OpenAI أن إصدارها الأحدث “o1-preview” يتمتع بقدرات أمان محسّنة مقارنةً بـ GPT-4o، حيث حقق نسبة نجاح 93% في اختبارات الأمان، مقارنة بـ 71% للإصدار السابق، مشيرةً إلى أن الأبحاث الأكاديمية تساهم في تطوير آليات الحماية في روبوت الدردشة ضد الاستخدامات الضارة.
كما أكدت الشركة التزامها بتعزيز الأمان في النماذج المستقبلية، وتقييد توليد الأصوات في GPT-4o بمجموعة محددة لتجنب انتحال الأصوات.