تثير شركة “OpenAI”، مطورة نموذج “ChatGPT”، مخاوف من تعلّق المستخدمين ببرنامج الذكاء الاصطناعي بسبب واقعية صوته.
وتشير “OpenAI” في تقرير إلى أن مُحادثة الذكاء الاصطناعي، كما يُحادث الشخص العادي، قد تُؤدي إلى ثقة زائدة في البرمجيات الآلية، وأن جودة الصوت في نسخة “جي بي تي – 4 أو” (GPT-4o) من “ChatGPT” قد تُفاقم هذا التأثير .
وتُحذر الشركة من أن ” anthropomorphization ” (إسناد خصائص بشرية إلى كيانات غير بشرية ) قد يُصبح خطراً أكبر بسبب قدرات الصوت في “GPT-4o” التي تُسهّل مزيد من التفاعلات الشبيهة بالبشر مع البرنامج .
تعلّق عاطفي بالبرنامج
ولاحظت “OpenAI” أن المستخدمين يتحدثون إلى الذكاء الاصطناعي بطرق تشير إلى روابط مشتركة، مثل التذمر بصوت عالٍ أمام البرنامج الآلي.
كما توضح أن هذا التفاعل الاجتماعي مع الذكاء الاصطناعي قد يجعل المستخدمين أقل مهارة أو ميل للتواصل مع البشر.
مخاوف من الاعتماد المفرط
وأكد ألون يامين ، المؤسس المشارك والرئيس التنفيذي لمنصة “Copyleaks” ، التي تُعنى بكشف عمليات السرقة الأدبية ، إن ” مخاوف OpenAI” تُشير إلى ما بدأ الكثيرون في طرحه : هل حان الوقت للتوقف والتفكير في كيفية تأثير هذه التكنولوجيا على التفاعل البشري والعلاقات ؟”
خطوات مستقبلية
ستختبر “OpenAI” بشكل أكبر كيف يمكن لقدرات الصوت في الذكاء الاصطناعي أن تُؤدي إلى ارتباط عاطفي بين الناس و البرنامج الآلي.
وأُجبرت “OpenAI” على الاعتذار للممثلة سكارليت جوهانسون في يونيو لاستخدام البرنامج صوتًا يشبه صوتها في أحدث روبوت دردشة، ما سلط الضوء على التجاوزات المحتملة لتقنية استنساخ الصوت.