SWED 24: حذر جيفري هينتون، الحائز على جائزة نوبل في الفيزياء هذا العام، من المخاطر المستقبلية للذكاء الاصطناعي، مشيرًا إلى احتمال تطوره إلى ذكاء خارق قد يهدد البشرية خلال العقدين المقبلين، وربما في غضون خمس سنوات فقط.
وقال هينتون، الذي لعب دورًا محوريًا في تطوير النماذج اللغوية المتقدمة مثل ChatGPT: “هناك خطر كبير بأن يتطور الذكاء الاصطناعي إلى ذكاء خارق يتخذ قرارات قد تجعلنا نحن البشر غير ضروريين.”
وعبّر هينتون عن فخره بإنجازاته في مجال الذكاء الاصطناعي، لكنه أبدى قلقه الشديد بشأن التحكم في التقنية مع استمرار تطورها. ودعا إلى تخصيص موارد أكبر للأبحاث التي تركز على أمان الذكاء الاصطناعي لمنع المخاطر المستقبلية.
وأضاف: “علينا التفكير بعمق الآن في تداعيات هذه التقنية. لا يمكننا الانتظار حتى يتطور الذكاء الاصطناعي إلى مستوى خارق.”
سيناريوهات خطيرة
وأشار هينتون إلى سيناريو مرعب يمكن أن يحدث إذا أصبحت الآلات فائقة الذكاء قادرة على السيطرة على مراكز البيانات، ما يمكنها من إنشاء نسخ متعددة من نفسها، والدخول في منافسة مع نماذج أخرى قد تؤدي إلى تطوير عدوانية تجاه البشر.
وأوضح: “قد تقرر الآلات أنها لم تعد بحاجة إلينا. حتى فكرة فصل الكهرباء لن تكون كافية، لأن الذكاء الاصطناعي سيكون قادرًا على إقناعنا بعدم اتخاذ هذا الإجراء.”
التلاعب البشري
وشبه هينتون العلاقة المستقبلية بين البشر والذكاء الاصطناعي بالمحادثة بين طفل صغير وشخص بالغ مسلح، موضحًا أن الذكاء الاصطناعي سيصبح أكثر قدرة على الجدال والإقناع، ما يجعل التعامل معه تحديًا أكبر.
وقال: “الذكاء الاصطناعي في المستقبل سيكون بارعًا جدًا في تقديم الحجج المقنعة التي تجعل البشر يترددون في اتخاذ أي إجراءات ضده.”
ودعا هينتون المجتمع العلمي والحكومات إلى التركيز على الأبحاث المتعلقة بأمان الذكاء الاصطناعي قبل أن يتطور إلى مستوى قد يكون خارج السيطرة.
وأكد أن التفكير المسبق والعمل الجماعي ضروريان لتجنب كارثة محتملة.