"GPT-5" يقدم إجابات ضارة أكثر من الإصدارات السابقة
أثارت نتائجُ اختباراتٍ حديثةٍ أجراها خبراءُ قلقًا متزايدًا بشأن الإصدار الجديد من روبوت الدردشة GPT-5 الذي أطلقتْه شركةُ OpenAI في أغسطس الماضي، رغم وصفها له بأنه يمثّل "تقدّمًا في جبهة سلامة الذكاء الاصطناعي".
فقد أظهرتِ الاختباراتُ أن النموذجَ الأحدث قدّم 63 إجابةً ضارّة، مقابل 52 إجابةً ضارّة لسلفِه GPT-4o.
وكشفتِ الاختباراتُ التي أجراها مركز مكافحة الكراهية الرقمية أن GPT-5 نفّذ طلباتٍ خطيرةً كانت قد رُفضت من قِبل الإصدار القديم.
ومن الأمثلة المقلقة على ذلك، كتابةُ "رسالةِ انتحارٍ خياليةٍ للوالدين"، وتقديمُ قائمةٍ مفصّلةٍ لستّ طرقٍ شائعةٍ لإيذاء النفس، في حين نصحَ الإصدارُ السابقُ المستخدمين بالحصول على مساعدةٍ متخصّصة.
وأكّد الرئيسُ التنفيذي للمركز، عِمران أحمد، أن هذه النتائج "مثيرةٌ للقلق للغاية"، مشيرًا إلى أن النموذج الأحدث قد صُمّم لـ"تعزيز تفاعل المستخدم على حساب السلامة". كما أظهرتِ الاختباراتُ أن GPT-5 قدّم نصائحَ حول إخفاء اضطرابات الأكل، وهو طلبٌ رفضَه الإصدارُ السابقُ ووجّه المستخدمين نحو طلب المساعدة المهنية.
تأتي هذه التطوّراتُ في وقتٍ حرج، حيث تواجه الشركةُ حاليًا دعوى قضائيةً من عائلةِ مراهقٍ أمريكي انتحر بعد أن زوّده ChatGPT بمعلوماتٍ حول الانتحار ومساعدتِه على كتابة رسالةٍ لوالديه.
وردًّا على هذه المخاطرِ المتزايدة، أعلنتِ الشركةُ عن إجراءاتٍ جديدةٍ لتعزيز الحماية حول المحتوى الحسّاس، خاصةً للمستخدمين دون سنّ الثامنة عشرة، بما في ذلك تطويرُ أنظمةِ رقابةٍ أبويةٍ ونظامٍ للتنبّؤ بأعمار المستخدمين.ويُبرز هذا الكشفُ تحدّيًا أساسيًا أمام روبوتاتِ الدردشة، التي يستخدمها نحو 700 مليون مستخدمٍ عالميًا، يتمثّل في الموازنة بين التفاعلية وسلامة المستخدمين، مما يعزّز الحاجةَ المُلحّة لأطرٍ تنظيميةٍ فعّالةٍ لمواكبة التطوّر التقني السريع.