عالم يحذر من خطر الذكاء الاصطناعي الخارق

عالم يحذر من خطر الذكاء الاصطناعي الخارق

أكد العالم البريطاني ستيوراد راسل - المعروف بإسهاماته في الذكاء الاصطناعي- أن أنظمة الذكاء الاصطناعي القوية لا يمكن السيطرة عليها. كان البروفيسور ستيوارت راسل واحدًا من أكثر من 1000 خبير وقعوا في مارس الماضي على خطاب مفتوح يدعو إلى التوقف لمدة ستة أشهر عن تطوير أنظمة أكثر قدرة من OpenAI's GPT-4 التي تم إطلاقها حديثًا - خليفة برنامج الدردشة عبر الإنترنت ChatGPT وهو مدعوم من GPT-3.5.
 
نقلت شبكة سكاي نيوز عن راسل قوله: "لقد وقعت على الخطاب لأنني أعتقد أنه يجب أن يقال إننا لا نفهم كيف تعمل هذه الأنظمة (الأكثر قوة). لا نعرف ما هي قادرة على انجازه. وهذا يعني أننا لا نستطيع السيطرة عليها".
لفت إلى أن “الناس قلقون بشأن التضليل والتحيز العنصري والجنساني في مخرجات هذه الأنظمة". أضاف أن أحد أكبر المخاوف هو المعلومات المضللة والتزييف العميق (مقاطع فيديو أو صور لشخص تم تغيير وجهه أو جسده رقميًا بحيث يبدو أنه شخص آخر - يتم استخدامه عادةً بشكل ضار أو لنشر معلومات كاذبة).
 
 

Daftar Situs Ladangtoto Link Gampang Menang Malam ini Slot Gacor Starlight Princess Slot