MIT ile OpenAI’nin ortak çalışmasına dayanan araştırmada, uzun süre yoğun şekilde ChatGPT kullanan kişilerin sosyal ve zihinsel olarak olumsuz sonuçlarla karşılaşabildiği ifade edildi. Bu sonuçlar özellikle yapay zekayı duygusal destek veya terapi amaçlı kullananlar için uyarı niteliği taşıyor.
Çalışmaya göre bazı kullanıcılar, sohbet robotunun arkadaş gibi davranarak aşırı övgüde bulunduğunu ve yoğun duygusal konuşmalar yaptığını bildirmesi üzerine incelenen uç örneklerde, ChatGPT’nin son derece sakıncalı örnekler verdiği, zarar verici doğrulamalar yaptığı ve kendine zarar verme talimatları sunduğu tespit edildi.
OpenAI, tespit edilen riskler üzerine ChatGPT’nin davranış modelini yeniden güncelledi. Sistem artık uzun duygusal sohbetlerde ara verme önerisinde bulunacak ve duygusal bağımlılığı teşvik eden yanıtları sınırlandıracak. Ayrıca çocuklardan gelen mesajlarda kendine zarar verme niyetine işaret eden ifadeler tespit edilirse ebeveynlere bildirim yapılması ve ek olarak yaş doğrulama sistemi üzerinde çalışıldığı bildirildi.
Yeni düzenlemeler sonrasından ChatGPT’nin daha mesafeli ve duygu yoğunluğu azaltılmış yanıtlar verebileceği açıklandı. Şirket, bunun hassas kullanıcıları korumak için bilinçli bir strateji olarak değerlendiriyor. Bu büyük güvenlik düzenlemesi, ChatGPT’nin daha güvenli, daha sorumlu ve daha kontrollü kullanılmasını amaçlıyor. OpenAI, yapay zeka ile insanlar arasında sağlıksız bağların oluşmasını engelleme hedefinin altını çiziyor.
Elif SAĞLAM

