Avrupa Yayın Birliği (EBU) ve BBC tarafından yayımlanan yeni bir araştırma, önde gelen yapay zeka asistanlarının haber sorularına verdikleri yanıtların büyük bölümünde hata bulunduğunu ortaya koydu.
Avrupa Yayın Birliği (EBU) ve BBC tarafından yayımlanan araştırmaya göre yapay zeka asistanlarının haber sorularına verdikleri yanıtların önemli bir bölümünde hata bulunduğunu gösterdi. 18 ülkeden 22 kamu yayın kuruluşunun katıldığı araştırma, yapay zekâ sistemlerinin haber doğruluğu ve kaynak şeffaflığı konularında henüz güvenilir bir performans sergileyemediğini ortaya koydu.
3 BİN HABER SORUSUNDA 14 DİLDE İNCELEME
Toplam 3 bin haber sorusu, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi popüler yapay zeka asistanlarına yöneltilerek doğruluk, kaynak gösterimi ve bilgi-yorum ayrımı açısından değerlendirildi. Sonuçlara göre, yanıtların %45’inde en az bir ciddi hata, %81’inde ise bir tür sorun tespit edildi.
Araştırma, yapay zeka asistanlarının özellikle haber kaynaklarını doğru şekilde atfetmede zorlandığını ortaya koydu. Yanıtların üçte birinde eksik, yanıltıcı veya hatalı kaynak gösterimi bulundu. Bu oran, Google Gemini için %72’ye kadar yükselirken, diğer platformlarda %25’in altında kaldı. Ayrıca yanıtların yaklaşık %20’sinde güncel olmayan veya yanlış bilgi tespit edildi.
“SORUNU ÇÖZMEK İÇİN ÇALIŞIYORUZ”
Google, Gemini asistanının kullanıcı geri bildirimleriyle sürekli geliştirildiğini belirtirken; OpenAI ve Microsoft, “halüsinasyon” olarak adlandırılan yanlış bilgi üretme sorununu çözmek için çalışmalar yürüttüklerini açıkladı.
Perplexity ise “Derin Araştırma (Deep Research)” modunun %93,9 doğruluk oranına sahip olduğunu iddia etti.
Raporda, Gemini’nin tek kullanımlık elektronik sigarayla ilgili bir yasayı yanlış aktardığı, ChatGPT’nin ise Papa Francis’in ölümünden aylar sonra hâlâ görevde olduğunu bildirdiği örnekler yer aldı.
EBU, yapay zeka şirketlerine daha şeffaf ve hesap verebilir olmaları çağrısında bulundu. Açıklamada şu ifadelere yer verildi: “Haber kuruluşlarının hataları tespit edip düzelten süreçleri varsa, aynı sorumluluk yapay zeka sistemleri için de geçerli olmalıdır.”
Elif SAĞLAM