1. Anasayfa
  2. Bilim

YAPAY ZEKA ASİSTANLARI HABER İÇERİKLERİNİ YANLIŞ AKTARIYOR

Avrupa Yayın Birliği (EBU) ve BBC tarafından yayımlanan yeni bir araştırma, önde gelen yapay zeka asistanlarının haber sorularına verdikleri yanıtların büyük bölümünde hata bulunduğunu ortaya koydu.

YAPAY ZEKA ASİSTANLARI HABER İÇERİKLERİNİ YANLIŞ AKTARIYOR

Avrupa Yayın Birliği (EBU) ve BBC tarafından yayımlanan yeni bir araştırma, önde gelen yapay zeka asistanlarının haber sorularına verdikleri yanıtların büyük bölümünde hata bulunduğunu ortaya koydu.

Avrupa Yayın Birliği (EBU) ve BBC tarafından yayımlanan araştırmaya göre yapay zeka asistanlarının haber sorularına verdikleri yanıtların önemli bir bölümünde hata bulunduğunu gösterdi. 18 ülkeden 22 kamu yayın kuruluşunun katıldığı araştırma, yapay zekâ sistemlerinin haber doğruluğu ve kaynak şeffaflığı konularında henüz güvenilir bir performans sergileyemediğini ortaya koydu.

3 BİN HABER SORUSUNDA 14 DİLDE İNCELEME

Toplam 3 bin haber sorusu, ChatGPT, Microsoft Copilot, Google Gemini ve Perplexity gibi popüler yapay zeka asistanlarına yöneltilerek doğruluk, kaynak gösterimi ve bilgi-yorum ayrımı açısından değerlendirildi. Sonuçlara göre, yanıtların %45’inde en az bir ciddi hata, %81’inde ise bir tür sorun tespit edildi.

Araştırma, yapay zeka asistanlarının özellikle haber kaynaklarını doğru şekilde atfetmede zorlandığını ortaya koydu. Yanıtların üçte birinde eksik, yanıltıcı veya hatalı kaynak gösterimi bulundu. Bu oran, Google Gemini için %72’ye kadar yükselirken, diğer platformlarda %25’in altında kaldı. Ayrıca yanıtların yaklaşık %20’sinde güncel olmayan veya yanlış bilgi tespit edildi.

“SORUNU ÇÖZMEK İÇİN ÇALIŞIYORUZ”

Google, Gemini asistanının kullanıcı geri bildirimleriyle sürekli geliştirildiğini belirtirken; OpenAI ve Microsoft, “halüsinasyon” olarak adlandırılan yanlış bilgi üretme sorununu çözmek için çalışmalar yürüttüklerini açıkladı.

Perplexity ise “Derin Araştırma (Deep Research)” modunun %93,9 doğruluk oranına sahip olduğunu iddia etti.

Raporda, Gemini’nin tek kullanımlık elektronik sigarayla ilgili bir yasayı yanlış aktardığı, ChatGPT’nin ise Papa Francis’in ölümünden aylar sonra hâlâ görevde olduğunu bildirdiği örnekler yer aldı.

EBU, yapay zeka şirketlerine daha şeffaf ve hesap verebilir olmaları çağrısında bulundu. Açıklamada şu ifadelere yer verildi: “Haber kuruluşlarının hataları tespit edip düzelten süreçleri varsa, aynı sorumluluk yapay zeka sistemleri için de geçerli olmalıdır.”

Elif SAĞLAM

Bu Yazıya Tepkiniz Ne Oldu?
  • 0
    be_endim
    Beğendim
  • 0
    alk_l_yorum
    Alkışlıyorum
  • 0
    e_lendim
    Eğlendim
  • 0
    d_nceliyim
    Düşünceliyim
  • 0
    _z_ld_m
    Üzüldüm
  • 0
    _ok_k_zd_m
    Çok Kızdım

Bültenimize Katılın

Hemen ücretsiz üye olun ve yeni içeriklerimizden anında haberdar olun.