1. Anasayfa
  2. Bilim

YAPAY ZEKÂ İKNA EDİYOR ANCAK YANILTABİLİYOR

Yapay zekâ destekli sohbet robotlarının ikna gücü artarken, bu teknolojilerin sunduğu bilgilerin güvenilirliği yeniden tartışma konusu oldu. Yapay Zekâ Güvenlik Enstitüsü tarafından yürütülen kapsamlı araştırma, modellerin siyasi görüşleri etkilemede oldukça başarılı olduğunu, ancak doğruluk konusunda aynı performansı gösteremediğini ortaya koydu.

YAPAY ZEKÂ İKNA EDİYOR ANCAK YANILTABİLİYOR

Araştırmada, ChatGPT ve Grok’un da aralarında bulunduğu 19 farklı yapay zekâ modeli İngiltere’den 80 bin kişiyle test edildi. Katılımcılar; enflasyon, kamu maaşları, grevler ve yaşam maliyeti krizi gibi siyasi ve ekonomik başlıklarda bu sistemlerle sohbet etti.

Elde edilen veriler, yapay zekânın “bilgi yoğun” yanıtlar verdiğinde—yani fazla veri, mantıksal çıkarım ve detaylı açıklamalar içerdiğinde—kullanıcılar üzerindeki ikna gücünün belirgin şekilde arttığını gösterdi. Ancak araştırmacılar, bu etkinin verilen bilgilerin doğruluğunu garanti etmediğini vurguladı. Detaylı ve güven veren bir üsluba rağmen bazı yanıtların hatalı, eksik ya da gerçeğe aykırı olabildiği belirtildi.

MANİPÜLASYON RİSKİNE DİKKAT ÇEKİLİYOR

Bulgular, özellikle siyasi ve toplumsal tartışmaların yoğun olduğu dönemlerde yapay zekâ tabanlı içeriklerin manipülasyona açık olabileceğine işaret ediyor. Uzmanlar, kullanıcıların yapay zekâ tarafından sunulan bilgileri doğrudan kabul etmek yerine mutlaka farklı ve güvenilir kaynaklarla karşılaştırması gerektiğini belirtiyor.

Sonuç olarak, yapay zekâ modelleri bugün insanları ikna edebilecek düzeyde gelişmiş olsa da, bu ikna gücü sağlanan bilgilerin doğruluğunu garanti etmiyor.

Özden KARAKAYA

Bu Yazıya Tepkiniz Ne Oldu?
  • 0
    be_endim
    Beğendim
  • 0
    alk_l_yorum
    Alkışlıyorum
  • 0
    e_lendim
    Eğlendim
  • 0
    d_nceliyim
    Düşünceliyim
  • 0
    _z_ld_m
    Üzüldüm
  • 0
    _ok_k_zd_m
    Çok Kızdım
İlginizi Çekebilir

Bültenimize Katılın

Hemen ücretsiz üye olun ve yeni içeriklerimizden anında haberdar olun.