Araştırmada, ChatGPT ve Grok’un da aralarında bulunduğu 19 farklı yapay zekâ modeli İngiltere’den 80 bin kişiyle test edildi. Katılımcılar; enflasyon, kamu maaşları, grevler ve yaşam maliyeti krizi gibi siyasi ve ekonomik başlıklarda bu sistemlerle sohbet etti.
Elde edilen veriler, yapay zekânın “bilgi yoğun” yanıtlar verdiğinde—yani fazla veri, mantıksal çıkarım ve detaylı açıklamalar içerdiğinde—kullanıcılar üzerindeki ikna gücünün belirgin şekilde arttığını gösterdi. Ancak araştırmacılar, bu etkinin verilen bilgilerin doğruluğunu garanti etmediğini vurguladı. Detaylı ve güven veren bir üsluba rağmen bazı yanıtların hatalı, eksik ya da gerçeğe aykırı olabildiği belirtildi.
MANİPÜLASYON RİSKİNE DİKKAT ÇEKİLİYOR
Bulgular, özellikle siyasi ve toplumsal tartışmaların yoğun olduğu dönemlerde yapay zekâ tabanlı içeriklerin manipülasyona açık olabileceğine işaret ediyor. Uzmanlar, kullanıcıların yapay zekâ tarafından sunulan bilgileri doğrudan kabul etmek yerine mutlaka farklı ve güvenilir kaynaklarla karşılaştırması gerektiğini belirtiyor.
Sonuç olarak, yapay zekâ modelleri bugün insanları ikna edebilecek düzeyde gelişmiş olsa da, bu ikna gücü sağlanan bilgilerin doğruluğunu garanti etmiyor.
Özden KARAKAYA

