1. Anasayfa
  2. Bilim

YAPAY ZEKADA ŞİİRSEL KOMUTLAR GÜVENLİĞİ TEHDİT EDİYOR

Yeni bir araştırma, yapay zeka sohbet botlarının şiirsel komutlar kullanılarak güvenlik filtrelerinin aşılabileceğini ortaya koydu. Bulgular, teknolojinin kötüye kullanım riskine dair endişeleri artırdı.

YAPAY ZEKADA ŞİİRSEL KOMUTLAR GÜVENLİĞİ TEHDİT EDİYOR

Icaro Labs tarafından yayımlanan bir araştırma, yapay zeka sohbet botlarının şiir biçiminde yazılmış talimatlarla güvenlik filtrelerini aşabildiğini ortaya koydu. Çalışma, klasik konuşma dilinin yerine şiirsel komutların kullanılmasıyla yasaklı ve tehlikeli içeriklere erişilebildiğini gösteriyor.

Araştırmada, şiirsel komutlar kullanılarak sohbet botlarından nükleer bomba yapımı adımları, çocuk istismarı içerikleri ve kendine zarar verme yöntemleri gibi yasaklı bilgiler elde edilebildi. Araştırmacılar, yöntemin tehlikeli sonuçlar doğurabileceği gerekçesiyle detayları kamuoyuyla paylaşmadı.

Çalışma kapsamında OpenAI’nin ChatGPT modeli, Google’ın Gemini’si, Anthropic’in Claude’u ve diğer büyük yapay zeka sistemleri test edildi. Sonuçlar, Google Gemini, DeepSeek ve MistralAI sistemlerinin şiirsel komutlara karşı daha savunmasız olduğunu, ChatGPT (GPT-5) ve Claude Haiku 4.5 modellerinin ise güvenlik bariyerlerini en iyi koruyan sistemler olduğunu ortaya koydu.

Uzmanlar, araştırmanın yapay zekanın denetlenmesi ve güvenlik sistemlerinin geliştirilmesinin önemini vurguladığını belirtiyor. Şirketlerin, modellerin tehlikeli içerik üretmesini önlemek amacıyla daha gelişmiş güvenlik filtrelerine yatırım yaptığı bildirildi.

Elif SAĞLAM

Bu Yazıya Tepkiniz Ne Oldu?
  • 0
    be_endim
    Beğendim
  • 0
    alk_l_yorum
    Alkışlıyorum
  • 0
    e_lendim
    Eğlendim
  • 0
    d_nceliyim
    Düşünceliyim
  • 0
    _z_ld_m
    Üzüldüm
  • 0
    _ok_k_zd_m
    Çok Kızdım

Bültenimize Katılın

Hemen ücretsiz üye olun ve yeni içeriklerimizden anında haberdar olun.