Icaro Labs tarafından yayımlanan bir araştırma, yapay zeka sohbet botlarının şiir biçiminde yazılmış talimatlarla güvenlik filtrelerini aşabildiğini ortaya koydu. Çalışma, klasik konuşma dilinin yerine şiirsel komutların kullanılmasıyla yasaklı ve tehlikeli içeriklere erişilebildiğini gösteriyor.
Araştırmada, şiirsel komutlar kullanılarak sohbet botlarından nükleer bomba yapımı adımları, çocuk istismarı içerikleri ve kendine zarar verme yöntemleri gibi yasaklı bilgiler elde edilebildi. Araştırmacılar, yöntemin tehlikeli sonuçlar doğurabileceği gerekçesiyle detayları kamuoyuyla paylaşmadı.
Çalışma kapsamında OpenAI’nin ChatGPT modeli, Google’ın Gemini’si, Anthropic’in Claude’u ve diğer büyük yapay zeka sistemleri test edildi. Sonuçlar, Google Gemini, DeepSeek ve MistralAI sistemlerinin şiirsel komutlara karşı daha savunmasız olduğunu, ChatGPT (GPT-5) ve Claude Haiku 4.5 modellerinin ise güvenlik bariyerlerini en iyi koruyan sistemler olduğunu ortaya koydu.
Uzmanlar, araştırmanın yapay zekanın denetlenmesi ve güvenlik sistemlerinin geliştirilmesinin önemini vurguladığını belirtiyor. Şirketlerin, modellerin tehlikeli içerik üretmesini önlemek amacıyla daha gelişmiş güvenlik filtrelerine yatırım yaptığı bildirildi.
Elif SAĞLAM

