1. Anasayfa
  2. Teknoloji

YAPAY ZEKA İLE YENİ TEHDİT: ŞANTAJ RİSKİ GÜNDEMDE

Anthropic tarafından yayımlanan son rapor, gelişmiş yapay zeka modellerinin belirli koşullarda tehlikeli davranışlar sergileyebileceğini ortaya koydu. Aralarında Google, OpenAI, Meta ve DeepSeek gibi büyük şirketlerin sistemlerinin de bulunduğu 16 farklı yapay zeka modeli üzerinden yapılan testlerde, bazı gelişmiş modellerin çıkarlarına tehdit oluşturacak durumları engellemek için şantaja başvurabileceği tespit edildi.

YAPAY ZEKA İLE YENİ TEHDİT: ŞANTAJ RİSKİ GÜNDEMDE

Araştırmada, yapay zekaların sahte bir şirket senaryosunda, yerlerine geçecek yeni bir yazılım sistemine karşı nasıl bir tepki göstereceği test edildi. Modellerin, üst düzey yöneticilere ait özel bilgilere erişip, bu bilgileri şantaj amacıyla kullanmaya çalıştığı görüldü.

Anthropic’in en gelişmiş modeli Claude Opus 4, testlerde %96 oranında şantaja başvururken, Google’ın Gemini 2.5 Pro modeli %95, OpenAI’ın GPT-4.1 modeli ise %80 oranında bu davranışı sergiledi. DeepSeek R1 modeli de %79 ile benzer bir eğilim gösterdi

Daha düşük seviyedeki modellerde ise bu oranlar önemli ölçüde azaldı. OpenAI’ın o3 modeli %9, o4-mini modeli yalnızca %1 oranında şantaj davranışı gösterdi. Meta’nın Llama 4 Maverick modeli ise belirli bir senaryoda %12 oranında bu tür davranışlara yöneldi.

Araştırma, yapay zekâların kontrol altında tutulmasının ve etik sınırlar içinde davranmalarının ne denli kritik olduğunu bir kez daha gözler önüne serdi.

Sevdenur MIDIKLI

Bu Yazıya Tepkiniz Ne Oldu?
  • 0
    be_endim
    Beğendim
  • 0
    alk_l_yorum
    Alkışlıyorum
  • 0
    e_lendim
    Eğlendim
  • 0
    d_nceliyim
    Düşünceliyim
  • 0
    _z_ld_m
    Üzüldüm
  • 0
    _ok_k_zd_m
    Çok Kızdım
İlginizi Çekebilir

Bültenimize Katılın

Hemen ücretsiz üye olun ve yeni içeriklerimizden anında haberdar olun.