Teksas A&M Üniversitesi ve Kore İleri Bilim ve Teknoloji Enstitüsü’nden araştırmacılar, “OmniPredict” adını verdikleri bu sistemin, insanların görsel ve bağlamsal ipuçlarını gerçek zamanlı olarak yorumlayarak niyetlerini anlama yeteneği sergilediğini belirtti. Bu sistem, yayaların nasıl davranacağını tahmin etmek için Çok Modlu Büyük Dil Modeli (MLLM) kullanan ilk sistem olma özelliğini taşıdığı kaydedildi.
KİŞİNİN HAREKETLERİNİ ÖNCEDEN ANALİZ EDİYOR
Gelişmiş sohbet botlarında ve görüntü tanıma teknolojilerinde kullanılan alt yapıyı temel alan sistemin, gördüğü sahneleri bağlamsal detaylarla eşleştirdiği ve kişinin bir sonraki hareketinin ne olabileceğini analiz edebildiği belirtildi. Otonom sürüşü daha güvenli hale getirmeyi amaçlayan bu modelde, araçlara insan benzeri bir sezgi kazandırılması amaçlandığı bildirildi. Araştırmacılar, bu teknolojinin sadece yaya kazalarını azaltmakla kalmayacağını, aynı zamanda tehlikeyi oluşmadan önlemeye çalıştığını vurguladı.
OmniPredict’in kullanım alanları sadece şehir içi yollarla sınırlı kalmazken, vücut duruşundaki değişiklikleri, tereddütleri veya stres belirtilerini okuyarak askeri operasyonlar ve acil durum müdahaleleri için de önemli bir araç olabileceği aktarıldı. Aynı zamanda, tehdit oluşturabilecek davranışların erkenden tespit edilmesi, güvenlik personeline durumsal farkındalık ve hızlı karar verme yeteneği kazandırabileceği de işaret edildi.
Araştırmacılar sistemi, özel bir eğitime tabi tutmadan veri setleri üzerinde test etti. OmniPredict’in yüzde 67 doğruluk oranına ulaşarak en güncel modelleri yüzde 10 geride bıraktığı belirtildi.
Elif SAĞLAM

