Call of Duty’e yapay zeka ekleniyor: Oyuncuların uygunsuz davranışları denetlenecek – Teknoloji





Video oyun devi Activision, Call of Duty oyununda çevrimiçi olarak gerçekleşen maçlarda nefret söylemi ve ayrımcılığı engellemek için yapay zeka tabanlı moderasyon aracını kullanmaya başladı. Bu yeni moderasyon aracı, ayrımcı dil ve tacizi gerçek zamanlı olarak tespit edebiliyor.

Makine öğrenimi teknolojisinin kullanıldığı bu moderasyon aracı, yapay zekanın insan müdahalesi olmadan öğrenme ve uyarlanma yeteneği sayesinde çalışıyor. Algoritmaları ve öğrenilen verileri kullanarak kalıpları tanıyan yapay zeka, oyuncular arasındaki iletişimi denetliyor.

Bu moderasyon aracı “ToxMod” adını taşıyor ve Modulate adlı bir şirket tarafından geliştirildi. ToxMod, Call of Duty’de toksik davranışları tespit ederek bu tür davranışların önlenmesine katkı sağlıyor.

Çevrimiçi oyun dünyasında, özellikle kadınlar ve farklı gruplara mensup oyuncular, sıklıkla zehirli ve önyargılı dille karşılaşıyorlar. Uzun süredir bu tür istismarın hedefi olan oyuncular, bu soruna çözüm bulunmasını talep ediyorlar.

Activision, Mayıs 2021’de Call of Duty’deki nefret söylemini kısıtlama adımları atmış ve ırkçılık ile zehirli davranışlara karşı 350 bin hesabı yasaklamıştı. Yayıncı, oyunculara daha iyi bir oyun deneyimi sunmayı amaçlayan toksisite karşıtı bir yaklaşım benimsiyor.

Activision’ın baş teknoloji sorumlusu Michael Vance, ToxMod’un oyunu daha eğlenceli, adil ve sıcak bir deneyime dönüştüreceğini belirtti. ToxMod, toksik davranışları ciddiyet derecesine göre sınıflandırarak moderasyon çabalarını artırıyor ve insan müdahalesine olanak tanıyor.

Oyuncular, ToxMod’u devre dışı bırakmak için oyun içi sesli sohbeti devre dışı bırakma seçeneğine sahipler. 


Haber Kaynağı www.aykiri.com.tr

Haber Kaynağı ulusal24.com