Top oynamak istemeyen oyuncuları yönetebilir miyiz?



Top oynamak istemeyen oyuncuları yönetebilir miyiz?

Oyundaki toksik davranış yaygın bir sorun haline geldi. Kötü oyuncu davranışı sorununun arkasında birçok faktör var, ancak sonuç, topluluk liderlerinin toksisiteyi azaltmak için çok fazla zaman ve kaynak ayırmaya zorlanmasıdır – bu, başka bir yere harcanması daha iyi olur.

Şu anda oyun topluluğu denetimi, yasaklı kelime listeleri, gayri resmi kurallar, insan moderatörleri ve gelişmiş (ve çok gelişmiş olmayan) teknolojinin bir kombinasyonu kullanılarak yapılmaktadır. Yanlış bilgilendirme, ırkçılık, yanlış antropi ve her türlü toksik davranışın medyada sabit bir tema olması, bu yöntemlerin çoğunun sınırlı etkinliğini göstermektedir.

Bazı oyuncuları yıkıcı veya toksik şekillerde davranmaya neyin motive ettiğini tam olarak bilmediğimizde, bir moderasyon stratejisi oluşturmak çok daha zor hale gelir. Bazıları işaret ediyor yüksek basınçlı espor ortamları veya diğer oyuncuların dikkatini dağıtmaktan elde edilen rekabet avantajı,diğerleri, çevrimiçi ortamlardaki toksisitenin basitçe norm haline gelmek. Sebep ne olursa olsun, insanları üzmek ve ne pahasına olursa olsun ‘kazanmak’ ile motive olan bir azınlık her zaman olacak gibi görünüyor.

Oyun şirketlerinin en iyi çabalarına rağmen, oyuncular, sahip oldukları kurala dayalı sistemlerin ötesine geçmek için sürekli yeni çözümler buluyorlar – bu, bu sistemler ilk etapta toksik davranışları almıyorsa daha kolay hale geliyor. Örneğin, akış platformu Twitch, kendi topluluk sorunlarının üstesinden gelmek için esasen kapsamlı bir yasaklı kelime, kelime öbeği ve emoji listesi olan kullanıcı raporlaması ve kural tabanlı denetlemenin bir kombinasyonunu kullanır. Yine de, akışlar düzenli olarak, kullanıcıların bir yayıncının sohbet bölümünü nefret dolu mesajlarla boğmak için botları kullandığı ‘nefret baskınları’ tarafından hedeflenir. Birçok kullanıcının tekrar tekrar hashtag arkasında toplanmasına öncülük etmek ‘#Twitchdodaha iyi’platformun daha önemli güvenlik politikaları getirmesi çağrısında bulundu.

Rekabetçi oyun özellikle kötü bir toksisite sorununa sahiptir

Zehirli davranışlar, özellikle rekabetçi oyun sahnesinde yaygın görünmektedir. Araştırmamız göstermiştir ki, neredeyse dörtte üçü (%70) çevrimiçi çok oyunculu oyunlardaki oyuncuların yüzdesi bir tür taciz yaşadı. Buna cinsel taciz, nefret söylemi, şiddet tehditleri, doxing (başkalarının özel bilgilerini yayınlama), spam gönderme, alevlendirme (olumsuz tepkileri ortaya çıkarmak için güçlü duygusal ifadeler gönderme), kederlenme (oyunu başkalarını taciz etmek için istenmeyen şekillerde kullanma) ve kendi takımının performansını kasten engellemek.

Bu sınırsız davranışlar, sanal ortamların sağladığı anonimlik ve oyuncuların başkalarının davranışlarını kendileri için kabul edilebilir olanın bir ölçütü olarak görmeleri tarafından körüklenir. Araştırma öneriyor Bu, toksisitenin neden biraz bulaşıcı olduğunu açıklamaya yardımcı olabilir, çünkü önceki oyunlarda maruz kalma, bir oyuncunun gelecekteki oyunlarda benzer eylemlerde bulunma olasılığını artırdığını göstermiştir.

Esports juggernaut Overwatch, oyunun kendisinin ötesinde toksisite ile ilgili kendi sorunlarına sahipti. Blizzard Entertainment Başkan Yardımcısı Jeff Kaplan, kapsamlı moderasyon çabalarının diğer operasyon alanlarını nasıl olumsuz etkilediğini açıkladı. “Yeni haritalar yapmak istiyoruz, yeni kahramanlar yapmak istiyoruz, animasyonlu kısa filmler yapmak istiyoruz. Ancak insanları cezalandırmak ve insanların daha iyi davranmasını sağlamak için muazzam miktarda zaman ve kaynak harcadığımız bu garip duruma düştük.”

Ölçekte etkili bir şekilde manuel olarak denetlemek gerçek bir zorluk olabilir ve topluluk toksik davranışlarda bulunmaya devam etmeye kararlıysa, oyun devleri bile sorunu yönetmekte zorlanabilir.

İş için doğru araç mı?

Fortnite veya Minecraft gibi daha büyük oyunlar, insan ve otomatik denetleme, kimlik doğrulama ve topluluk eğitiminin bir kombinasyonunu kullanır. En yaygın olarak metin sohbeti, yasaklanmış kelimeler için otomatik olarak ayrıştırılır ve belirsiz veya sese dayalı herhangi bir şey insan moderatörlere iletilir. Bununla ilgili sorun – çok verimli olmadığı gerçeğinin ötesinde – insan ılımlılığının kendi içinde bir sorun olan önyargıya duyarlı olabilmesidir.

Facebook’un maaş bordrosunda zaten 15.000 moderatör var ve New Your University’den bir 2020 çalışması sadece mevcut gönderi hacimlerine ayak uydurmak için bunun iki katına ihtiyacı olduğunu önerdi. Facebook’un uygunsuz içeriği kısıtlamak için büyük çaba sarf ettiği bilinen bir gerçektir. Ama Mark Zuckerberg bir itirafta bile bulundu. Beyaz kağıt insan moderatörlerin “her 10 vakadan birden fazlasında yanlış arama yaptığını”, yani gerçek anlamda yaklaşık olarak şuna eşittir: Her gün 300.000 hata.

Örneğin, her gün denetlenecek üç milyon gönderi varsa, sekiz saatlik bir vardiyada her saat 25 gönderiyi yönetiyorlarsa, bu kişi başına 200’e eşittir. Bir gönderinin topluluk standartlarını karşılayıp karşılamadığına veya ihlal edip etmediğine karar vermek için 150 saniye çok fazla bir zaman değil.

Şirketlerin kendi moderasyon sorunlarını çözmek için daha yenilikçi araçlar aramalarına şaşmamalı. FaceIt, maçlarını yönetmeye yardımcı olmak için makine öğrenimi tarafından desteklenen topluluk tabanlı bir yaklaşımı test eden 22 milyon oyuncudan oluşan popüler bir e-spor topluluğudur. Sistem, yeni kötüye kullanım raporlarını işlemek için bir kılavuz olarak moderatörlerin kararlarını kullanarak, önceki işaretlenmiş davranış vakalarından gelen eğitim verilerini kullanır.

Counter Strike: Global Offensive (CS:GO) maçlarını yönetmek için kullanılmaya başlandığı ilk ay içinde sistem, tüm sohbet mesajlarının %4’ünün toksik olduğunu tespit etti ve tüm maçların %40’ından fazlasını etkiledi. İki hafta sonra, sistem 20.000 yasaklama ve 90.000 uyarı yayınladı ve bu, toksik mesajlarda %20’lik bir azalmaya ve bu davranıştan etkilenen eşleşme sayısında %15’lik bir azalmaya yol açtı.

Bu rakamlar umut verici sonuçlar gösteriyor ve görünürde, topluluk geri bildirimi iyi bir yaklaşım gibi görünebilir – ancak sistem hala büyük ölçüde insan moderasyonuna dayanıyor ve yalnızca daha önce topluluk moderatörleri tarafından ele alınan davranışları işaretliyor.

Bu kadar dar bir veri kümesine güvenmek, önyargıya kapı açar. Bu, başlangıçtan itibaren, bir sistemin doğal önyargı ile tasarlanabileceği anlamına gelir – ılımlılık kusurlu ve belirli demografik özellikleri yabancılaşma riski altında bırakır. Örneğin, ‘duvar inşa etmek’e atıfta bulunmak bazıları için rahatsız edici görünmeyebilir veya topluluk veya kurala dayalı moderasyon tarafından mutlaka işaretlenmeyebilir. Ancak, Trump yönetimi tarafından popüler hale getirilen bu ifade, Meksika kökenli biri için birçok olumsuz çağrışım içerebilir. Dahası, yalnızca katılmadıkları gönderileri ve görüşleri işaretleyen bir ‘çürük elma’ moderatörü varsa, önyargı daha da belirginleşecektir.

Topluluk geri bildirim yaklaşımının başka dezavantajları da vardır. Tasarım gereği, kullanıcıların uygunsuz içeriği topluluk liderlerine bildirmeden önce görmeleri gerektiğinden, daha fazla insan zararlı içeriğe maruz kalacak. Bu, bir avuç kötü sohbet mesajının geçmesi anlamına geliyorsa, küçük bir oyuncu topluluğuyla yönetilebilir olabilir. Peki ya milyonlarca oyuncuya sahip bir MMO? Bu senaryoda, küçük bir yüzde bile günde binlerce toksik sohbet mesajı anlamına gelir.

Geniş ölçekte Moderasyon sağlamak için yapay zeka gerekli olacak

Geniş ölçekte, sohbet günlüklerinin ve verilerin çokluğu, yalnızca zorluğu artırarak manuel denetlemeyi giderek etkisiz, maliyetli ve emek yoğun hale getiriyor. Karşılarında pek çok ihtimal olduğu için, topluluk liderleri şimdi sorunu azaltmak için yenilikçi araçlardan yararlanıyor.

AI gerçekten dönüştürücü bir araç olma potansiyeline sahiptir, ancak sınırlamaları vardır ve uygunsuz içeriğe karşı gümüş kurşun olarak görülmemelidir. Yaygın yanlış anlamalara rağmen, AI inanılmaz derecede geniş bir araştırma alanıdır ve terimin kapsadığı araçlar ve sistemler çok çeşitli yeteneklere sahiptir.

Örneğin, geleneksel kural tabanlı yapay zeka yaklaşımları genellikle yalnızca genel kelime, sözlük ve ontoloji listelerini kullanır. Oysa gelişmiş AI sistemleri, kural tabanlı sistemlerin yapamayacağı cümlelerin, bağlamın ve çıkarımın anlamsal anlamını anlayarak, insan karar verme sürecini çok daha derin bir düzeyde taklit etmeyi öğrenir. Gelişmiş AI çok daha doğrudur, uygulanması çok daha hızlıdır ve aylar veya yıllar yerine günler içinde yeni dillere ölçeklenebilir.

Gelişmiş AI, mantoyu insan moderatörlerinden almak için mantıklı haleftir. Öncelikle, Facebook’un kendi kendine itiraf ettiği verimsizlikleriyle örneklendiği gibi, günlük olarak çok sayıda kullanıcıyı maruz bırakabilen insan moderatörlerin doğal önyargısından kaçınır.

En iyi yaklaşım, ne %100 yapay zeka ne de %100 manuel olmayan, ancak ikisinin birleşimi olan bir sistem kullanmaktır. İnsan girdisi hayati önem taşır, çünkü sistemin çalıştığı, geliştirdiği ve öğrenmeye devam ettiği sırada karar verme sürecini eğitmeye ve yönlendirmeye yardımcı olarak gelişmiş AI sistemlerinin yeteneklerini yükseltir. Belirli bir toplulukta hangi içeriğin uygun olduğunu ve neyin denetlenmesi gerektiğini tanımlamaları gerektiğinden, insan moderatörlerin oynayacak başka bir hayati rolü vardır. Önce insan yaklaşımını kullanmak, yapay zekanın etik olarak kullanılmasını sağlar. Yapay zekanın görevlerin yükünü üstlenmesine izin vermek, aynı zamanda insan moderatörlerin çok daha az tekrar eden manuel çalışmaya sahip olmaları ve daha ödüllendirici, değer yaratan görevlere odaklanabilmeleri anlamına gelir.

Oyuncular internette daha fazla zaman geçirmeye devam ettikçe, uygun olmayan denetleme araçları oyuncuları ve toplulukları kötüye kullanıma açık bırakmaya devam edecek. Discord’un yakın zamanda Sentropy’yi satın alması veya Twitter’ın platformdaki moderasyon önyargısını ortadan kaldırmayı amaçlayan ‘bug-bounty’ programı gibi moderasyon uygulamalarını iyileştirmeye yönelik sektör çapındaki çabalara rağmen, birçok endüstri lideri etkisiz çözümler kullanmaya devam ediyor. Bu, çevrimiçi oyun kültürünün kabul edilen bir parçası olarak toksik davranışları daha da normalleştirme ve kökleştirme riskini taşır – bu da sektöre daha geniş etkiler sunar.

Denetleme hala lansman sonrası bir sorun olarak görülüyor, ancak gerçek şu ki, moderasyonun tasarım sürecinin bir parçası olarak düşünülmesi gerekiyor. Siz topluluk liderlerine toksisiteyi azaltmak için doğru araçlar verilmezse, topluluk odaklı oyunlar geliştirmenin bir anlamı yoktur ve toksik bir deneyimin oyuncuları uzaklaştırdığını biliyoruz. Yapay zeka tabanlı araçlar, oyunları gereken ölçekte yönetmenin bir yolunu sunar – ancak büyük yayıncılar modası geçmiş ve kanıtlanmış yöntemlere güvendiği sürece benimseme gerçekleşmeyecektir.


Kaynak : https://www.gamedeveloper.com/blogs/can-we-moderate-gamers-that-don-t-want-to-play-ball-

Yorum yapın

Geçici Mail pdf kitap indir instagram takipçi satın al tiktok takipçi satın al