Hoe ToxMod plannen maakt om giftige gaming-chat te repareren

Inhoudsopgave:

Hoe ToxMod plannen maakt om giftige gaming-chat te repareren
Hoe ToxMod plannen maakt om giftige gaming-chat te repareren
Anonim

Belangrijkste afhaalrestaurants

  • ToxMod, van het in Boston gevestigde bedrijf Modulate, claimt storende spraak automatisch en in re altime te detecteren en tegen te gaan.
  • In plaats van te worden beperkt door eenvoudige taal, gebruikt ToxMod machine learning om immateriële zaken zoals emotie, volume en ritme te achterhalen.
  • ToxMod is momenteel ontworpen voor gebruik met in-game chatrooms, maar er is geen reden waarom het niet naar je Twitch-kanaal zou kunnen komen.
Image
Image

Een in Boston gevestigd bedrijf gebruikt machine learning om te creëren wat het beschouwt als 's werelds eerste voice-native moderatieservice, die het verschil kan zien tussen wat er wordt gezegd en wat het betekent.

ToxMod is een poging om de paradox op te lossen van het modereren van elke open ruimte op internet; er zijn niet genoeg mensen om aan de vraag te voldoen, maar algoritmen, filters en een rapportsysteem begrijpen geen nuance.

Met de database van ToxMod kan het factoren in de spraak van spelers volgen, zoals emotie en volume, waardoor het onderscheid kan maken tussen een kortstondige vertraging en een gedragspatroon. Het werd onlangs aangekondigd als een toevoeging aan de 7v7 American football-game Gridiron, momenteel in Steam Early Access.

"Iedereen weet dat intimidatie, haatzaaiende uitlatingen en giftigheid in voicechat en gaming een enorm probleem is. Dat wordt algemeen begrepen", zei Carter Huffman, chief technology officer en mede-oprichter van Modulate, in een Google Meeting met reddingsdraad. "We konden de functies die we via deze verscheidenheid aan machine learning-systemen extraheerden, samenvoegen tot een systeem dat rekening hield met al deze deskundige kennis die we van de gemeenschap leerden."

Gegroet onze nieuwe robotmoderators

Modulate werkt sinds afgelopen herfst aan ToxMod en heeft het opgenomen als een van de drie kernservices van het bedrijf. Het biedt ook VoiceWear, een stemvermomming mogelijk gemaakt door machine learning, en VoiceVibe, een verzameldienst waarmee gebruikers kunnen ontdekken wat de mensen in hun gemeenschap bespreken.

Wanneer ToxMod in een chat actief is, kan het via het beheerderspaneel van Modulate worden geprogrammeerd om een verscheidenheid aan automatische acties uit te voeren, zoals waarschuwingen geven, spelers dempen of het volume individueel aanpassen.

Het maakt gebruik van een triagesysteem waarbij de lokale instantie als eerste actie onderneemt, voordat het de servers van Modulate controleert voor bevestiging. Dan escaleert het uiteindelijk tot het punt waarop het menselijke tussenkomst zou kunnen vereisen. Door elke check om de beurt te doorlopen, wat Modulate 'triage gates' noemt, is het de bedoeling dat ToxMod een klein team van moderators de tools geeft waarmee ze een veel grotere community effectief kunnen modereren.

"De trieste waarheid is dat iedereen die ervaring heeft gehad, van het proberen om voicechat te gebruiken op welk platform je ook was, en ontdekken dat, jongen, dat een slecht idee was", zei Modulate CEO Mike Pappas in een videogesprek met Lifewire. "In staat zijn om naar binnen te gaan en te zeggen: 'Dit is niet het Wilde Westen. Er zijn regels.' Ik denk dat dat heel belangrijk is."

Het systeem doorbreken

Natuurlijk is de tweede of derde vraag die u over ToxMod moet stellen, hoe u deze kunt doorbreken.

Met veel automatische moderatiesystemen, zoals de algoritmen die Twitter beheersen, is het gemakkelijk om ze uit te spelen tegen mensen die je niet mag. Meld je doelwit gewoon massaal aan met een paar sokpop-accounts en ze zullen op betrouwbare wijze een verbod opeten.

"Op basisniveau hoeft ToxMod niet te vertrouwen op die aanvullende spelersrapporten", zei Pappas. "Het is nog steeds in staat om solide schattingen te maken van aan welke overtredingen we aandacht moeten besteden. Je hoeft je geen zorgen te maken over spelers die het systeem proberen te spelen, want er is niet echt iets om te gamen.

Iedereen weet dat intimidatie, aanzetten tot haat en giftigheid in voicechat en gamen een enorm probleem is.

"Het enige waar je als speler controle over hebt, is je eigen audio," vervolgde Pappas. "Het ergste wat je kunt doen, is minder slecht zijn, zodat we je niet als een slechte acteur markeren, wat volgens mij iets is dat dicht in de buurt komt van missiesucces."

Over het algemeen is het idee achter ToxMod dus een actieve terugwinningspoging. Veel spelers hebben op dit moment een vorm van intimidatie ervaren door willekeurige vreemden in open spraakkanalen, variërend van willekeurige beledigingen tot actieve bedreigingen. Als gevolg hiervan hebben gamers de neiging om voicechat in het algemeen uit de weg te gaan en geven ze er de voorkeur aan het gemak op te geven in ruil voor hun eigen gemoedsrust.

"Wat we verwachten te zien [zijn slechte acteurs die] veel minder tijd besteden aan voicechat voordat ze gevonden en verwijderd worden", zei Pappas."Dat heeft meer dan alleen een lineaire impact. Wanneer iedereen voicechat als een veiligere plek ziet, zijn meer goede acteurs bereid om terug te komen naar voicechat en het eens te proberen. Ik denk dat alles in een positieve richting kan draaien."

Aanbevolen: