AI kan eindelijk helpen om haatzaaien te bestrijden

Inhoudsopgave:

AI kan eindelijk helpen om haatzaaien te bestrijden
AI kan eindelijk helpen om haatzaaien te bestrijden
Anonim

Belangrijkste afhaalrestaurants

  • Met een nieuwe softwaretool kan AI internetopmerkingen controleren op haatzaaien.
  • AI is nodig om internetinhoud te modereren vanwege de enorme hoeveelheid materiaal die de menselijke capaciteiten overtreft.
  • Maar sommige experts zeggen dat AI-monitoring van spraak privacyproblemen oproept.
Image
Image

Naarmate online haatzaaien toenemen, zegt een bedrijf dat het misschien een oplossing heeft die niet afhankelijk is van menselijke moderators.

Een startup genaamd Spectrum Labs levert kunstmatige-intelligentietechnologie aan platformproviders om giftige uitwisselingen in re altime te detecteren en af te sluiten. Maar experts zeggen dat AI-monitoring ook privacykwesties oproept.

"AI-monitoring vereist vaak het kijken naar patronen in de loop van de tijd, waardoor de gegevens moeten worden bewaard", vertelde David Moody, een senior medewerker bij Schellman, een beoordelingsbedrijf voor beveiligings- en privacycompliance, aan Lifewire in een e-mailinterview. "Deze gegevens kunnen gegevens bevatten die door de wet zijn aangemerkt als privacygegevens (persoonlijk identificeerbare informatie of PII)."

Meer haatzaaien

Spectrum Labs belooft een high-tech oplossing voor het eeuwenoude probleem van haatzaaien.

"Gemiddeld helpen we platforms om de inspanningen om inhoud te modereren met 50% te verminderen en de detectie van toxisch gedrag met 10x te verhogen", beweert het bedrijf op zijn website.

Spectrum zegt samen te werken met onderzoeksinstituten met expertise in specifiek schadelijk gedrag om meer dan 40 gedragsidentificatiemodellen te bouwen. Het Guardian-platform voor contentmoderatie van het bedrijf is gebouwd door een team van datawetenschappers en moderators om "gemeenschappen te beschermen tegen toxiciteit."

Er is een groeiende behoefte aan manieren om haatspraak te bestrijden, aangezien het voor een mens onmogelijk is om elk stukje online verkeer te controleren, Dylan Fox, de CEO van AssemblyAI, een startup die spraakherkenning biedt en klanten heeft die betrokken zijn bij het controleren van haat toespraak, vertelde Lifewire in een e-mailinterview.

"Er zijn ongeveer 500 miljoen tweets per dag alleen al op Twitter", voegde hij eraan toe. "Zelfs als één persoon elke 10 seconden een tweet zou kunnen checken, zou Twitter daarvoor 60 duizend mensen in dienst moeten hebben. In plaats daarvan gebruiken we slimme tools zoals AI om het proces te automatiseren."

In tegenstelling tot een mens kan AI 24/7 werken en mogelijk rechtvaardiger zijn omdat het is ontworpen om zijn regels uniform toe te passen op alle gebruikers zonder dat persoonlijke overtuigingen tussenkomen, zei Fox. Er zijn ook kosten voor die mensen die inhoud moeten controleren en modereren.

"Ze kunnen worden blootgesteld aan geweld, haat en smerige daden, die schadelijk kunnen zijn voor iemands geestelijke gezondheid", zei hij.

Spectrum is niet het enige bedrijf dat online haatspraak automatisch probeert te detecteren. Zo heeft Centre Malaysia onlangs een online tracker gelanceerd die is ontworpen om haatzaaiende uitlatingen onder Maleisische netizens op te sporen. De software die ze ontwikkelden, de Tracker Benci, maakt gebruik van machine learning om online haatspraak te detecteren, met name op Twitter.

De uitdaging is om ruimtes te creëren waarin mensen echt constructief met elkaar kunnen omgaan.

Privacykwesties

Hoewel technische oplossingen zoals Spectrum online haatspraak kunnen bestrijden, roepen ze ook vragen op over hoeveel politiecomputers zouden moeten doen.

Er zijn implicaties voor de vrijheid van meningsuiting, maar niet alleen voor de sprekers wiens berichten zouden worden verwijderd als haatdragende taal, vertelde Irina Raicu, directeur internetethiek bij het Markkula Center for Applied Ethics aan de Santa Clara University, aan Lifewire in een e-mail interview.

"Het toestaan van intimidatie in de naam van 'vrijheid van meningsuiting' heeft ertoe geleid dat de doelen van dergelijke uitingen (vooral wanneer deze op bepaalde individuen zijn gericht) stoppen met praten - om verschillende gesprekken en platforms volledig te verlaten, "zei Raicu."De uitdaging is om ruimtes te creëren waarin mensen echt constructief met elkaar kunnen omgaan."

AI-spraakmonitoring zou geen privacyproblemen moeten opleveren als bedrijven openbaar beschikbare informatie gebruiken tijdens monitoring, zei Fox. Als het bedrijf echter details koopt over de interactie van gebruikers op andere platforms om problematische gebruikers vooraf te identificeren, kan dit privacyproblemen veroorzaken.

"Het kan zeker een beetje een grijs gebied zijn, afhankelijk van de toepassing," voegde hij eraan toe.

Image
Image

Justin Davis, de CEO van Spectrum Labs, vertelde Lifewire in een e-mail dat de technologie van het bedrijf binnen een fractie van een seconde 2 tot 5000 rijen gegevens kan beoordelen. "Het belangrijkste is dat technologie de hoeveelheid giftige inhoud kan verminderen waaraan menselijke moderators worden blootgesteld," zei hij.

We staan misschien aan de vooravond van een revolutie in het online monitoren van menselijke spraak en tekst door AI. Toekomstige ontwikkelingen omvatten betere onafhankelijke en autonome monitoringmogelijkheden om voorheen onbekende vormen van haatzaaiende uitlatingen of andere censureerbare patronen die zich zullen ontwikkelen, te identificeren, zei Moody.

AI zal binnenkort ook in staat zijn om patronen in de specifieke spraakpatronen te herkennen en bronnen en hun andere activiteiten met elkaar in verband te brengen door middel van nieuwsanalyse, openbare dossiers, analyse van verkeerspatronen, fysieke monitoring en vele andere opties, voegde hij eraan toe.

Maar sommige experts zeggen dat mensen altijd met computers zullen moeten werken om haatzaaien te controleren.

"AI alleen zal niet werken", zei Raicu. "Het moet worden herkend als een onvolmaakt hulpmiddel dat moet worden gebruikt in combinatie met andere reacties."

Correctie 25-1-2022: Citaat van Justin Davis toegevoegd in de 5e alinea vanaf het einde om een e-mail na publicatie weer te geven.

Aanbevolen: