Belangrijkste afhaalrestaurants
- Facebook's Oversight Board heeft gevraagd om duidelijkere regels voor verkeerde informatie op de sociale media-website.
- Het bestuur heeft momenteel meerdere beslissingen van Facebook vernietigd om berichten te verwijderen die het als verkeerde informatie of haatzaaiende uitlatingen beschouwden, maar dat in werkelijkheid niet waren.
- Er is behoefte aan duidelijkere definities van wat wel en niet desinformatie of haatzaaiende taal is, vooral met het internationale bereik van Facebook.
Facebook's toezichtsraad, die is ingesteld om verder toezicht te houden op het verwijderen en modereren van berichten op de website, heeft een aantal eerdere beslissingen met betrekking tot verwijderde berichten ongedaan gemaakt, waardoor de behoefte aan duidelijkere definities en regels duidelijk werd.
De toezichtsraad heeft in december 2020 de eerste vijf zaken behandeld. Hoewel een van de berichten in de beoordeling afkomstig was uit de VS, kwamen de berichten in totaal uit vier verschillende continenten, die allemaal de verklaringen konden bekijken die in totaal verschillende manieren. Daarom moet het beleid dat Facebook in gang zet beknopt zijn en moet het werken met de community waarop de moderatietools zich richten.
"Facebook's 'onafhankelijke beoordeling'-activiteit moet over de internationale grenzen consistent zijn", schreef Jim Isaak, een voormalig voorzitter van het Institute of Electrical and Electronics Engineers, en een 30-jarige veteraan in de technologische industrie, ons via e-mail. "Maar wat in de VS 'hate speech' is, kan in andere autocratische samenlevingen als patriottisch worden gedefinieerd - waardoor de complexiteit van wat er wordt gedaan toeneemt."
Lijnen in het zand
Deze behoefte aan consistentie en meer beknopte regels speelt al een rol. Van de vijf zaken die de toezichtsraad van Facebook in december aannam, besloot de groep vier van de zaken ongedaan te maken, waarvan er twee duidelijk aantoonden dat er behoefte was aan betere moderatie.
In een van de vernietigde zaken oordeelde de raad in het voordeel van een vrouw wiens Instagram-bericht over borstkanker automatisch van de website werd verwijderd wegens het schenden van haar beleid voor naaktheid en seksuele activiteit voor volwassenen.
Hoewel Facebook de foto al had hersteld, toonde het bestuur bezwaar tegen het verwijderen ervan. Het bestuur raadde Facebook zelfs aan om een bezwaarsysteem in te voeren, zodat gebruikers kunnen zien wanneer een bericht is verwijderd, waarom het is verwijderd en zelfs manieren worden voorgesteld om met een mens te praten om een oplossing te zoeken.
Het bestuur ontdekte dat, hoewel de vrouw een bericht had gedeeld met onbedekte en zichtbare vrouwelijke tepels, de foto niet in strijd was met de communityrichtlijnen van Instagram. De norm voor naaktheid en seksuele activiteit voor volwassenen die Facebook in zijn gemeenschapsnormen handhaaft, staat naaktheid toe wanneer de gebruiker om een medische reden of een andere reden het bewustzijn wil vergroten.
Een ander bericht, dat werd gedeeld vanuit Myanmar, bevatte taal over moslims waarvan het bestuur zei dat het als aanstootgevend kan worden beschouwd, maar het bereikte niet het niveau van haatzaaien om te rechtvaardigen dat het werd verwijderd of als tegen de regels werd beschouwd.
Dit is waar dingen bijzonder lastig beginnen te worden.
Welke kant is omhoog?
"Facebook is internationaal actief", vertelde Isaak via e-mail aan Lifewire. "Elk rechtsgebied heeft zijn eigen regels en Facebook kan verantwoordelijk worden gehouden volgens die in andere landen."
Facebook moet alle regels van de gebieden waarin het actief is in gedachten houden bij het opzetten van nieuw beleid. Door het beleid onduidelijk te maken, laat Facebook ruimte voor fouten die ertoe kunnen leiden dat de raad van toezicht in de toekomst meer zaken moet terugdraaien.
Nu de verspreiding van haatzaaiende uitlatingen en verkeerde informatie zo wijdverspreid wordt, vooral op sociale media zoals Facebook en Twitter, is het belangrijk voor deze bedrijven om duidelijke richtlijnen te bieden die vervolgens kunnen worden gebruikt om de gemeenschap te modereren.
Wat in de VS 'hate speech' is, kan in andere autocratische samenlevingen als patriottisch worden gedefinieerd…
Natuurlijk zijn er altijd andere opties om dit soort problemen te helpen verminderen. In feite werd een van de zaken die het bestuur oorspronkelijk in december moest overzien, uit de lijst verwijderd na het verwijderen van de post door de gebruiker.
Door gebruikers gegenereerde moderatie is iets dat we al succesvol hebben gezien op websites zoals Wikipedia, en onlangs is Twitter zelf opgevoerd door Birdwatch uit te brengen, een door de gemeenschap aangedreven moderatiesysteem om de verspreiding van verkeerde informatie te helpen stoppen.
Deze methoden hebben echter andere problemen. Daarom is het verkrijgen van een standaard basislijn voor de verwachtingen van de gemeenschap de sleutel tot Facebook om in de toekomst een betere moderatie van zijn apps en websites te bieden.