Belangrijkste afhaalrestaurants
- YouTube's automatische leeftijdsbeperkende software is reden tot bezorgdheid over LGBTQ+-inhoud op het platform.
- Het bedrijf is ontsierd door controverse over makers van LGBTQ+ inhoud die twijfel zaaien.
- Vooroordelen in machine learning geven geloof aan het idee dat de onvolmaakte implementatie van filters de toegang waarschijnlijk onterecht zal beperken.
Met een geschiedenis van oneerlijke targeting van makers van LGBTQ+-inhoud in het moderatieproces, wordt de nieuwe op AI gebaseerde technologie van YouTube gezien als een verontrustende volgende stap voor de techgigant.
Op de officiële YouTube-blog van vorige week onthulde het platform voor het delen van video's plannen om nieuwe automatische software uit te brengen om "consequenter leeftijdsbeperkingen toe te passen" op video's die ongepast worden geacht voor jongere kijkers.
Gemotiveerd door recente zorgen over kinderen in de app, is het nieuwe systeem gebaseerd op machine-learning kunstmatige-intelligentiesoftware met de mogelijkheid om af te zien van menselijke moderators voor een meer automatisch proces. Het probleem? De geautomatiseerde systemen van YouTube zijn ervan beschuldigd LHBTQ+-content en videomakers te selecteren, simpelweg omdat ze bestaan.
Zelfs als het niet kwaadaardig is, wat ik niet denk dat het is, is het een gebrek aan input van verschillende stemmen - of op zijn minst een gebrek aan respect.
"Machineleren wordt geïnformeerd door en gecreëerd door mensen, en het is mogelijk om die vooroordelen inherent te hebben of door de machine zelf geleerd te hebben", zei YouTuber Rowan Ellis in een telefonisch interview met Lifewire. "De vooringenomenheid met betrekking tot [LHBTQ+]-inhoud is duidelijk gebleken uit de eerdere ervaringen van [LHBTQ+] YouTubers, en ik heb geen bewijs gezien dat er iets is gedaan om dit te voorkomen."
Baby, nu hebben we slecht bloed
Ellis is een YouTuber die educatieve inhoud maakt met een feministische en queer neiging, en in 2017 publiceerde ze een video over de beperkte modus van het bedrijf. Als een eerste poging tot automatische inhoudsmoderatie, stelde deze modus gebruikers in staat om optioneel "potentieel volwassen inhoud" vooraf te screenen op zoeksuggesties en aanbevelingen.
Met meer dan 100.000 views, gelooft ze dat er een bewuste poging is gedaan om te voorkomen dat haar kanaal wordt beperkt vanwege haar vocale verzet tegen de excessen van YouTube's nieuwe stap in de richting van moderatie. Andere gebruikers op het platform hadden minder geluk en lieten YouTube dit weten.
Een class-action rechtszaak tegen YouTube werd in augustus 2019 aangespannen door een groep van acht LGBTQ+-makers die het bedrijf uit Silicon Valley beschuldigden van het beperken van queer- en trans-videomakers en -inhoud. De rechtszaak beweert dat de site gebruik maakt van "onwettige inhoudsregulering, distributie en het genereren van inkomsten die de LGBT-eisers en de grotere LGBT-gemeenschap stigmatiseren, beperken, blokkeren, demonteren en financieel schaden." Het baant zich nog steeds een weg door de rechtbanken van Californië.
Machineleren wordt geïnformeerd door en gecreëerd door mensen, en het is mogelijk om die vooroordelen inherent te hebben of door de machine zelf geleerd te hebben.
In juni van datzelfde jaar kreeg het platform een stortvloed aan media-aandacht nadat het weigerde de populaire conservatieve commentator Steven Crowder snel te berispen voor een maandenlange, homofobe intimidatiecampagne tegen Vox-journalist en gastheer Carlos Maza. Dit bevestigde wat Ellis zei een patroon is met het online platform van het negeren van de unieke uitdagingen waarmee queer-makers worden geconfronteerd. Het gebrek aan vertrouwen van LGBTQ+-makers in het vermogen van YouTube om voor hen op te komen, is niet zonder verdienste.
"Ik denk niet dat ze de noodzaak hebben begrepen van transparantie met betrekking tot sociale kwesties en het waarborgen van gelijkheid", zei ze. "Er zijn nog steeds kinderen over de hele wereld die zijn opgegroeid met het idee dat homo zijn verkeerd is, en wanneer ze dat geloof in twijfel gaan trekken, maar ontdekken dat het wordt afgesloten door een veilige zoektocht of beperking, zal het dit idee versterken dat het is verkeerd, ongepast, volwassen, pervers en vies."
Niet automatisch leren
Met zijn smerige geschiedenis met betrekking tot makers van LGBTQ + -inhoud op zijn platform, doemt er nog steeds zorgen op over de implementatie van het vermogen van de machine learning-software om hogere normen te onderscheiden. Don Heider, uitvoerend directeur van het Markkula Centrum voor Toegepaste Ethiek, suggereert dat de kans op dwaasheid een te groot risico is om te gokken.
"Het is moeilijk te geloven dat AI inhoud uit meerdere landen met verschillende culturele normen en standaarden effectief kan beheren", schreef hij in een e-mailinterview. "AI wordt te vaak gezien als het antwoord op complexe vragen. Op dit moment heeft AI en de manier waarop het wordt gecreëerd het moeilijk om zelfs maar met eenvoudige taken om te gaan, laat staan om het even welke contentmoderatie met enige mate van complexiteit."
YouTube besloot tot het gebruik van AI-technologie vanwege een gebrek aan consistente moderatie door menselijke moderators, volgens zijn blog. Het verhogen van het gebruik van geautomatiseerde filters om video's te verwijderen die ongeschikt werden geacht, werd de norm, en het implementeren van dezelfde procedures voor het leeftijdsbeperkingsbeleid wordt gezien als een logische volgende stap.
Als bedrijf dat zijn processen geleidelijk wil verbeteren na langdurige kritiek op zijn relatie met minderjarige consumenten, komt deze beslissing niet als een verrassing.
Ik denk niet dat ze de noodzaak hebben begrepen van transparantie met betrekking tot sociale kwesties en het waarborgen van gelijkheid.
Kinderen zijn een belangrijke doelgroep geworden voor de site voor het delen van video's. In augustus ontdekte het analysebedrijf voor digitale video's Tubular dat, behalve muziekvideo's, content gericht op kinderen bovenaan de maandlijst stond voor de meest bekeken video's op YouTube.
Het belang van het bedrijf om deze lucratieve, opkomende krachtpatser op het platform te beschermen, is logisch. De tools die worden gebruikt om deze bescherming af te dwingen, blijven echter ongemakkelijk voor degenen die zich al stroomafwaarts van de moderatieprocedures van het bedrijf bevinden.
"Mijn zorg is dat het veel kwaad zal doen en [LHBTQ+]-jongeren niet zal beschermen die informatieve, openhartige en eerlijke inhoud nodig hebben die veel [LHBTQ+] YouTubers zouden kunnen bieden, maar die in hun systeem worden gemarkeerd als ongepast', zei Ellis."Zelfs als het niet kwaadaardig is, wat ik niet denk dat het is, is het een gebrek aan input van verschillende stemmen - of op zijn minst een gebrek aan respect.
"We zien dat de hele tijd in de technologie. Als je kijkt naar gezichtsherkenning die geen onderscheid maakt tussen verschillende zwarte gezichten, of als we naar medicijnen kijken en zien dat medicatie alleen op een bepaald geslacht is getest. Deze zijn grotere gesprekken, en YouTube is daar niet van uitgezonderd."