Hoe algoritmische vooroordelen tieners kunnen kwetsen

Inhoudsopgave:

Hoe algoritmische vooroordelen tieners kunnen kwetsen
Hoe algoritmische vooroordelen tieners kunnen kwetsen
Anonim

Belangrijkste afhaalrestaurants

  • Algoritmische vooringenomenheid is schadelijk voor tieners die veel tijd op internet doorbrengen, zeggen experts.
  • Twitter-gebruikers ondervonden onlangs een probleem waarbij zwarte gezichten werden geruimd ten gunste van witte.
  • De zich ontwikkelende hersenen van tieners kunnen bijzonder vatbaar zijn voor de schadelijke effecten van algoritmische vooringenomenheid, zeggen onderzoekers.
Image
Image

Het vooroordeel dat in sommige technologie is ingebakken, bekend als algoritmische vooringenomenheid, kan schadelijk zijn voor veel groepen, maar experts zeggen dat het vooral schadelijk is voor tieners.

Algoritmische vooringenomenheid, wanneer computersystemen bevooroordeelde resultaten laten zien, is een groeiend probleem. Twitter-gebruikers vonden onlangs een voorbeeld van vooringenomenheid op het platform toen een algoritme voor beelddetectie dat foto's bijsnijdt, zwarte gezichten wegsnijdt ten gunste van witte. Het bedrijf verontschuldigde zich voor het probleem, maar heeft nog geen oplossing vrijgegeven. Het is een voorbeeld van de vooringenomenheid waarmee tieners worden geconfronteerd wanneer ze online gaan, wat ze meer doen dan welke andere leeftijdsgroep dan ook, zeggen experts.

"De meeste tieners zijn zich er niet van bewust dat sociale-mediabedrijven ze hebben om specifieke inhoud te promoten waarvan ze denken dat gebruikers ze leuk zullen vinden [om] ze zo lang mogelijk op het platform te laten blijven, " Dr. Mai- Ly Nguyen Steers, assistent-professor aan de School of Nursing aan de Duquesne University die het gebruik van sociale media onder adolescenten/studenten bestudeert, zei in een e-mailinterview.

"Zelfs als er een bepaald niveau van bewustzijn is over het algoritme, is het effect van niet genoeg likes en reacties nog steeds krachtig en kan het het zelfrespect van tieners aantasten," voegde Steers eraan toe.

Hersenen ontwikkelen

Algoritmische vooringenomenheid kan tieners op onvoorziene manieren beïnvloeden, aangezien hun prefrontale cortex nog in ontwikkeling is, legt Mikaela Pisani, Chief Data Scientist bij Rootstrap, uit in een e-mailinterview.

Het effect van niet genoeg vind-ik-leuks en reacties is nog steeds krachtig en kan het zelfrespect van tieners beïnvloeden.

"Tieners zijn bijzonder kwetsbaar voor het fenomeen van de 'Social Factory', waar algoritmen maatschappelijke clusters creëren op online platforms, wat leidt tot angst en depressie als niet wordt voldaan aan de behoeften van de tiener aan sociale goedkeuring," zei Pisani. "Algoritmen vereenvoudigen op basis van eerdere imperfecte gegevens, wat leidt tot een oververtegenwoordiging van stereotypen ten koste van meer genuanceerde benaderingen van identiteitsvorming.

"Als we het bredere standpunt innemen, moeten we als samenleving ook de vraag stellen of we algoritmen willen die de reis van onze tieners naar volwassenheid vormgeven, en ondersteunt dit systeem zelfs individuele persoonlijke groei in plaats van te onderdrukken?"

Vanwege deze problemen is er een groeiende behoefte om tieners in gedachten te houden bij het ontwerpen van algoritmen, zeggen experts.

"Op basis van de input van ontwikkelingsspecialisten, datawetenschappers en pleitbezorgers van jongeren, zou een 21e-eeuws beleid rond gegevensprivacy en algoritmisch ontwerp ook kunnen worden opgesteld met de specifieke behoeften van adolescenten in gedachten", Avriel Epps-Darling, een doctoraatsstudent student aan Harvard, schreef onlangs. "Als we in plaats daarvan doorgaan met het bagatelliseren of negeren van de manieren waarop tieners kwetsbaar zijn voor algoritmisch racisme, zal de schade waarschijnlijk nog generaties lang weerklinken."

Vooroordelen bestrijden

Totdat er een oplossing is, proberen sommige onderzoekers manieren te vinden om de schade aan jonge mensen te verminderen door bevooroordeelde algoritmen.

"Interventies zijn erop gericht tieners te laten inzien dat hun sociale-mediapatronen een negatieve invloed hebben op hun geestelijke gezondheid en proberen strategieën te bedenken om dat te verminderen (bijv. verminderd gebruik van sociale media), " zei Steers.

"Sommige van de studenten die we hebben geïnterviewd, hebben aangegeven dat ze zich genoodzaakt voelen om inhoud te genereren om 'relevant' te blijven, zelfs als ze niet naar buiten willen of berichten plaatsen', vervolgde ze. "Ze hebben echter het gevoel dat ze inhoud moeten genereren om hun connecties met hun volgers of vrienden te behouden."

Het ultieme antwoord zou het verwijderen van menselijke vooroordelen van computers kunnen zijn. Maar aangezien programmeurs ook maar mensen zijn, is dat een zware uitdaging, zeggen experts.

Een mogelijke oplossing is om computers te ontwikkelen die gedecentraliseerd zijn en geprogrammeerd om dingen die ze hebben geleerd te vergeten, zegt John Suit, Chief Technology Officer bij roboticabedrijf KODA.

"Via een gedecentraliseerd netwerk worden gegevens en de analyse van die gegevens op meerdere punten verzameld en geanalyseerd", zei Suit in een e-mailinterview. "Gegevens worden verzameld en verwerkt, niet van een enkele AI-mindverwerking binnen de grenzen van het algoritme, maar honderden of zelfs duizenden.

"Terwijl die gegevens worden verzameld en geanalyseerd, worden oude "conclusies" of overbodige gegevens vergeten. Via dit systeem zal een algoritme dat mogelijk met vooringenomenheid is begonnen, die vooringenomenheid uiteindelijk corrigeren en vervangen als het onjuist blijkt te zijn."

Hoewel vooringenomenheid een eeuwenoud probleem kan zijn, kunnen er manieren zijn om het te bestrijden, in ieder geval online. Het ontwerpen van computers die onze vooroordelen kwijtraken is de eerste stap.

Aanbevolen: