Waarom software voor het lezen van emoties uw privacy kan schenden

Inhoudsopgave:

Waarom software voor het lezen van emoties uw privacy kan schenden
Waarom software voor het lezen van emoties uw privacy kan schenden
Anonim

Belangrijkste afhaalrestaurants

  • Zoom zei naar verluidt dat het AI zou gebruiken om het sentiment of het betrokkenheidsniveau van een gebruiker te evalueren.
  • Mensenrechtengroepen vragen Zoom om zijn plan te heroverwegen vanwege zorgen over privacy en gegevensbeveiliging.
  • Sommige bedrijven gebruiken ook emotiedetectiesoftware tijdens interviews om te beoordelen of de gebruiker oplet.
Image
Image

Het toenemende gebruik van kunstmatige intelligentie (AI) om menselijke emoties te monitoren leidt tot bezorgdheid over de privacy.

Mensenrechtenorganisaties vragen Zoom om zijn plan om emotie-analyserende AI in zijn videoconferentiesoftware te introduceren, te vertragen. Het bedrijf heeft naar verluidt gezegd dat het AI zal gebruiken om het sentiment of de betrokkenheid van een gebruiker te evalueren.

"Experts geven toe dat emotieanalyse niet werkt", schreef het consortium van mensenrechtenorganisaties, waaronder de ACLU, in een brief aan Zoom. "Gezichtsuitdrukkingen staan vaak los van de onderliggende emoties, en onderzoek heeft uitgewezen dat zelfs mensen de emoties van anderen soms niet nauwkeurig kunnen lezen of meten. Het ontwikkelen van deze tool voegt geloofwaardigheid toe aan pseudowetenschap en zet je reputatie op het spel."

Zoom reageerde niet onmiddellijk op een verzoek van Lifewire om commentaar.

Je emoties in de gaten houden

Volgens het Protocol-artikel zou het Zoom-monitoringsysteem, Q for Sales genaamd, de gesprekstijdverhouding, responsvertraging en frequente sprekerwisselingen van gebruikers controleren om bij te houden hoe betrokken de persoon is. Zoom zou deze gegevens gebruiken om scores tussen nul en 100 toe te kennen, waarbij hogere scores een hogere betrokkenheid of sentiment aangeven.

De mensenrechtenorganisaties beweren dat de software mensen met een handicap of bepaalde etniciteiten kan discrimineren door ervan uit te gaan dat iedereen dezelfde gezichtsuitdrukkingen, stempatronen en lichaamstaal gebruikt om te communiceren. De groepen suggereren ook dat de software een risico voor gegevensbeveiliging kan vormen.

Image
Image

"Het oogsten van zeer persoonlijke gegevens kan van elke entiteit die deze technologie gebruikt een doelwit maken voor snuffelende overheidsinstanties en kwaadwillende hackers", aldus de brief.

Julia Stoyanovich, een professor in computerwetenschappen en techniek aan de New York University, vertelde Lifewire in een e-mailinterview dat ze sceptisch is over de beweringen achter emotiedetectie.

"Ik zie niet in hoe dergelijke technologie kan werken - de emotionele expressie van mensen is zeer individueel, zeer cultureel afhankelijk en zeer contextspecifiek", zei Stoyanovich."Maar, misschien nog belangrijker, ik zie niet in waarom we zouden willen dat deze tools werken. Met andere woorden, we zouden nog meer in de problemen komen als ze goed zouden werken. Maar misschien moeten we, zelfs voordat we nadenken over de risico's, vraag-wat zijn de potentiële voordelen van dergelijke technologie?"

Zoom is niet het enige bedrijf dat emotiedetectiesoftware gebruikt. Theo Wills, senior directeur privacy bij Kuma LLC, een adviesbureau op het gebied van privacy en beveiliging, vertelde Lifewire via e-mail dat software om emoties te detecteren tijdens interviews wordt gebruikt om te beoordelen of de gebruiker oplet. Het wordt ook getest in de transportsector om te controleren of chauffeurs slaperig lijken, op videoplatforms om interesse te peilen en aanbevelingen op maat te doen, en in educatieve tutorials om te bepalen of een bepaalde lesmethode aantrekkelijk is.

Wills beweerde dat de controverse rond software voor het monitoren van emoties meer een kwestie is van gegevensethiek dan van privacy. Ze zei dat het gaat om het systeem dat beslissingen neemt op basis van ingevingen.

"Met deze technologie ga je nu uit van de reden waarom ik een bepaalde uitdrukking op mijn gezicht heb, maar de drijfveer achter een uitdrukking varieert sterk door zaken als sociale of culturele opvoeding, gezinsgedrag, ervaringen uit het verleden of nervositeit op het moment, "voegde Wills eraan toe. "Het algoritme baseren op een aanname is inherent gebrekkig en mogelijk discriminerend. Veel populaties zijn niet vertegenwoordigd in de populatie waarop de algoritmen zijn gebaseerd, en de juiste weergave moet worden geprioriteerd voordat dit kan worden gebruikt."

Praktische overwegingen

De problemen die worden veroorzaakt door software voor het volgen van emoties kunnen zowel praktisch als theoretisch zijn. Matt Heisie, de mede-oprichter van Ferret.ai, een AI-gestuurde app die relatie-intelligentie biedt, vertelde Lifewire in een e-mail dat gebruikers moeten vragen waar de analyse van gezichten wordt gedaan en welke gegevens worden opgeslagen. Wordt het onderzoek gedaan op gespreksopnames, verwerkt in de cloud of op het lokale apparaat?

Ook vroeg Heisie, naarmate het algoritme leert, welke gegevens het verzamelt over het gezicht of de bewegingen van een persoon die mogelijk van het algoritme kunnen worden losgekoppeld en gebruikt om iemands biometrische gegevens te recreëren? Bewaart het bedrijf snapshots om de lessen van het algoritme te verifiëren of valideren, en wordt de gebruiker op de hoogte gesteld van deze nieuwe afgeleide gegevens of opgeslagen afbeeldingen die mogelijk worden verzameld uit hun oproepen?

"Dit zijn allemaal problemen die veel bedrijven hebben opgelost, maar er zijn ook bedrijven die opgeschrikt zijn door schandalen als blijkt dat ze dit niet correct hebben gedaan", zei Heisie. "Facebook is het belangrijkste geval van een bedrijf dat zijn gezichtsherkenningsplatform terugdraaide vanwege zorgen over de privacy van gebruikers. Moederbedrijf Meta ha alt nu AR-functies van Instagram in sommige rechtsgebieden zoals Illinois en Texas vanwege privacywetten rond biometrische gegevens."

Aanbevolen: