Waarom nieuwe profileringssoftware privacyproblemen oproept

Inhoudsopgave:

Waarom nieuwe profileringssoftware privacyproblemen oproept
Waarom nieuwe profileringssoftware privacyproblemen oproept
Anonim

Belangrijkste afhaalrestaurants

  • Software die kunstmatige intelligentie gebruikt om mensen te profileren, roept privacyproblemen op.
  • Cryfe combineert technieken voor gedragsanalyse met kunstmatige intelligentie.
  • Het Chinese bedrijf Alibaba kreeg onlangs kritiek nadat het naar verluidt had gezegd dat zijn software Oeigoeren en andere etnische minderheden zou kunnen detecteren.
Image
Image

Nieuwe software aangedreven door kunstmatige intelligentie die bedoeld is voor werkgevers om hun werknemers te profileren, roept bezorgdheid op over de privacy.

Een nieuw softwareplatform, Cryfe genaamd, combineert technieken voor gedragsanalyse met kunstmatige intelligentie. De ontwikkelaar beweert dat door het analyseren van kleine aanwijzingen, de software de bedoelingen van mensen tijdens interviews kan onthullen. Maar sommige waarnemers zeggen dat Cryfe en andere soorten software die gedrag analyseren, de privacy kunnen schenden.

"Bedrijven vertrouwen steeds meer op AI voor profilering", zei AI-expert Vaclav Vincale in een e-mailinterview. "Maar zelfs de mensen die deze algoritmen coderen, laat staan een medewerker van de klantenservice die je telefonisch bereikt, kunnen je niet vertellen waarom ze een bepaalde aanbeveling doen."

Meer dan woorden

Cryfe is ontwikkeld door een Zwitsers bedrijf waarvan de medewerkers door de FBI zijn opgeleid in profileringstechnieken. "Cryfe luistert in alle interpersoonlijke communicatie niet alleen naar woorden, maar identificeert ook andere signalen die door de mens worden uitgezonden, zoals emoties, micro-expressies en alle gebaren", zei Caroline Matteucci, de oprichter van Cryfe, in een e-mailinterview.

"Dit stelt ons bijvoorbeeld in staat om tijdens de werving op zoek te gaan naar de echte persoonlijkheid van onze gesprekspartner."

Matteucci zei dat de privacy van gebruikers wordt beschermd omdat het bedrijf transparant is over hoe zijn software werkt. "De gebruiker moet, voordat hij het platform kan gebruiken, de algemene voorwaarden accepteren", zei ze.

"Daar staat vermeld dat de gebruiker in geen geval een interview voor analyse mag indienen zonder schriftelijke toestemming van de gesprekspartner."

Cryfe is niet de enige door AI aangedreven software die beweert menselijk gedrag te analyseren. Er is ook Humantic, dat beweert consumentengedrag te analyseren. "Humantic's baanbrekende technologie voorspelt ieders gedrag zonder dat ze ooit een persoonlijkheidstest hoeven af te leggen", aldus de website van het bedrijf.

Image
Image

Het bedrijf beweert AI te gebruiken om psychologische profielen van sollicitanten te maken op basis van de woorden die ze gebruiken in cv's, sollicitatiebrieven, LinkedIn-profielen en elk ander stuk tekst dat ze indienen.

Gedragssoftware is in het verleden op juridische problemen gestuit. In 2019 meldde Bloomberg Law dat de Equal Employment Opportunity Commission (EEOC) gevallen van vermeende onwettige discriminatie heeft onderzocht als gevolg van door algoritmen ondersteunde, HR-gerelateerde beslissingen.

"Dit moet allemaal worden opgelost, want de toekomst van werving is AI", vertelde advocaat Bradford Newman aan Bloomberg.

Sommige waarnemers zijn het oneens met bedrijven die software voor het volgen van gedrag gebruiken, omdat deze niet nauwkeurig genoeg is. In een interview vertelde Nigel Duffy, wereldwijd leider op het gebied van kunstmatige intelligentie bij professionele dienstverlener EY, aan InformationWeek dat hij last heeft van software die quizzen op sociale media gebruikt en detectie beïnvloedt.

"Ik denk dat er heel overtuigende literatuur bestaat over het potentieel voor affectdetectie, maar ik heb begrepen dat de manier waarop dat vaak wordt geïmplementeerd nogal naïef is," zei hij.

"Mensen trekken conclusies die de wetenschap niet echt ondersteunt [zoals] beslissen dat iemand een potentieel goede werknemer is omdat ze veel glimlachen of besluiten dat iemand je producten leuk vindt omdat ze veel glimlachen."

Chinese bedrijven profileren naar verluidt minderheden

Het volgen van gedrag kan ook meer sinistere doeleinden hebben, zeggen sommige mensenrechtengroepen. In China heeft de onlinemarktplaatsgigant Alibaba onlangs opschudding veroorzaakt nadat het naar verluidt beweerde dat zijn software Oeigoeren en andere etnische minderheden zou kunnen detecteren.

The New York Times meldde dat de cloud computing-activiteiten van het bedrijf software hadden die afbeeldingen en video's scande.

Maar zelfs de mensen die deze algoritmen coderen… konden je niet vertellen waarom ze een bepaalde aanbeveling doen.

The Washington Post meldde onlangs ook dat Huawei, een ander Chinees technologiebedrijf, software had getest die wetshandhavers kon waarschuwen wanneer zijn bewakingscamera's Oeigoerse gezichten detecteerden.

Een patentaanvraag van Huawei uit 2018 beweerde naar verluidt dat de "identificatie van voetgangersattributen erg belangrijk is" in gezichtsherkenningstechnologie."De kenmerken van het doelobject kunnen geslacht (mannelijk, vrouwelijk), leeftijd (zoals tieners, middelbare leeftijd, oud) [of] ras (Han, Oeigoerse) zijn", aldus de applicatie.

Een Huawei-woordvoerder vertelde CNN Business dat de functie voor identificatie van etniciteit "nooit onderdeel van de applicatie had mogen worden".

Het ontluikende gebruik van kunstmatige intelligentie om enorme hoeveelheden gegevens te sorteren, zal ongetwijfeld zorgen voor privacy veroorzaken. De volgende keer dat je voor een sollicitatiegesprek gaat, weet je misschien nooit wie of wat je analyseert.

Aanbevolen: