AI-misdaadvoorspelling kan de verkeerde mensen beschuldigen

Inhoudsopgave:

AI-misdaadvoorspelling kan de verkeerde mensen beschuldigen
AI-misdaadvoorspelling kan de verkeerde mensen beschuldigen
Anonim

Belangrijkste afhaalrestaurants

  • Een softwarebedrijf verzamelt naar verluidt sociale media-informatie om profielen te maken die kunnen worden gebruikt om mensen te identificeren die beveiligingsrisico's vormen.
  • Voyager Labs heeft een belangrijke deal gesloten met een Japanse overheidsinstantie.
  • Maar experts waarschuwen dat AI-voorspellingssoftware voor de gek gehouden kan worden.
Image
Image

Uw online informatie kan worden gebruikt om te voorspellen of u een misdaad zou plegen.

Voyager Labs verzamelt naar verluidt sociale media-informatie om profielen te maken die kunnen worden gebruikt om mensen te identificeren die veiligheidsrisico's vormen. Het maakt deel uit van een groeiende inspanning om kunstmatige intelligentie (AI) te gebruiken om potentiële criminelen te onderzoeken. Maar sommige experts zeggen dat de beweging bol staat van potentiële problemen.

"Het is erg moeilijk om menselijk gedrag te voorspellen", vertelde Matthew Carr, een beveiligingsonderzoeker bij Atumcell Group, aan Lifewire in een e-mailinterview. “We zijn niet eens in staat om ons eigen gedrag te voorspellen, laat staan dat van iemand anders. Ik denk dat het mogelijk is dat AI in de toekomst hiervoor gebruikt kan worden, maar daar zijn we op dit moment nog lang niet toe in staat."

Profielen maken

Zoals The Guardian onlangs meldde, onderzocht de politie van Los Angeles het gebruik van de misdaadvoorspellingssoftware van Voyager Lab. Het bedrijf kondigde ook aan dat het een belangrijke deal had gesloten met een Japanse overheidsinstantie.

De Japanse overeenkomst biedt de overheidsinstantie een op AI gebaseerd onderzoeksplatform dat enorme hoeveelheden informatie uit elke bron analyseert, inclusief open en diepe gegevens.

"Ik ben blij dat we samenwerken in de strijd tegen terreur en misdaad", zegt Divya Khangarot, Managing Director APAC bij Voyager Labs, in het persbericht. "Door gebruik te maken van de geavanceerde intelligentieoplossingen van Voyager Lab, krijgen onze klanten unieke mogelijkheden om proactief potentiële bedreigingen te identificeren en te verstoren. We brengen extra lagen van diepgaande onderzoeksinzichten met behulp van een combinatie van AI, Machine Learning en OSINT om verborgen sporen, geschonden informatie, en slechte acteurs."

Niet zo slim?

Maar in een e-mailinterview trok Matt Heisie, de mede-oprichter van Ferret.ai, dat ook AI gebruikt om overtreders te voorspellen, enkele beweringen van Voyager Labs in twijfel.

"Is er een even duidelijk verband tussen bijvoorbeeld een arrestatieverleden en toekomstig crimineel gedrag, als een zwarte vlek op een test en de ontwikkeling van een tumor?" hij zei. "Denk aan alle mogelijke verassingen die bij die arrestatie terechtkwamen - in welke buurt de persoon woonde, de kwantiteit en kwaliteit, zelfs vooroordelen, van de politie in dat gebied. De leeftijd van de persoon, hun geslacht, hun fysieke verschijning, al deze hebben een kruisende invloed op de waarschijnlijkheid dat die persoon een arrestatieblad heeft, volledig gescheiden van hun werkelijke neiging om de misdaad te plegen die we proberen te voorspellen."

Beklaagden met betere advocaten zijn waarschijnlijker in staat om te voorkomen dat documenten openbaar worden gemaakt, zei Heisie. Sommige rechtsgebieden beperken het vrijgeven van mugshots of arrestatiegegevens om de beschuldigde te beschermen.

"De computer leert op basis van de gegevens die u hem geeft en neemt alle vooroordelen op die bij die gegevensverzameling zijn gebruikt…"

"Dit alles voegt nog meer vooringenomenheid toe aan de algoritmen," voegde hij eraan toe. "De computer zal leren op basis van de gegevens die u hem geeft en alle vooroordelen die bij die gegevensverzameling zijn gebruikt, opnemen in het leren en de interpretatie."

Er zijn verschillende pogingen gedaan om misdaad te voorspellen die AI's voorspelt, en met vaak schandalige resultaten, zei Heisie.

COMPAS, een algoritme dat wetshandhavers gebruiken om recidive te voorspellen, wordt vaak gebruikt bij het bepalen van veroordelingen en borgtocht. Het heeft te maken gehad met schandaal dat teruggaat tot 2016 vanwege raciale vooroordelen, waarbij voorspelde dat zwarte verdachten een hoger risico op recidive vormden dan ze in werkelijkheid deden, en het omgekeerde voor blanke verdachten.

Meer dan 1.000 technologen en wetenschappers, waaronder academici en AI-experts van Harvard, MIT, Google en Microsoft, spraken zich in 2020 uit tegen een paper waarin werd beweerd dat onderzoekers een algoritme hadden ontwikkeld dat criminaliteit kon voorspellen uitsluitend op basis van een iemands gezicht en zegt dat het publiceren van dergelijke studies reeds bestaande raciale vooroordelen in het strafrechtsysteem versterkt, merkte Heisie op.

Image
Image

China is de grootste en snelstgroeiende markt voor dit soort technologie, voornamelijk dankzij de wijdverbreide toegang tot privégegevens, met meer dan 200 miljoen bewakingscamera's en geavanceerd AI-onderzoek dat zich jarenlang op dit probleem richt, zei Heisie. Systemen zoals de Police Cloud van CloudWalk worden nu gebruikt om criminelen te voorspellen en te volgen en om wetshandhavers te lokaliseren.

"Daar worden echter ook substantiële vooroordelen gerapporteerd", zei Heisie.

Heisie voegde eraan toe dat zijn bedrijf zorgvuldig de gegevens beheert die binnenkomen en geen mugshots of arrestatiedossiers gebruikt, "in plaats daarvan gericht op meer objectieve criteria."

"Onze AI heeft geleerd van de verzamelde gegevens, maar belangrijker nog, het leert ook van mensen, die zelf records analyseren, beheren en evalueren, en ons vertellen over hun interacties met anderen", voegde hij eraan toe. "We behouden ook volledige transparantie en vrije en openbare toegang tot onze applicatie (zo snel als we ze in bèta kunnen laten) en verwelkomen inzicht in onze processen en procedures."

Aanbevolen: