Belangrijkste afhaalrestaurants
- Een nieuw artikel beweert dat kunstmatige intelligentie kan bepalen welke onderzoeksprojecten meer regelgeving nodig hebben dan andere.
- Het maakt deel uit van een groeiende inspanning om te ontdekken wat voor soort AI gevaarlijk kan zijn.
-
Een expert zegt dat het echte gevaar van AI is dat het mensen dom kan maken.
Kunstmatige intelligentie (AI) biedt veel voordelen, maar ook enkele potentiële gevaren. En nu hebben onderzoekers een methode voorgesteld om hun geautomatiseerde creaties in de gaten te houden.
Een internationaal team zegt in een nieuw artikel dat AI kan bepalen welke soorten onderzoeksprojecten meer regelgeving nodig hebben dan andere. De wetenschappers gebruikten een model dat concepten uit de biologie en wiskunde combineert en deel uitmaakt van een groeiende inspanning om te ontdekken wat voor soort AI gevaarlijk kan zijn.
"Natuurlijk, hoewel het 'sci-fi'-gevaarlijke gebruik van AI kan ontstaan als we dat besluiten […], wat AI gevaarlijk maakt, is niet AI zelf, maar [hoe we het gebruiken], " Thierry Rayna, de voorzitter van Technology for Change, aan de École Polytechnique in Frankrijk, vertelde Lifewire in een e-mailinterview. "De implementatie van AI kan competentieverhogend zijn (het versterkt bijvoorbeeld de relevantie van de vaardigheden en kennis van mensen/werknemers) of competentievernietiging, d.w.z. AI maakt bestaande vaardigheden en kennis minder nuttig of overbodig."
Tabbladen bijhouden
De auteurs van het recente artikel schreven in een bericht dat ze een model hebben gebouwd om hypothetische AI-competities te simuleren. Ze hebben de simulatie honderden keren uitgevoerd om te proberen te voorspellen hoe AI-races in de echte wereld zouden kunnen werken.
"De variabele die we bijzonder belangrijk vonden, was de "lengte" van de race - de tijd die onze gesimuleerde races nodig hadden om hun doel te bereiken (een functioneel AI-product), "schreven de wetenschappers. "Toen AI-races snel hun doel bereikten, ontdekten we dat concurrenten die we hadden gecodeerd om altijd de veiligheidsmaatregelen over het hoofd te zien, altijd wonnen."
De onderzoekers ontdekten daarentegen dat AI-projecten op lange termijn niet zo gevaarlijk waren, omdat de winnaars niet altijd degenen waren die veiligheid over het hoofd zagen. "Gezien deze bevindingen, zal het belangrijk zijn voor regelgevers om vast te stellen hoe lang verschillende AI-races waarschijnlijk zullen duren, waarbij verschillende voorschriften worden toegepast op basis van hun verwachte tijdschema's", schreven ze. "Onze bevindingen suggereren dat één regel voor alle AI-races - van sprints tot marathons - tot resultaten zal leiden die verre van ideaal zijn."
David Zhao, de directeur van Coda Strategy, een bedrijf dat adviseert over AI, zei in een e-mailinterview met Lifewire dat het identificeren van gevaarlijke AI moeilijk kan zijn. De uitdagingen liggen in het feit dat moderne benaderingen van AI een diepgaande leerbenadering hebben.
"We weten dat deep learning betere resultaten oplevert in tal van gebruikssituaties, zoals beelddetectie of spraakherkenning", zei Zhao. "Het is echter onmogelijk voor mensen om te begrijpen hoe een deep learning-algoritme werkt en hoe het zijn output produceert. Daarom is het moeilijk te zeggen of een AI die goede resultaten produceert gevaarlijk is, omdat het voor mensen onmogelijk is om te begrijpen wat er aan de hand is."
Software kan "gevaarlijk" zijn bij gebruik in kritieke systemen, die kwetsbaarheden hebben die kunnen worden uitgebuit door slechte actoren of die onjuiste resultaten opleveren, zei Matt Shea, directeur strategie bij AI-bedrijf MixMode, via e-mail. Hij voegde eraan toe dat onveilige AI ook kan leiden tot onjuiste classificatie van resultaten, gegevensverlies, economische impact of fysieke schade.
"Met traditionele software coderen ontwikkelaars algoritmen die door een persoon kunnen worden onderzocht om erachter te komen hoe een kwetsbaarheid kan worden gedicht of een bug kan worden opgelost door naar de broncode te kijken," zei Shea."Met AI wordt echter een groot deel van de logica gemaakt van gegevens zelf, gecodeerd in gegevensstructuren zoals neurale netwerken en dergelijke. Dit resulteert in systemen die "zwarte dozen" zijn die niet kunnen worden onderzocht om kwetsbaarheden te vinden en op te lossen zoals normale software."
Gevaren in het verschiet?
Hoewel AI in films als The Terminator is afgebeeld als een kwaadaardige kracht die de mensheid wil vernietigen, zijn de echte gevaren misschien prozaïscher, zeggen experts. Rayna suggereert bijvoorbeeld dat AI ons dommer zou kunnen maken.
"Het kan mensen beroven van het trainen van hun hersenen en het ontwikkelen van expertise," zei hij. “Hoe kun je een expert worden in durfkapitaal als je niet het grootste deel van je tijd besteedt aan het lezen van startup-applicaties? Erger nog, AI is notoir 'black box' en weinig verklaarbaar. Niet weten waarom een bepaalde AI-beslissing is genomen, betekent dat er heel weinig van te leren is, net zoals je geen ervaren hardloper kunt worden door op een Segway door het stadion te rijden.”
Het is moeilijk te zeggen of een AI die goede resultaten produceert gevaarlijk is, omdat het voor mensen onmogelijk is om te begrijpen wat er aan de hand is.
Misschien is de meest directe bedreiging van AI de mogelijkheid dat het vooringenomen resultaten kan opleveren, zei Lyle Solomon, een advocaat die schrijft over de juridische implicaties van AI, in een e-mailinterview.
"AI kan helpen bij het verdiepen van maatschappelijke verschillen. AI is in wezen opgebouwd uit gegevens die zijn verzameld van mensen", voegde Solomon eraan toe. "[Maar] ondanks de enorme hoeveelheid gegevens, bevat het minimale subsets en zou het niet bevatten wat iedereen denkt. Dus gegevens verzameld uit opmerkingen, openbare berichten, recensies, enz., met inherente vooroordelen, zullen ervoor zorgen dat AI discriminatie en haat versterkt."