Belangrijkste afhaalrestaurants
- Nieuw onderzoek onthult dat mensen door AI gegenereerde afbeeldingen niet kunnen scheiden van echte.
- Deelnemers beoordeelden door AI gegenereerde afbeeldingen als betrouwbaarder.
- Experts vinden dat mensen moeten stoppen met alles wat ze op internet zien te vertrouwen.
Het adagium 'zien is geloven' is niet langer relevant als het om internet gaat, en experts zeggen dat het niet snel beter zal worden.
Uit een recent onderzoek is gebleken dat afbeeldingen van gezichten die zijn gegenereerd door kunstmatige intelligentie (AI) niet alleen zeer fotorealistisch waren, maar dat ze er ook deugdzamer uitzagen dan echte gezichten.
"Onze evaluatie van het fotorealisme van AI-gesynthetiseerde gezichten geeft aan dat synthese-engines door de griezelige vallei zijn gegaan en in staat zijn om gezichten te creëren die niet te onderscheiden en betrouwbaarder zijn dan echte gezichten", merkten de onderzoekers op.
Die persoon bestaat niet
De onderzoekers, Dr. Sophie Nightingale van de Lancaster University en professor Hany Farid van de University of California, Berkeley, voerden de experimenten uit nadat ze de goed gepubliceerde bedreigingen van diepe vervalsingen erkenden, variërend van allerlei soorten online fraude tot verkwikkende desinformatiecampagnes.
"Misschien het meest schadelijke is het gevolg dat, in een digitale wereld waarin elke afbeelding of video kan worden vervalst, de authenticiteit van elke onhandige of ongewenste opname in twijfel kan worden getrokken", betoogden de onderzoekers.
Ze voerden aan dat hoewel er vooruitgang is geboekt bij het ontwikkelen van automatische technieken om deepfake-inhoud te detecteren, de huidige technieken niet efficiënt en nauwkeurig genoeg zijn om de constante stroom van nieuwe inhoud die online wordt geüpload bij te houden. Dit betekent dat het aan de consumenten van online content is om de echte van de nep te onderscheiden, suggereert het duo.
Jelle Wieringa, een pleitbezorger van beveiligingsbewustzijn bij KnowBe4, was het daarmee eens. Hij vertelde Lifewire via e-mail dat het extreem moeilijk is om echte diepe vervalsingen te bestrijden zonder gespecialiseerde technologie. "[Beperkende technologieën] kunnen duur zijn en moeilijk te implementeren in re altime processen, waarbij een deepfake vaak pas achteraf wordt gedetecteerd."
Met deze veronderstelling voerden de onderzoekers een reeks experimenten uit om te bepalen of menselijke deelnemers geavanceerde gesynthetiseerde gezichten van echte gezichten kunnen onderscheiden. In hun tests ontdekten ze dat ondanks training om vervalsingen te helpen herkennen, de nauwkeurigheid slechts verbeterde tot 59%, een stijging van 48% zonder training.
Dit bracht de onderzoekers ertoe om te testen of percepties van betrouwbaarheid mensen kunnen helpen kunstmatige afbeeldingen te identificeren. In een derde onderzoek vroegen ze deelnemers om de betrouwbaarheid van de gezichten te beoordelen, om te ontdekken dat de gemiddelde beoordeling voor synthetische gezichten 7 was.7% betrouwbaarder dan de gemiddelde beoordeling voor echte gezichten. Het aantal klinkt misschien niet zo veel, maar de onderzoekers beweren dat het statistisch significant is.
Dieper Fakes
Diepe vervalsingen waren al een grote zorg, en nu zijn de wateren verder vertroebeld door deze studie, wat suggereert dat dergelijke nepbeelden van hoge kwaliteit een geheel nieuwe dimensie kunnen toevoegen aan online oplichting, bijvoorbeeld door te helpen bij het creëren van meer overtuigende online nepprofielen.
"Het enige dat cyberbeveiliging stimuleert, is het vertrouwen dat mensen hebben in de technologieën, processen en mensen die proberen ze veilig te houden", zegt Wieringa. "Diepe vervalsingen, vooral wanneer ze fotorealistisch worden, ondermijnen dit vertrouwen en daarmee de acceptatie en acceptatie van cyberbeveiliging. Het kan ertoe leiden dat mensen wantrouwend worden tegenover alles wat ze waarnemen."
Chris Hauk, kampioen consumentenprivacy bij Pixel Privacy, was het daarmee eens. In een korte e-mailuitwisseling vertelde hij Lifewire dat fotorealistische diepe nep online "ravage" kan veroorzaken, vooral in deze tijd waarin allerlei soorten accounts toegankelijk zijn met behulp van foto-ID-technologie.
Corrigerende actie
Gelukkig zegt Greg Kuhn, directeur van IoT, Prosegur Security, dat er processen zijn die dergelijke frauduleuze authenticatie kunnen vermijden. Hij vertelde Lifewire via e-mail dat op AI gebaseerde identificatiesystemen een geverifieerd persoon vergelijken met een lijst, maar velen hebben ingebouwde beveiligingen om te controleren op 'levendigheid'.
"Dit soort systemen kan een gebruiker vereisen en begeleiden om bepaalde taken uit te voeren, zoals glimlachen of je hoofd naar links en dan naar rechts draaien. Dit zijn dingen die statisch gegenereerde gezichten niet konden uitvoeren", deelde Kuhn.
De onderzoekers hebben richtlijnen voorgesteld om hun creatie en distributie te reguleren om het publiek te beschermen tegen synthetische afbeeldingen. Om te beginnen stellen ze voor om diepgewortelde watermerken op te nemen in de beeld- en videosynthesenetwerken zelf om ervoor te zorgen dat alle synthetische media betrouwbaar kunnen worden geïdentificeerd.
Tot die tijd zegt Paul Bischoff, privacyadvocaat en redacteur van infosec research bij Comparitech, dat mensen er alleen voor staan."Mensen zullen moeten leren om gezichten online niet te vertrouwen, net zoals we (hopelijk) allemaal hebben geleerd om namen in onze e-mails niet te vertrouwen", vertelde Bischoff via e-mail aan Lifewire.