Video's faken is eenvoudig, diepe nostalgieshows

Inhoudsopgave:

Video's faken is eenvoudig, diepe nostalgieshows
Video's faken is eenvoudig, diepe nostalgieshows
Anonim

Belangrijkste afhaalrestaurants

  • Deep Nostalgia is een nieuw programma waarmee je oude foto's kunt animeren.
  • De technologie laat zien hoe gemakkelijk het is om video's te maken van mensen die dingen doen die ze in het echte leven niet hebben gedaan.
  • Diepe neptechnologie is al zo geavanceerd dat het moeilijk te zeggen is of een video echt is of door de computer is gemaakt, zegt een expert.
Image
Image

Wees voorzichtig met nieuwe software die zogenaamde "deep fakes" kan maken, waarin video's van echte mensen kunnen worden gesimuleerd, waarschuwen experts.

Deep Nostalgia, uitgebracht door het bedrijf MyHeritage, is trending op sociale media, waarbij gebruikers iedereen reanimeren, van beroemde componisten tot overleden familieleden. De software roept gemengde reacties op, waarbij sommige mensen blij zijn met de creaties en anderen ze eng vinden. De technologie laat zien hoe gemakkelijk het is om video's te maken van mensen die dingen doen die ze in het echte leven niet hebben gedaan.

"Deepfake-technologie wordt steeds geavanceerder en gevaarlijker", zei Aaron Lawson, adjunct-directeur van SRI International's Speech Technology and Research (STAR) Laboratory, in een e-mailinterview. "Dit komt deels door de aard van kunstmatige intelligentie. Waar 'traditionele' technologie menselijke tijd en energie nodig heeft om te verbeteren, kan AI van zichzelf leren.

"Maar het vermogen van AI om zichzelf te ontwikkelen is een tweesnijdend zwaard", vervolgde Lawson. "Als een AI is gemaakt om iets goeds te doen, geweldig. Maar wanneer een AI is ontworpen voor iets kwaadaardigs, zoals diepe vervalsingen, is het gevaar ongekend."

Software brengt foto's tot leven

Genealogiewebsite MyHeritage heeft vorige maand de animatie-engine geïntroduceerd. Met de technologie, bekend als Deep Nostalgia, kunnen gebruikers foto's animeren via de MyHeritage-website. Een bedrijf genaamd D-ID ontwierp algoritmen voor MyHeritage die de beweging van menselijke gezichten digitaal nabootsen. De software past de bewegingen toe op foto's en past gezichtsuitdrukkingen aan om te bewegen zoals menselijke gezichten gewoonlijk doen, volgens de MyHeritage-website.

Deep Nostalgia laat zien dat deep-fake-technologie toegankelijker wordt, zei Lior Shamir, een professor in computerwetenschappen aan de Kansas State University, in een e-mailinterview. Het vordert snel en elimineert zelfs de subtiele verschillen tussen de nep- en echte video en audio.

"Er is ook aanzienlijke vooruitgang geboekt in de richting van re altime diepe nep, wat betekent dat overtuigende diepe nepvideo's worden gegenereerd op het moment van videocommunicatie, " zei Shamir."Je kunt bijvoorbeeld een Zoom-vergadering hebben met een bepaald persoon, terwijl je de stem van een heel ander persoon ziet en hoort."

Er zijn ook een groeiend aantal op taal gebaseerde diepe vervalsingen, zei Jason Corso, de directeur van het Stevens Institute for Artificial Intelligence van het Stevens Institute of Technology, in een e-mailinterview. "Het genereren van hele paragrafen van diepe neptekst voor een specifieke agenda is vrij moeilijk, maar moderne ontwikkelingen in diepe natuurlijke taalverwerking maken het mogelijk," voegde hij eraan toe.

Hoe een diepe nep te detecteren

Hoewel deep-fake-detectietechnologie nog in de kinderschoenen staat, zijn er een paar manieren om er een te herkennen, zei Corso, te beginnen met de mond.

"De variabiliteit in het uiterlijk van de binnenkant van de mond wanneer iemand spreekt, is erg hoog, waardoor het moeilijk is om overtuigend te animeren", legt Corso uit. "Het kan, maar het is moeilijker dan de rest van het hoofd. Merk op hoe de Deep Nostalgia-video's niet aantonen dat de foto 'I love you' of een andere zin kan zeggen tijdens de diepe nep-creatie. Om dit te doen, zou de mond moeten worden geopend en gesloten, wat erg moeilijk is voor het genereren van diepe nep."

Ghosting is een andere weggeefactie, voegde Corso toe. Als je vervaging rond de randen van het hoofd ziet, is dat het resultaat van "snelle beweging of beperkte pixels beschikbaar in het bronbeeld. Een oor kan tijdelijk gedeeltelijk verdwijnen, of haar kan wazig worden waar je het niet zou verwachten", zei hij. zei.

Je kunt ook letten op kleurvariatie wanneer je een diepe nepvideo probeert te herkennen, zoals een scherpe lijn over het gezicht, met donkere kleuren aan de ene kant en lichtere aan de andere kant.

"Computeralgoritmen kunnen deze vervormingspatronen vaak detecteren", zegt Shamir. "Maar deep fake algoritmen gaan snel vooruit. Het is onvermijdelijk dat er strikte wetten nodig zullen zijn om te beschermen tegen deep fake en de schade die ze gemakkelijk kunnen veroorzaken."

Aanbevolen: