De deepfake-technologie van Facebook zal ons niet redden, zeggen experts

Inhoudsopgave:

De deepfake-technologie van Facebook zal ons niet redden, zeggen experts
De deepfake-technologie van Facebook zal ons niet redden, zeggen experts
Anonim

Belangrijkste afhaalrestaurants

  • Naarmate deepfakes gemakkelijker te maken zijn, zijn nieuwe en verbeterde manieren om ze te spotten een prioriteit geworden.
  • De deepfake-spotting-technologie van Facebook maakt gebruik van reverse machine learning om te ontdekken of een video een deepfake is of niet.
  • Experts zeggen dat het gebruik van blockchain-technologie de beste manier is om te zien of een video echt is of niet, aangezien de methode afhankelijk is van contextuele gegevens.
Image
Image

Facebook heeft vertrouwen in zijn machine learning-model om deepfakes te bestrijden, maar experts zeggen dat machine learning op zichzelf ons niet zal behoeden voor misleiding door deepfakes.

Bedrijven zoals Facebook, Microsoft en Google werken allemaal om de verspreiding van deepfakes via internet en sociale netwerken tegen te gaan. Hoewel de methoden verschillen, is er één mogelijke onfeilbare methode om deze valse video's te herkennen: blockchains.

“[Blockchains] geven je gewoon veel potentieel om de deepfake te valideren op een manier die de beste vorm van validatie is die ik kan zien,” Stephen Wolfram, oprichter en CEO van Wolfram Research en auteur van A New Kind of Wetenschap, vertelde Lifewire over de telefoon.

Facebook's Deepfake-Spotting Tech

Deepfake-technologie is de afgelopen jaren snel gegroeid. De misleidende video's maken gebruik van machinale leermethoden om dingen te doen zoals iemands gezicht op het lichaam van een andere persoon plaatsen, achtergrondomstandigheden wijzigen, lipsynchronisatie faken en meer. Ze variëren van onschuldige parodieën tot het maken van beroemdheden of publieke figuren die iets zeggen of doen wat ze niet deden.

Experts zeggen dat de technologie snel vordert en dat deepfakes alleen maar overtuigender (en gemakkelijker te maken) zullen worden naarmate de technologie breder beschikbaar en innovatiever wordt.

Image
Image

Facebook gaf onlangs meer inzicht in zijn deepfake-detectietechnologie in samenwerking met Michigan State University. Het sociale netwerk zegt dat het vertrouwt op reverse engineering van een enkele door kunstmatige intelligentie gegenereerde afbeelding naar het generatieve model dat wordt gebruikt om het te produceren.

Onderzoekswetenschappers die met Facebook werkten, zeiden dat de methode berust op het blootleggen van de unieke patronen achter het AI-model dat wordt gebruikt om een deepfake te genereren.

“Door beeldattributie te generaliseren naar open-set-herkenning, kunnen we meer informatie afleiden over het generatieve model dat is gebruikt om een deepfake te maken die verder gaat dan het herkennen dat het nog niet eerder is gezien. En door overeenkomsten te traceren tussen patronen van een verzameling deepfakes, konden we ook zien of een reeks afbeeldingen afkomstig was van één enkele bron', schreven onderzoekswetenschappers Xi Yin en Tan Hassner in Facebook's blogpost over de deepfake-spotting-methode.

Image
Image

Wolfram zegt dat het logisch is dat je machine learning zou gebruiken om een geavanceerd AI-model (een deepfake) te ontdekken. Er is echter altijd ruimte om de technologie voor de gek te houden.

“Het verbaast me helemaal niet dat er een degelijke machinale leermethode is om [deepfakes te detecteren]”, zei Wolfram. “De enige vraag is of je genoeg moeite doet, kun je het voor de gek houden? Ik weet zeker dat je het kunt.'

Deepfakes op een andere manier bestrijden

In plaats daarvan zei Wolfram dat hij gelooft dat het gebruik van blockchain de beste optie zou zijn om bepaalde soorten deepfakes nauwkeurig te herkennen. Zijn mening over het gebruik van blockchain boven machine learning gaat terug tot 2019, en hij zei dat de blockchain-aanpak uiteindelijk een nauwkeuriger oplossing kan bieden voor ons deepfake-probleem.

"Ik zou verwachten dat kijkers van afbeeldingen en video's routinematig zouden kunnen controleren op blockchains (en 'gegevenstriangulatieberekeningen') een beetje zoals webbrowsers nu beveiligingscertificaten controleren", schreef Wolfram in een artikel gepubliceerd in Scientific American.

Aangezien blockchains gegevens opslaan in blokken die vervolgens in chronologische volgorde aan elkaar worden geketend, en aangezien gedecentraliseerde blockchains onveranderlijk zijn, zijn de ingevoerde gegevens onomkeerbaar.

De enige vraag is of je genoeg moeite doet, kun je het voor de gek houden? Ik weet zeker dat je het kunt.

Wolfram legde uit dat door een video in een blockchain te plaatsen, je de tijd, de locatie en andere contextuele informatie kunt zien die je in staat zou stellen om te zien of deze op enigerlei wijze is gewijzigd.

"Over het algemeen geldt dat hoe meer metadata er zijn die de foto of video contextualiseren, hoe groter de kans is dat je het kunt zien," zei hij. "Je kunt geen tijd vervalsen op een blockchain."

Wolfram zei echter dat de gebruikte methode - of het nu machinaal leren is of het gebruik van blockchain - afhangt van het type deepfake waartegen je probeert te beschermen (d.w.z. een video van Kim Kardashian die iets doms zegt of een video van een politicus die een verklaring of suggestie doet).

“De blockchain-aanpak beschermt tegen bepaalde soorten diepe vervalsingen, net zoals de machine learning-beeldverwerking beschermt tegen bepaalde soorten diepe vervalsingen,” zei hij.

Waar het op neerkomt, zo lijkt het, is waakzaamheid voor ons allemaal als het gaat om het bestrijden van de komende deepfake zondvloed.

Aanbevolen: