Alexa's vermogen om overleden familieleden na te bootsen is misschien wel het griezeligste ooit

Inhoudsopgave:

Alexa's vermogen om overleden familieleden na te bootsen is misschien wel het griezeligste ooit
Alexa's vermogen om overleden familieleden na te bootsen is misschien wel het griezeligste ooit
Anonim

Belangrijkste afhaalrestaurants

  • Amazon's Alexa-stemassistent kan een stem kopiëren met slechts één minuut audio.
  • Je zou Alexa kunnen vragen een verhaal voor te lezen met de stem van een overleden ouder.
  • Het is hetzelfde idee als diepe vervalsingen, alleen gebruikt voor de krachten van het goede.
Image
Image

Amazon Alexa's nieuwste gimmick is om te leren de stem van een overleden geliefde na te bootsen, zodat ze vanuit het graf met je kunnen praten.

Alexa heeft slechts een minuut gesproken audio nodig om een stem overtuigend na te bootsen. Amazon beschouwt het als een geruststellende functie die je in contact kan brengen met dierbaren, maar het kan ook een behoorlijk enge ervaring zijn. En het laat zien hoe gemakkelijk het is om diepe nep-audio te maken die goed genoeg is om ons voor de gek te houden, zelfs als de stem een is die we heel goed kennen.

"Amazon is zeker een vrij uniek en bizar gebied betreden met de aankondiging dat Alexa binnenkort in staat zou zijn om de stem van overleden familieleden te leren en dan snel te gebruiken ", vertelde Bill Mann, privacy-expert bij Restore Privacy. Lifewire via e-mail. "Voor sommige mensen is het helemaal niet eng. Sterker nog, het kan nogal ontroerend zijn."

Spook in de machine

Als onderdeel van de jaarlijkse re:MARS-conferentie laat Amazon de functie zien in een korte video. Daarin vraagt een kind aan Alexa of oma hem 'The Wizard of Oz' mag blijven voorlezen, het favoriete keynote-vriendelijke publieke domeinwerk van elk kind. En het is best een ontroerend moment. Het is moeilijk om geen menselijke emoties te voelen wanneer oma begint te lezen.

"Mensen worstelen met sterfelijkheid, vooral in de westerse cultuur. Eeuwenlang hebben we geprobeerd manieren te vinden om de doden te herdenken, van dodenmaskers, tot haarlokken, tot oude foto's, tot het kijken naar oude films", Andrew Selepak, een professor in sociale media aan de Universiteit van Florida, vertelde Lifewire via e-mail. "Deepfakes gebruiken de nieuwste technologie om een nieuw dodenmasker van een overleden geliefde te maken. Maar is het, afhankelijk van je perspectief, griezelig of een manier om iemand van wie je houdt te herdenken en vast te houden nadat die is overleden?"

Maar een memento mori kan zowel troostend als griezelig zijn. De vriend van een familielid is dood, maar je kunt ze nog steeds horen praten. Het helpt niet dat Alexa een geschiedenis van vreemd en soms angstaanjagend gedrag heeft. In 2018, toen NYT-columnist Farhad Manjoo naar bed ging, begon zijn Amazon Echo "te jammeren, als een kind dat schreeuwt in een horrorfilmdroom."

Kort daarna erkende Amazon dat Alexa soms hardop lachte, wat samen met tieners en kelders horrorfilm 101 is.

Je kunt je alleen maar afvragen hoe je je zou voelen als Alexa dezelfde trucjes uithaalde met oma's stem.

Deep Fake

Het schijnbare gemak waarmee Alexa leert een stem na te bootsen, leidt ons naar meer snode toepassingen van het klonen van stemmen: diepe vervalsingen.

Image
Image

"Deepfake-audio is niet nieuw, ook al is het weinig begrepen en weinig bekend. De technologie is al jaren beschikbaar om de stem van een persoon na te bootsen met kunstmatige intelligentie en deep learning met relatief weinig echte audio van de persoon, " zegt Selepak. "Dergelijke technologie kan ook gevaarlijk en destructief zijn. Een gestoord persoon kan de stem van een dode ex-vriend of vriendin nabootsen en de nieuwe audio gebruiken om hatelijke en kwetsende dingen te zeggen."

Dat is gewoon in de context van Alexa. Deep fake audio zou veel verder kunnen gaan dan dat, mensen overtuigen dat prominente politici dingen geloven die ze niet geloven, bijvoorbeeld. Maar aan de andere kant, hoe meer we wennen aan deze diepe vervalsingen - misschien in de vorm van deze Alexa-stemmen - hoe meer we sceptisch zullen staan tegenover de meer snode vervalsingen. Aan de andere kant, gezien hoe gemakkelijk het is om leugens op Facebook te verspreiden, misschien niet.

Amazon heeft niet gezegd of deze functie naar Alexa komt of dat het slechts een technologiedemo is. Ik hoop een beetje van wel. Technologie is op zijn best wanneer het op een humanistische manier als deze wordt gebruikt, en hoewel de gemakkelijke reactie is om het griezelig te noemen, zoals Selepak zegt, is het niet zo veel anders dan het kijken naar oude video's of het luisteren naar opgeslagen voicemails, als een personage in een lui scripted tv-programma.

En als de technologie voor diepe vervalsingen direct beschikbaar is, waarom zouden we die dan niet gebruiken om onszelf te troosten?

Aanbevolen: