AI kan je gesprekken bespioneren

Inhoudsopgave:

AI kan je gesprekken bespioneren
AI kan je gesprekken bespioneren
Anonim

Belangrijkste afhaalrestaurants

  • Een groeiend aantal programma's kan uw spraak verstaan.
  • Nieuwe technologie genereert aangepaste audioruis op de achtergrond terwijl je praat om de software die zou kunnen luisteren te verwarren.
  • De nieuwe techniek beha alt re altime prestaties door een aanval op de toekomst van het signaal of woord te voorspellen.

Image
Image

Veel programma's kunnen uw spraak verstaan tijdens telefoon- of videogesprekken, en experts zeggen dat ze een bedreiging voor de privacy kunnen vormen.

Een nieuwe technologie ontwikkeld door onderzoekers van de Columbia University, Neural Voice Camouflage genaamd, kan een verdediging bieden. Het genereert aangepaste audioruis op de achtergrond terwijl je praat, waardoor de kunstmatige intelligentie (AI) die luistert en stemmen transcribeert, in de war raakt.

"De aanwezigheid van AI-transcriptie roept vertrouwensproblemen op", Michael Huth, mede-oprichter van Xayn, een privacybeschermende zoekmachine, en hoofd van de afdeling Informatica aan het Imperial College London, die niet betrokken was bij het onderzoek, vertelde Lifewire in een e-mailinterview. "De deelnemers aan de vergadering kunnen voorzichtiger zijn met welke punten ze naar voren brengen en hoe hun toespraak wordt getranscribeerd. Dit kan een goede zaak zijn omdat het respectvol gedrag kan verbeteren, maar het kan ook een slechte zaak zijn omdat het gesprek minder open kan zijn vanwege bedenkingen bij de gebruikte technologie."

Luisteren en leren

De Columbia-onderzoekers werkten aan het ontwerpen van een algoritme dat neurale netwerken in re altime kon breken. De nieuwe aanpak maakt gebruik van "voorspellende aanvallen" - een signaal dat elk woord kan verstoren waarvoor automatische spraakherkenningsmodellen zijn getraind om te transcriberen. Bovendien, wanneer aanvalsgeluiden via de ether worden afgespeeld, moeten ze luid genoeg zijn om elke malafide "meeluistermicrofoon" die zich ver weg zou kunnen bevinden, te verstoren.

"Een belangrijke technische uitdaging om dit te bereiken was om het allemaal snel genoeg te laten werken", zei Carl Vondrick, een professor in computerwetenschappen aan Columbia en een van de auteurs van een studie die de nieuwe aanpak beschrijft, in een nieuwsbericht laat los. "Ons algoritme, dat erin slaagt om 80% van de tijd te voorkomen dat een malafide microfoon je woorden correct hoort, is de snelste en meest nauwkeurige op onze testbank."

De nieuwe techniek beha alt re altime prestaties door een aanval op de toekomst van het signaal of woord te voorspellen. Het team heeft de aanval geoptimaliseerd, zodat het een volume heeft dat vergelijkbaar is met normaal achtergrondgeluid, waardoor mensen in een kamer op een natuurlijke manier kunnen converseren en zonder succesvol te worden gecontroleerd door een automatisch spraakherkenningssysteem.

De deelnemers aan de vergadering kunnen voorzichtiger zijn met welke punten ze naar voren brengen en hoe hun toespraak wordt getranscribeerd.

De wetenschappers zeiden dat hun techniek werkt, zelfs als je niets weet over de malafide microfoon, zoals de locatie, of zelfs de computersoftware die erop draait. Het camoufleert de stem van een persoon via de ether, verbergt het voor deze luistersystemen en zonder het gesprek tussen mensen in de kamer te hinderen.

"Tot nu toe werkt onze methode voor het grootste deel van de Engelse woordenschat, en we zijn van plan het algoritme op meer talen toe te passen en uiteindelijk het fluistergeluid volledig onmerkbaar te maken", Mia Chiquier, de hoofdauteur van de studie en een promovendus in Vondrick's lab, zei in het persbericht.

Je gesprekken privé houden

Alsof dat allemaal nog niet genoeg was, kunnen advertenties u ook targeten op basis van audio die is verzameld vanaf uw smartphone of smarthome-apparaten.

"Met apparaten zoals [de Amazon Echo] en hun tegenhangers, zijn deze apparaten niet alleen altijd in je huis, constant luisterend naar alles wat je zegt of doet, maar ze hebben - door jarenlange gegevensverzameling van hun gebruikers - geperfectioneerde natuurlijke taalverwerking (het omzetten van gesproken woord in tekst / bruikbare gegevens voor apparaten via een combinatie van microfoons, software en AI), "zei Erik Haig, een medewerker bij Harbor Research, een strategieadvies- en ondernemingsontwikkelingsbedrijf, in een e-mail.

Image
Image

AI-transcripties van conversatiespraak zijn nu een standaard onderdeel van standaard commerciële software, zei Huth. Microsoft Teams heeft bijvoorbeeld een opnamevergaderingsoptie met ingebouwde AI-transcripties die door alle deelnemers in re altime kunnen worden bekeken. Het volledige transcript kan dienen als verslag van de vergadering. Gewoonlijk maken dergelijke transcripties het mogelijk om notulen te maken (ook wel aantekeningen genoemd), waarbij de notulen tijdens de volgende vergadering worden goedgekeurd.

"Mensen kunnen zich zorgen maken dat ze worden bespioneerd wanneer AI-transcriptie is ingeschakeld," voegde Huth eraan toe."Dit lijkt erg op de zorg om een gesprek zonder toestemming of clandestien op te nemen."

Maar niet iedereen is het ermee eens dat slimme apparaten een bedreiging vormen. De meeste mensen hoeven zich geen zorgen te maken over programma's die naar je gesprekken luisteren, vertelde Brad Hong, een klantsuccesleider bij het cyberbeveiligingsbedrijf Horizon3, via e-mail aan Lifewire. Hij zei dat de grootste zorg nu niet is wie u opneemt, maar eerder hoe ze de gegevens opslaan.

"Alle verhalen die je hoort over een microfoon op hun computer of mobiele apparaten die wordt geactiveerd, Alexa of Google Home die meeluistert, of zelfs overheidssurveillance, het is waar dat dit allemaal de maag van de leek doet karnen, " voegde Hong toe. "Maar al met al bevinden mensen zich zelden in een situatie waarin het echt nodig is om hun stem te camoufleren."

Aanbevolen: