Belangrijkste afhaalrestaurants
- Onderzoekers hebben een methode bedacht om gesprekken door elkaar te gooien en te voorkomen dat malafide microfoons onze gesprekken vastleggen.
- De methode is belangrijk omdat deze in re altime werkt bij het streamen van audio en met minimale training.
- Experts juichen het onderzoek toe, maar denken dat de gemiddelde smartphonegebruiker er niet veel aan heeft.
We zijn omringd door slimme apparaten met microfoons, maar wat als ze zijn gecompromitteerd om ons af te luisteren?
In een poging om onze gesprekken te beschermen tegen snuffelaars, hebben onderzoekers van de Columbia University een Neural Voice Camouflage-methode ontwikkeld die automatische spraakherkenningssystemen in re altime verstoort zonder mensen te hinderen.
"Met de invasie van [slimme spraakgestuurde apparaten] in ons leven, begint het idee van privacy te verdampen omdat deze afluisterapparatuur altijd aan staat en in de gaten houdt wat er wordt gezegd," Charles Everette, directeur van Cyber Advocacy, Deep Instinct, vertelde Lifewire via e-mail. "Dit onderzoek is een directe reactie op de behoefte om de stem en gesprekken van een persoon te verbergen of te camoufleren voor deze elektronische afluisteraars, bekend of onbekend in een gebied."
Over praten
De onderzoekers hebben een systeem ontwikkeld dat fluisterstille geluiden genereert die je in elke kamer kunt afspelen om te voorkomen dat malafide microfoons je gesprekken bespioneren.
De manier waarop dit soort technologie afluisteren tegengaat, doet Everette denken aan hoofdtelefoons met ruisonderdrukking. In plaats van fluisterstille geluiden te genereren om het achtergrondgeluid te neutraliseren, zenden de onderzoekers achtergrondgeluiden uit die de kunstmatige intelligentie (AI)-algoritmen verstoren die geluidsgolven interpreteren in begrijpelijke audio.
Dergelijke mechanismen om iemands stem te camoufleren zijn niet uniek, maar wat Neural Voice Camouflage onderscheidt van de andere methoden, is dat het in re altime werkt bij het streamen van audio.
"Om live spraak te kunnen gebruiken, moet onze aanpak [de juiste scrambling audio] in de toekomst voorspellen, zodat ze in re altime kunnen worden afgespeeld", noteren de onderzoekers in hun paper. Momenteel werkt de methode voor het grootste deel van de Engelse taal.
Hans Hansen, CEO van Brand3D, vertelde Lifewire dat het onderzoek erg belangrijk is omdat het een grote zwakte in de huidige AI-systemen aanv alt.
In een e-mailgesprek legde Hansen uit dat de huidige deep learning AI-systemen in het algemeen en natuurlijke spraakherkenning in het bijzonder werken na het verwerken van miljoenen spraakgegevensrecords die zijn verzameld van duizenden sprekers. Neural Voice Camouflage daarentegen werkt nadat het zichzelf heeft geconditioneerd op slechts twee seconden invoer van spraak.
Persoonlijk, als ik me zorgen maak over apparaten die meeluisteren, zou mijn oplossing niet zijn om nog een luisterapparaat toe te voegen dat achtergrondgeluid wil genereren.
Verkeerde boom?
Brian Chappell, hoofdbeveiligingsstrateeg bij BeyondTrust, is van mening dat het onderzoek voordeliger is voor zakelijke gebruikers die bang zijn dat ze zich te midden van gecompromitteerde apparaten bevinden die luisteren naar trefwoorden die aangeven dat er waardevolle informatie wordt gesproken.
"Waar deze technologie mogelijk interessanter zou zijn, is in een meer autoritaire bewakingsstaat waar AI-video en spraakafdrukanalyse worden gebruikt tegen burgers", vertelde James Maude, hoofd cyberbeveiligingsonderzoeker van BeyondTrust, via e-mail aan Lifewire.
Maude suggereerde dat een beter alternatief zou zijn om privacycontroles te implementeren over hoe gegevens worden vastgelegd, opgeslagen en gebruikt door deze apparaten. Bovendien is Chappell van mening dat het nut van de methode van de onderzoeker beperkt is, omdat deze niet is ontworpen om het afluisteren door mensen te stoppen.
"Houd er voor thuis rekening mee dat, althans in theorie, het gebruik van zo'n tool ervoor zorgt dat Siri, Alexa, Google Home en elk ander systeem dat wordt geactiveerd met een gesproken triggerwoord je negeert", zei Chappell.
Maar experts zijn van mening dat met de toenemende integratie van AI/ML-specifieke technologie in onze slimme apparaten, het heel goed mogelijk is dat deze technologie in de nabije toekomst in onze telefoons terecht kan komen.
Maude maakt zich zorgen omdat AI-technologieën snel kunnen leren onderscheid te maken tussen ruis en echte audio. Hij denkt dat hoewel het systeem aanvankelijk succesvol zou kunnen zijn, het snel zou kunnen veranderen in een kat-en-muisspel als een luisterapparaat leert de storende geluiden weg te filteren.
Wat zorgwekkender is, is dat Maude erop wees dat iedereen die het gebruikt, in feite de aandacht op zichzelf kan vestigen, omdat het ongewoon zou lijken om de spraakherkenning te verstoren en erop zou kunnen wijzen dat je iets probeert te verbergen.
"Persoonlijk, als ik me zorgen maak over apparaten die naar binnen luisteren, zou mijn oplossing niet zijn om nog een luisterapparaat toe te voegen dat achtergrondgeluid probeert te genereren", vertelde Maude. "Vooral omdat het alleen maar het risico vergroot dat een apparaat of app wordt gehackt en naar mij kan luisteren."