Waarom de beeldscantechnologie van Apple helemaal niet privé is

Inhoudsopgave:

Waarom de beeldscantechnologie van Apple helemaal niet privé is
Waarom de beeldscantechnologie van Apple helemaal niet privé is
Anonim

Belangrijkste afhaalrestaurants

  • Apple's nieuwe beleid tegen materiaal met seksueel misbruik van kinderen heeft voor controverse gezorgd onder gebruikers en privacy-experts.
  • De technologie werkt door afbeeldingen in iCloud te scannen voor CSAM en machine learning te gebruiken om expliciete foto's in Berichten te identificeren.
  • Experts zeggen dat het niet uitmaakt hoe privé Apple zegt dat zijn scantechnologie is, het laat uiteindelijk toch een achterdeur open waar alles kan gebeuren.
Image
Image

Apple heeft onlangs een nieuwe technologie geïntroduceerd om materiaal voor seksueel misbruik van kinderen (CSAM) te herkennen, maar het krijgt meer kritiek dan lof van de privacygemeenschap.

Hoewel Apple eerder werd geprezen als een van de weinige Big Tech-bedrijven die echt om de privacy van gebruikers geven, zet de nieuwe CSAM-scantechnologie die vorige week is geïntroduceerd, daar een grote sleutel in. Experts zeggen dat hoewel Apple gebruikersprivacy belooft, de technologie uiteindelijk alle Apple-gebruikers in gevaar zal brengen.

"Apple zet zijn stap op een zeer gladde helling; ze hebben een instrument ontwikkeld dat gevaar loopt voor achterdeurtjes van de overheid en misbruik door slechte actoren", zei Farah Sattar, de oprichter en beveiligingsonderzoeker bij DCRYPTD. aan Lifewire in een e-mailinterview.

Apple's plan is niet privé

De nieuwe technologie werkt op twee manieren: ten eerste, door een afbeelding te scannen voordat er een back-up van wordt gemaakt naar de iCloud - als een afbeelding voldoet aan de criteria van CSAM, ontvangt Apple de gegevens van de cryptografische voucher. Het andere deel maakt gebruik van machine learning op het apparaat om seksueel expliciete afbeeldingen te identificeren en te vervagen die kinderen via Berichten ontvangen.

Apple zet zijn stap op een zeer gladde helling; ze hebben een instrument uitgewerkt dat gevaar loopt voor achterdeurtjes van de overheid en misbruikt door slechte actoren.

Experts maken zich zorgen over de Berichten-functie, omdat het een einde zou maken aan de end-to-end-codering (E2EE) die Apple heeft gepropageerd.

"Apple's introductie van scannen aan de clientzijde is een inbreuk op de privacy, omdat dit E2EE effectief schendt", zei Sattar.

"Het doel van E2EE is om een bericht onleesbaar te maken voor elke partij behalve de afzender en ontvanger, maar scannen aan de clientzijde geeft derden toegang tot inhoud in het geval van een overeenkomst. Dit schept het precedent dat uw gegevens zijn E2EE…totdat het niet meer is."

Hoewel Apple op een onlangs gepubliceerde pagina met veelgestelde vragen waarin de zorgen van mensen over het nieuwe beleid worden behandeld, zei dat het de privacygaranties van Berichten niet zal veranderen en geen toegang zal krijgen tot communicatie, zijn organisaties nog steeds op hun hoede voor de beloften van Apple.

"Aangezien de detectie van een 'seksueel expliciete afbeelding' machine learning op het apparaat zal gebruiken om de inhoud van berichten te scannen, zal Apple iMessage niet langer eerlijk "end-to-end versleuteld" kunnen noemen, " de Electronic Frontier Foundation (EFF) schreef in reactie op het beleid van Apple.

"Apple en zijn voorstanders kunnen beweren dat scannen voor of nadat een bericht is gecodeerd of gedecodeerd de 'end-to-end'-belofte intact houdt, maar dat zou semantische manoeuvres zijn om een tektonische verschuiving in het bedrijf te verdoezelen houding ten opzichte van sterke encryptie."

Image
Image

Kans op misbruik

De grootste zorg van veel experts is het bestaan van een achterdeur die, wat Apple ook beweert, nog steeds vatbaar is voor mogelijk misbruik.

"Hoewel dit beleid bedoeld is om alleen van toepassing te zijn op gebruikers onder de 13 jaar, is deze tool ook rijp voor misbruik omdat er geen garantie is dat de gebruiker daadwerkelijk jonger is dan 13 jaar. Een dergelijk initiatief vormt een risico voor LGBTQ+-jongeren en individuen in gewelddadige relaties, aangezien het kan bestaan als een vorm van stalkerware, "zei Sattar.

EFF zei dat de geringste druk van buitenaf (vooral van de overheid) de deur zou openen voor misbruik en wees op gevallen waarin dit al gebeurt. EFF zei bijvoorbeeld dat technologieën die oorspronkelijk zijn gebouwd om CSAM te scannen en te hashen, een nieuwe bestemming hebben gekregen om een database met "terroristische" inhoud te creëren waaraan bedrijven kunnen bijdragen en die toegang kunnen krijgen om dergelijke inhoud te verbieden.

"Het enige dat nodig is om de smalle achterdeur die Apple aan het bouwen is te verbreden, is een uitbreiding van de machine learning-parameters om naar extra soorten inhoud te zoeken, of een aanpassing van de configuratievlaggen om te scannen, niet alleen voor kinderen, maar iemands accounts, "zei EFF.

Edward Snowden veroordeelde zelfs de nieuwe technologie van Apple als een "nationale veiligheidskwestie" en "rampzalig", en zijn organisatie, Freedom of the Press Foundation, is een van de velen die een nieuwe brief hebben ondertekend waarin Apple wordt opgeroepen hier een einde aan te maken beleid nog voordat het begint.

De brief is ondertekend door meer dan 7.400 beveiligings- en privacyorganisaties en -experts, waarin Apple wordt opgeroepen deze technologie onmiddellijk stop te zetten en een verklaring af te geven waarin het bedrijf opnieuw bevestigt dat het bedrijf zich inzet voor end-to-end-codering en gebruikersprivacy.

"Apple's huidige pad dreigt tientallen jaren van werk van technologen, academici en beleidsadvocaten te ondermijnen om strenge privacybeschermende maatregelen de norm te laten zijn voor een meerderheid van consumentenelektronica en gebruiksscenario's", luidt de brief.

De tijd zal leren hoe Apple van plan is deze technologie te implementeren ondanks de enorme controverse eromheen, maar de beweringen van het bedrijf over het prioriteren van privacy zullen zeker nooit meer hetzelfde zijn.

Aanbevolen: