Selecteer een pagina

Een internationale coalitie van meer dan 90 maatschappelijke organisaties heeft vandaag een open brief aan Apple gestuurd, waarin het bedrijf wordt opgeroepen af te zien van zijn onlangs aangekondigde plannen om surveillancemogelijkheden in iPhones, iPads en andere Apple producten in te bouwen.

Op 5 augustus 2021 kondigde Apple aan dat het surveillancesoftware zal installeren die op het apparaat scans zal uitvoeren in Berichten en foto’s.

Zoals de coalitie in haar brief uitlegt, zijn de nieuwe functies weliswaar bedoeld om kinderen te beschermen en de verspreiding van kinderpornomateriaal (CSAM) tegen te gaan, maar zullen ze nieuwe risico’s voor kinderen creëren en kunnen ze worden gebruikt om meningsuiting te censureren en de privacy en veiligheid van mensen over de hele wereld in gevaar te brengen.

De scan- en waarschuwingsfunctie in Berichten zou kunnen leiden tot waarschuwingen die de veiligheid en het welzijn van sommige jongeren bedreigen, en LGBTQ+-jongeren met onsympathieke ouders lopen in het bijzonder risico.

Als de CSAM-hash scanning voor foto’s eenmaal in Apple producten is ingebouwd, zal het bedrijf te maken krijgen met enorme druk, en mogelijk wettelijke eisen, van overheden over de hele wereld om te scannen op allerlei afbeeldingen die de overheden verwerpelijk vinden.

De breedte van de internationale coalitie die zich bij de brief aansluit, toont aan hoezeer de plannen van Apple de deur openzetten voor bedreigingen van de mensenrechten over de hele wereld.

De brief is hieronder geplakt


19 augustus 2021

Tim Cook
CEO, Apple, Inc.

Geachte Mr. Cook:

De ondergetekende organisaties die zich inzetten voor burgerrechten, mensenrechten en digitale rechten over de hele wereld, schrijven om er bij Apple op aan te dringen af te zien van de plannen die het op 5 augustus 2021 heeft aangekondigd om bewakingsmogelijkheden in te bouwen in iPhones, iPads en andere Apple producten.

Hoewel deze mogelijkheden bedoeld zijn om kinderen te beschermen en de verspreiding van kinderpornomateriaal tegen te gaan, vrezen wij dat ze zullen worden gebruikt om beschermde meningsuiting te censureren, de privacy en veiligheid van mensen over de hele wereld te bedreigen, en desastreuze gevolgen zullen hebben voor veel kinderen.

Apple heeft aangekondigd dat het een algoritme voor machinaal leren gaat inzetten om afbeeldingen in zijn sms-dienst, Berichten, te scannen op seksueel expliciet materiaal dat wordt verzonden naar of van personen die op familieaccounts als kinderen zijn geïdentificeerd.

Deze controlemogelijkheid wordt ingebouwd in de apparaten van Apple.

Wanneer het algoritme een seksueel getinte afbeelding detecteert, waarschuwt het de gebruiker dat de afbeelding gevoelig kan liggen.

Het stuurt ook een bericht naar de organisator van een familieaccount wanneer een gebruiker onder de 13 jaar ervoor kiest om de afbeelding te verzenden of te ontvangen.

Algoritmen die zijn ontworpen om seksueel expliciet materiaal te detecteren, staan bekend om hun onbetrouwbaarheid. Zij zijn geneigd kunst, gezondheidsinformatie, educatief materiaal, pleitbezorgingsberichten en ander beeldmateriaal ten onrechte te markeren.

Het recht van kinderen om dergelijke informatie te verzenden en te ontvangen wordt beschermd door het VN-Verdrag inzake de Rechten van het Kind.

Bovendien gaat het systeem dat Apple heeft ontwikkeld ervan uit dat de accounts “ouder” en “kind” in kwestie daadwerkelijk toebehoren aan een volwassene die de ouder is van een kind, en dat deze personen een gezonde relatie hebben.

Dit is niet altijd het geval; een mishandelende volwassene kan de organisator van het account zijn, en de gevolgen van een melding door de ouders kunnen de veiligheid en het welzijn van het kind in gevaar brengen.

Met name LGBTQ+-jongeren met een familierekening en onsympathieke ouders lopen gevaar.

Als gevolg van deze wijziging zullen iMessages deze gebruikers niet langer vertrouwelijkheid en privacy bieden via een end-to-end versleuteld berichtensysteem waarbij alleen de verzender en de beoogde ontvangers toegang hebben tot de verzonden informatie.

Zodra deze achterdeurfunctie is ingebouwd, zouden overheden Apple kunnen dwingen om de kennisgeving uit te breiden tot andere accounts, en om beelden te detecteren die aanstootgevend zijn om andere redenen dan dat ze seksueel expliciet zijn.

Apple heeft ook aangekondigd dat het in het besturingssysteem van zijn producten een hash-database van CSAM-beelden zal inbouwen die door het National Center for Missing and Exploited Children in de Verenigde Staten en andere kinderveiligheidsorganisaties ter beschikking wordt gesteld.

Elke foto die gebruikers naar iCloud uploaden, zal aan de hand van die databank worden gescand. Als een vooraf ingestelde drempel wordt overschreden, wordt het account gedeactiveerd en worden de gebruiker en de foto’s bij de autoriteiten gemeld.

Veel gebruikers uploaden routinematig de foto’s die ze maken naar iCloud.

Voor deze gebruikers is beeldbewaking niet iets waar ze zich aan kunnen onttrekken; het zal worden ingebouwd in hun iPhone of ander Apple-apparaat, en in hun iCloud-account.

Als deze mogelijkheid eenmaal in Apple producten is ingebouwd, zullen het bedrijf en zijn concurrenten te maken krijgen met enorme druk – en mogelijk wettelijke eisen – van overheden over de hele wereld om foto’s niet alleen te scannen op CSAM, maar ook op andere beelden die een overheid bezwaarlijk vindt.

Dat kunnen beelden zijn van schendingen van de mensenrechten, politieke protesten, beelden die door bedrijven zijn aangemerkt als “terroristisch” of gewelddadig extremistisch materiaal, of zelfs onflatteuze beelden van de politici die het bedrijf onder druk zullen zetten om ze te scannen.

En die druk zou zich kunnen uitstrekken tot alle beelden die op het apparaat zijn opgeslagen, niet alleen de beelden die naar iCloud zijn geüpload.

Op die manier heeft Apple de basis gelegd voor censuur, toezicht en vervolging op wereldwijde basis.

Wij steunen inspanningen om kinderen te beschermen en zijn fel gekant tegen de verspreiding van CSAM. Maar de veranderingen die Apple heeft aangekondigd brengen kinderen en andere gebruikers in gevaar, zowel nu als in de toekomst.

We dringen er bij Apple op aan om van deze wijzigingen af te zien en opnieuw te bevestigen dat het bedrijf zijn gebruikers zal beschermen met end-to-end encryptie.

Ook dringen we er bij Apple op aan om regelmatiger overleg te voeren met maatschappelijke organisaties en met kwetsbare gemeenschappen die mogelijk onevenredig zwaar worden getroffen door wijzigingen in zijn producten en diensten.

Lees de volledige brief en de lijst van ondertekenaars hier.

Lees hier het persbericht van deze brief.


Wees de eerste die dit bericht deelt

Aanmelden PrivacyZone Nieuwsbrief

Met een gratis abonnement op de PrivacyZone Nieuwsbrief voldoet u aan een van de eisen van de Europese privacywet GDPR / AVG. Wij houden u wekelijks op de hoogte met nieuws, jurisprudentie en advies. U wordt geacht deze ontwikkelingen actief te volgen en indien noodzakelijk gepaste maatregelen te treffen.

Bedankt voor uw aanmelding voor de PrivacyZone Nieuwsbrief.