aleX am 06. August 2021 um 14:20 | Lesezeit: 2 Minuten, 29 Sekunden

Apple scannt iPhones also künftig nach Kindesmissbrauch - Und nur danach?

24
Kommentare
Bild: Pixabay

Diese Ankündig sorgte für einen lauten Aufschrei von Datenschützern und Bürgerrechtsaktivisten. Und auch ich denke mir nun meinen Teil.

Es klingt im Grunde nach einem Schönen und Sinnvollen Plan, Hashwerte von Fotos mit einer Datenbank für Kindesmissbrauch (Child Sexual Abuse Material - CSAM) abzugleichen.

Aber es ist auch extrem gefährlich. Denn Apple kann hier noch so lange erklären, wie seine technische Implementierung Privatsphäre und Sicherheit bei seiner Hintertür bewahrt, aber am Ende des Tages, auch wenn sie eine tiefgreifend dokumentierte, sorgfältig überlegte und eng ausgelegte Hintertür ist, sie ist immer noch eine Hintertür.

Apple ermöglicht nun eben Scans auf Geräten seiner Nutzer und es wird künftig auch nach ganz anderem Material auf den Geräten gesucht werden. Hier braucht man nicht lange Diskutieren oder Überlegen. Es werden ganz sicher noch andere Datenbanken mit ins Boot genommen, um andere Verbrechen auch aufzuklären ..

Es ist einfach Fakt dass Apple mit der Einführung automatischer Scans von Fotos, die von Mobilgeräten mit der iCloud synchronisiert werden, nun die Tür für den Missbrauch technischer Möglichkeiten ganz klar öffnet.

Aber Apple macht es auch ganz Klug .. Weil bist du dagegen, bist du auch automatisch dagegen Kinder zu schützen. Und wer will schon sagen er ist dagegen das Kinder zu schützen sind?

In Zukunft heisst es dann wohl: "Das iPhone eines Terrorverdächtigen zu entsperren ist nicht möglich, aber seine Bilder können wir ja mal durchschauen."


Update:
Apple durchsucht iOS-Geräte vorerst nicht und macht einen Rückzieher

https://ress.at/kinderpornoscans-apple-durchsucht-iosgeraete-vorerst-nicht-news03092021212642.html

Update:
Kleines Update ..

Ich scheine wohl mit dieser Meinung nicht Alleine zu sein .. Edward Snowden hat sich auch zu Wort gemeldet und hat auch extreme Bedenken:


Bild: Screenshot

Egal wie gut gemeint, Apple verbreitet damit Massenüberwachung auf der ganzen Welt. Macht euch keine Illusionen: Wenn sie heute nach Kinderpornos suchen können, können sie morgen nach allem suchen. Sie haben Geräte im Wert von Milliarden zu iNarcs gemacht [in etwa iSpitzel] - ohne zu fragen


und ...

Egal wie gut es gemeint ist, Apple erlaubt damit Massenüberwachung auf der ganzen Welt


... hat Er dazu geschrieben.

Update:
Nun hat Apple alle Verweise auf diese neue Richtlinie für iOS 15 von seiner Website entfernt

Unklar bleibt, ob dies bedeutet, dass die Pläne zur Durchsuchung der privaten Bilder der Nutzerinnen und Nutzer damit ganz auf Eis gelegt wurden, oder ob das Unternehmen einen neuen Weg einschlagen wird, gegen Kindsmissbrauch und Kinderpornografie vorzugehen.

Ein Apple-Sprecher lässt mitteilen, dass man in den kommenden Monaten Rückmeldungen sammeln und Verbesserungen vornehmen wolle, wie heise.de berichtet.



Alle News zu diesem Thema
Apple begründet Aus für automatischen Foto-Scan
Bereits im Dezember hatte sich Apple von seinen Plänen zum automatischen Scannen von iCloud-Bildern verabschiedet. Nun liefert das Unternehmen eine Begründung: Es sei "praktisch unmöglich", automatische Scans mit Privatsphäre und Sicherheit zu vereinen. Das lässt auch vor dem Hintergrund der EU-Debatte um die Chatkontrolle aufhorchen.
Apple startet umstrittenen Nacktbildfilter für iMessage-Nachrichten an Kinder
Maßnahmen gegen die Verbreitung von Darstellungen des sexuellen Missbrauchs gegen Kinder hatten vor einigen Monaten für viel Aufregung gesorgt. Nun wird ein Teil umgesetzt
Kinderporno-Scans: Apple durchsucht iOS-Geräte vorerst nicht
Das Konzept soll nach massiver Kritik von Datenschützer*innen noch einmal überdacht werden.
Journalisten: Apples Foto-Scan gefährdet die Pressefreiheit
Journalistenverbände kritisieren Apples angekündigte Suche nach Kinderpornografie auf iPhones als Gefahr für die Presse und investigative Recherchen.
Apples Anti-Fraud-Chef: "Wir sind die größte Kinderporno-Plattform"
In einer internen iMessage-Unterhaltung von 2020 gab Eric Friedman zu, über das Problem Bescheid zu wissen.
Forscher tricksen Apples Foto-Scan aus
Neuralhash, die Kernkomponente von Apples umstrittener Foto-Scan-Funktion, wurde von Forschern nachgebaut und ausgetrickst.
Zensur: Verbände drängen Apple zu Aufgabe von Foto-Scan-Plänen
Es sei enttäuschend, denn Apple sei ein entschiedener Verbündeter hinsichtlich der Verschlüsselung von Daten gewesen
Journalisten: Apples Foto-Scan gefährdet die Pressefreiheit
Journalistenverbände kritisieren Apples angekündigte Suche nach Kinderpornografie auf iPhones als Gefahr für die Presse und investigative Recherchen.
Nach Kritik: Apple sucht nur nach Bildern, die in mehreren Ländern bekannt sind
Die angekündigten Maßnahmen gegen Kindesmissbrauch hatten zuvor Überwachungsängste und Kritik geweckt
Apples umstrittene Maßnahmen gegen Kinderpornografie führen zu internen Protesten
Mitarbeiter befürchten, dass das System künftig auch für Überwachung eingesetzt werden könnte. Bürgerrechtler werfen Apple vor, den Weg für vorgeschriebene Schwachstellen zu bereiten
Kinderporno-Scan: Apple wehrt sich mit FAQ-Dokument gegen Kritik
Nach heftiger Kritik von Datenschützer*innen hat Apple nun ein 6-seitiges FAQ-Dokument zum neuen Kinderporno-Scanner veröffentlicht.
Foto-Scans: Apple nennt Kritiker "kreischende Stimmen der Minderheit"
Apple will iPhones automatisch auf Darstellungen von Kindesmissbrauch scannen und Eltern vor pornografischen Inhalten im iMessage-Chat ihrer Kinder warnen
Apple scannt iPhones künftig auf Darstellungen von Kindesmissbrauch
Betroffen sind vorerst nur Nutzer in den USA. Sicherheitsforscher und Aktivisten warnen, dass dieser Vorstoß das Tor für staatliche Überwachung öffnen könnte



Es gibt noch 237 weitere Blogeinträge ...

« Der Schrei nach Selbstbestimmung endet doch wieder im Egoismus | Ist es überhaupt noch möglich zu debattieren? »





Kurze URL:


Bewertung: 3.4/5 (13 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(24)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar angestimmt...

;-)

Top