Apple will nicht mehr Fotos der User scannen, um Kinderpornos zu finden

09. Dez. 2022, 21:54 |  0 Kommentare

Laut Apple könnten Kinder auch geschützt werden, ohne dass Unternehmen personenbezogene Daten durchsuchen.



Apple hat die Entwicklung seiner sogenannten CSAM-Technologie ("Child Sexual Abuse Material") endgültig beendet. Diese zielte darauf ab, potenzielle kinderpornografische Inhalte auf Benutzergeräten anhand spezieller Hashtags zu erkennen.

Auf die Geräte sollte eine Datei mit sogenannten "Hashes" von bereits bekannten kinderpornografischen Inhalten geladen werden - eine Art digitaler Fingerabdruck des Bildes. Damit lässt sich bei einem Abgleich mit speziellen Verfahren eine Kopie des Fotos erkennen, das Original kann aus dem Hash aber nicht wiederhergestellt werden. Bei mehr als 30 Treffern hätte Apple die Strafverfolgungsbehörden eingeschaltet.


Mehr dazu findest Du auf futurezone.at





Kurze URL:


Bewertung: 3.0/5 (5 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top