> Forums > News

Apple will nicht mehr Fotos der User scannen, um Kinderpornos zu finden

Erstellt
Dez. '22
letzte Antwort
Noch keine
Antworten
Noch keine
Aufrufe
128
0
„Gefällt mir“
Abos
Noch keine
Fr., 09. Dezember, 2022 um 21:54
#1

Laut Apple könnten Kinder auch geschützt werden, ohne dass Unternehmen personenbezogene Daten durchsuchen.



Apple hat die Entwicklung seiner sogenannten CSAM-Technologie ("Child Sexual Abuse Material") endgültig beendet. Diese zielte darauf ab, potenzielle kinderpornografische Inhalte auf Benutzergeräten anhand spezieller Hashtags zu erkennen.

Auf die Geräte sollte eine Datei mit sogenannten "Hashes" von bereits bekannten kinderpornografischen Inhalten geladen werden - eine Art digitaler Fingerabdruck des Bildes. Damit lässt sich bei einem Abgleich mit speziellen Verfahren eine Kopie des Fotos erkennen, das Original kann aus dem Hash aber nicht wiederhergestellt werden. Bei mehr als 30 Treffern hätte Apple die Strafverfolgungsbehörden eingeschaltet.






C&M News: https://ress.at/-news09122022215418.html

> Forums > News

Du hast bereits für diesen Post abgestimmt...

;-)



Logo https://t.ress.at/SJshM/


Ähnliche Themen:











Top