Apple will nicht mehr Fotos der User scannen, um Kinderpornos zu finden (09. Dezember 2022/21:54) Laut Apple könnten Kinder auch geschützt werden, ohne dass Unternehmen personenbezogene Daten durchsuchen. Apple hat die Entwicklung seiner sogenannten CSAM-Technologie ("Child Sexual Abuse Material") endgültig beendet. Diese zielte darauf ab, potenzielle kinderpornografische Inhalte auf Benutzergeräten anhand spezieller Hashtags zu erkennen. Auf die Geräte sollte eine Datei mit sogenannten "Hashes" von bereits bekannten kinderpornografischen Inhalten geladen werden - eine Art digitaler Fingerabdruck des Bildes. Damit lässt sich bei einem Abgleich mit speziellen Verfahren eine Kopie des Fotos erkennen, das Original kann aus dem Hash aber nicht wiederhergestellt werden. Bei mehr als 30 Treffern hätte Apple die Strafverfolgungsbehörden eingeschaltet.
|
https://ress.at/apple-will-nicht-mehr-fotos-der-user-scannen-um-kinderpornos-zu-finden-news09122022215418.html
© by RessServerWorks, 2024