> Forums > News
Apple will nicht mehr Fotos der User scannen, um Kinderpornos zu finden
Erstellt
Dez. '22
|
letzte Antwort
Noch keine
|
Antworten
Noch keine
|
Aufrufe
130 |
0
„Gefällt mir“ |
Abos
Noch keine |
Fr., 09. Dezember, 2022 um 21:54
#1
Laut Apple könnten Kinder auch geschützt werden, ohne dass Unternehmen personenbezogene Daten durchsuchen. Apple hat die Entwicklung seiner sogenannten CSAM-Technologie ("Child Sexual Abuse Material") endgültig beendet. Diese zielte darauf ab, potenzielle kinderpornografische Inhalte auf Benutzergeräten anhand spezieller Hashtags zu erkennen. Auf die Geräte sollte eine Datei mit sogenannten "Hashes" von bereits bekannten kinderpornografischen Inhalten geladen werden - eine Art digitaler Fingerabdruck des Bildes. Damit lässt sich bei einem Abgleich mit speziellen Verfahren eine Kopie des Fotos erkennen, das Original kann aus dem Hash aber nicht wiederhergestellt werden. Bei mehr als 30 Treffern hätte Apple die Strafverfolgungsbehörden eingeschaltet. C&M News: https://ress.at/-news09122022215418.html |
|
Du hast bereits für diesen
Post abgestimmt...
;-)
https://t.ress.at/SJshM/
Ähnliche Themen:
© by Ress Design Group, 2001 - 2024