schaf am 22. April 2022 um 09:29 |  0 Kommentare | Lesezeit: 1 Minute, 24 Sekunden

Apple startet umstrittenen Nacktbildfilter für iMessage-Nachrichten an Kinder

Maßnahmen gegen die Verbreitung von Darstellungen des sexuellen Missbrauchs gegen Kinder hatten vor einigen Monaten für viel Aufregung gesorgt. Nun wird ein Teil umgesetzt



Als Apple vergangenen Sommer ein Maßnahmenpaket im Kampf gegen die Verbreitung von Darstellungen des sexuellen Missbrauchs von Kindern (CSAM) verkündete, hatte man mit der Reaktion darauf offenbar nicht gerechnet. Hagelte es doch scharfe Kritik von unterschiedlichsten Seiten. So warnten etwa Sicherheitsexperten, dass Apple damit die "Büchse der Pandora" öffne und eine Art Hintertür für staatliche Behörden schaffe. NSA-Whistleblower Edward Snowden sprach gar davon, dass Apple der "Privatsphäre den Krieg erklärt" habe.

Das Ergebnis war eines, das man von Apple sonst so gar nicht kennt: Das Unternehmen legte die Pläne zunächst auf Eis. "Verschieben" und "einstellen", das sind aber nun mal zwei sehr unterschiedliche Dinge. Und so gibt ein Teil der anvisierten Maßnahmen nun ein Comeback. iPhones suchen künftig gezielt nach Nacktbildern in an Kinder verschickten iMessage-Nachrichten, das berichtete zunächst der "Guardian".

Für dieses System kommt eine am Gerät selbst laufende künstliche Intelligenz zum Einsatz, die auf Nacktaufnahmen trainiert wurde. Erkennt diese in an unter 13-Jährige verschickte Mitteilungen entsprechende Inhalte, werden diese unkenntlich gemacht. Zudem wird dem Kind eine Warnung angezeigt und der Tipp gegeben, Erwachsene zu kontaktieren. Einen ähnlichen Schutz gibt es auch, wenn die Kinder selbst solche Bilder verschicken wollen. In solch einem Fall wird vor dem Versenden noch einmal gewarnt.

Mehr dazu findest Du auf derstandard.at


Alle News zu diesem Thema
Apple begründet Aus für automatischen Foto-Scan
Bereits im Dezember hatte sich Apple von seinen Plänen zum automatischen Scannen von iCloud-Bildern verabschiedet. Nun liefert das Unternehmen eine Begründung: Es sei "praktisch unmöglich", automatische Scans mit Privatsphäre und Sicherheit zu vereinen. Das lässt auch vor dem Hintergrund der EU-Debatte um die Chatkontrolle aufhorchen.
Apple startet umstrittenen Nacktbildfilter für iMessage-Nachrichten an Kinder
Maßnahmen gegen die Verbreitung von Darstellungen des sexuellen Missbrauchs gegen Kinder hatten vor einigen Monaten für viel Aufregung gesorgt. Nun wird ein Teil umgesetzt
Kinderporno-Scans: Apple durchsucht iOS-Geräte vorerst nicht
Das Konzept soll nach massiver Kritik von Datenschützer*innen noch einmal überdacht werden.
Journalisten: Apples Foto-Scan gefährdet die Pressefreiheit
Journalistenverbände kritisieren Apples angekündigte Suche nach Kinderpornografie auf iPhones als Gefahr für die Presse und investigative Recherchen.
Apples Anti-Fraud-Chef: "Wir sind die größte Kinderporno-Plattform"
In einer internen iMessage-Unterhaltung von 2020 gab Eric Friedman zu, über das Problem Bescheid zu wissen.
Forscher tricksen Apples Foto-Scan aus
Neuralhash, die Kernkomponente von Apples umstrittener Foto-Scan-Funktion, wurde von Forschern nachgebaut und ausgetrickst.
Zensur: Verbände drängen Apple zu Aufgabe von Foto-Scan-Plänen
Es sei enttäuschend, denn Apple sei ein entschiedener Verbündeter hinsichtlich der Verschlüsselung von Daten gewesen
Journalisten: Apples Foto-Scan gefährdet die Pressefreiheit
Journalistenverbände kritisieren Apples angekündigte Suche nach Kinderpornografie auf iPhones als Gefahr für die Presse und investigative Recherchen.
Nach Kritik: Apple sucht nur nach Bildern, die in mehreren Ländern bekannt sind
Die angekündigten Maßnahmen gegen Kindesmissbrauch hatten zuvor Überwachungsängste und Kritik geweckt
Apples umstrittene Maßnahmen gegen Kinderpornografie führen zu internen Protesten
Mitarbeiter befürchten, dass das System künftig auch für Überwachung eingesetzt werden könnte. Bürgerrechtler werfen Apple vor, den Weg für vorgeschriebene Schwachstellen zu bereiten
Kinderporno-Scan: Apple wehrt sich mit FAQ-Dokument gegen Kritik
Nach heftiger Kritik von Datenschützer*innen hat Apple nun ein 6-seitiges FAQ-Dokument zum neuen Kinderporno-Scanner veröffentlicht.
Foto-Scans: Apple nennt Kritiker "kreischende Stimmen der Minderheit"
Apple will iPhones automatisch auf Darstellungen von Kindesmissbrauch scannen und Eltern vor pornografischen Inhalten im iMessage-Chat ihrer Kinder warnen
Apple scannt iPhones künftig auf Darstellungen von Kindesmissbrauch
Betroffen sind vorerst nur Nutzer in den USA. Sicherheitsforscher und Aktivisten warnen, dass dieser Vorstoß das Tor für staatliche Überwachung öffnen könnte






Kurze URL:


Bewertung: 2.2/5 (9 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar angestimmt...

;-)

Top