Stanford-Forscher haben festgestellt dass Mastodon ein massives Problem mit Kindesmissbrauchsmaterial hat

25. Juli 2023, 10:18 |  1 Kommentar


Bild: Mastodon

Das Stanford Internet Observatory hat 112 Fälle bekannter CSAM in 325.000 Posts auf Mastodon gefunden.

Laut einer neuen Studie des Stanford Internet Observatory (via The Washington Post) ist Mastodon, das dezentrale Netzwerk, das als brauchbare Alternative zu Twitter gilt, voller Material über sexuellen Missbrauch von Kindern (CSAM). In nur zwei Tagen fanden Forscher 112 bekannte CSAM-Vorfälle in 325.000 Beiträgen auf der Plattform - wobei der erste Vorfall bereits nach fünf Minuten Suche auftauchte.

dafür haben die Forscher die 25 beliebtesten Mastodon-Instanzen nach CSAM durchsucht. Die Forscher nutzten außerdem die SafeSearch-API von Google, um anstößige Bilder zu identifizieren, sowie PhotoDNA, ein Tool, das bei der Suche nach gekennzeichneten CSAM hilft. Bei seiner Suche fand das Team 554 Inhalte, die mit Hashtags oder Schlüsselwörtern übereinstimmten, die häufig von Online-Gruppen zum sexuellen Missbrauch von Kindern verwendet werden. Alle diese Inhalte wurden von Google SafeSearch als explizit mit der "höchsten Zuverlässigkeit" eingestuft.

Mehr dazu findest Du auf theverge.com





Kurze URL:


Bewertung: 3.0/5 (10 Stimmen)


Das könnte Dich auch interessieren:

Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(1)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top