Stanford-Forscher haben festgestellt dass Mastodon ein massives Problem mit Kindesmissbrauchsmaterial hat
25. Juli 2023, 10:18
| 1 Kommentar
Bild: Mastodon
Das Stanford Internet Observatory hat 112 Fälle bekannter CSAM in 325.000 Posts auf Mastodon gefunden.
Laut einer
neuen Studie des Stanford Internet Observatory (via
The Washington Post) ist Mastodon, das dezentrale Netzwerk, das als brauchbare Alternative zu Twitter gilt, voller Material über sexuellen Missbrauch von Kindern (CSAM). In nur zwei Tagen fanden Forscher 112 bekannte CSAM-Vorfälle in 325.000 Beiträgen auf der Plattform - wobei der erste Vorfall bereits nach fünf Minuten Suche auftauchte.
dafür haben die Forscher die 25 beliebtesten Mastodon-Instanzen nach CSAM durchsucht. Die Forscher nutzten außerdem die SafeSearch-API von Google, um anstößige Bilder zu identifizieren, sowie PhotoDNA, ein Tool, das bei der Suche nach gekennzeichneten CSAM hilft. Bei seiner Suche fand das Team 554 Inhalte, die mit Hashtags oder Schlüsselwörtern übereinstimmten, die häufig von Online-Gruppen zum sexuellen Missbrauch von Kindern verwendet werden. Alle diese Inhalte wurden von Google SafeSearch als explizit mit der "höchsten Zuverlässigkeit" eingestuft.
Mehr dazu findest Du auf
theverge.com