Größter KI-Datensatz enthält Bilder von Kindesmissbrauch

21. Dez. 2023, 13:58 |  0 Kommentare

Der unter anderem von Stable Diffusion zum KI-Training genutzte Datensatz Laion 5B muss zwischenzeitlich vom Netz genommen werden.

Forscher der Universität Stanford haben in dem zum KI-Training genutzten Datensatz Laion 5B eigenen Angaben zufolge mehr als 3.000 Bilder gefunden, bei denen es sich um die Darstellung von Kindesmissbrauch (Child Sexual Abuse Material, CSAM) handeln könnte. Davon seien inzwischen mehr als 1.000 Bilder unabhängig als entsprechendes Material verifiziert worden, berichtet das Magazin 404 Media. Genutzt wird der Datensatz von Stable Diffusion sowie weiteren KI-Modellen.

Gefunden wurde das Material dem Bericht zufolge unter anderem über Hashwerte von bereits bekanntem Darstellungen. Das wiederum deutet darauf hin, dass Laion beim Erstellen des Datensatzes keinerlei Kontakt zu entsprechend spezialisierten Teams oder Forschern hatte, wie der Autor der Stanford-Studie David Thiel 404 Media sagte. Zwar seien Filtermethoden verwendete worden, Thiel hält diese aber für wenig eindrücklich.

Mehr dazu findest Du auf golem.de





Kurze URL:


Bewertung: 3.0/5 (3 Stimmen)


Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top