> Forums > News

Deepfake-Apps schützen zu wenig vor Porno-Missbrauch

Erstellt
Sep. '22
letzte Antwort
Noch keine
Antworten
Noch keine
Aufrufe
172
0
„Gefällt mir“
Abos
Noch keine
Fr., 16. September, 2022 um 13:36
#1


Bild: Pixabay

Millionenfach genutzte Deepfake-Apps lassen sich wohl ohne Vorkehrungen für Pornos oder sexualisierte Gewalt zweckentfremden.

Eine gemeinsame Recherche von Netzpolitik.org und Spiegel kommt zu dem Schluss, dass derzeit vielfach genutzte Deepfake-Apps nicht oder nur unzureichend vor "bildbasierter, sexualisierter Gewalt" schützen. So lassen sich mit den Apps etwa direkt Gesichter in Porno-Videos oder auch auf Bikini-Bildern und Ähnlichem austauschen. Und selbst wenn diese Art Kategorie gebannt werde, seien immer noch sexualisierte Inhalte möglich.

Die sogenannte Deepfake-Technik ermöglicht es, mit Hilfe von Machine Learning in Videos etwa täuschend echt Gesichter auszutauschen. Das lässt sich für klassische Film- und Fernsehproduktionen nutzen, aber auch für pornografische Inhalte. Letzteres kann schnell zu Schwierigkeiten oder auch Belästigungen für betroffene Personen führen und geschieht auch meist ohne Einverständnis. Bereits im vergangenen Jahr zeigte sich, dass das Problem immer größer zu werden scheint.

Mit derartigen Angeboten werden immer mehr Grenzen überschritten, die bereits seit langem als Problem erkannt werden. So musste der Dienst Deepnude, der Bilder von Frauen in Nacktbilder verwandelt hatte, schon vor mehr als drei Jahren aufgrund des extrem großen Interesses eingestellt wurde.






C&M News: https://ress.at/-news16092022133624.html

> Forums > News

Du hast bereits für diesen Post abgestimmt...

;-)



Logo https://t.ress.at/B8qeb/


Ähnliche Themen:











Top