Deepfake-Apps schützen zu wenig vor Porno-Missbrauch (16. September 2022/13:36) Bild: Pixabay Millionenfach genutzte Deepfake-Apps lassen sich wohl ohne Vorkehrungen für Pornos oder sexualisierte Gewalt zweckentfremden. Eine gemeinsame Recherche von Netzpolitik.org und Spiegel kommt zu dem Schluss, dass derzeit vielfach genutzte Deepfake-Apps nicht oder nur unzureichend vor "bildbasierter, sexualisierter Gewalt" schützen. So lassen sich mit den Apps etwa direkt Gesichter in Porno-Videos oder auch auf Bikini-Bildern und Ähnlichem austauschen. Und selbst wenn diese Art Kategorie gebannt werde, seien immer noch sexualisierte Inhalte möglich. Die sogenannte Deepfake-Technik ermöglicht es, mit Hilfe von Machine Learning in Videos etwa täuschend echt Gesichter auszutauschen. Das lässt sich für klassische Film- und Fernsehproduktionen nutzen, aber auch für pornografische Inhalte. Letzteres kann schnell zu Schwierigkeiten oder auch Belästigungen für betroffene Personen führen und geschieht auch meist ohne Einverständnis. Bereits im vergangenen Jahr zeigte sich, dass das Problem immer größer zu werden scheint. Mit derartigen Angeboten werden immer mehr Grenzen überschritten, die bereits seit langem als Problem erkannt werden. So musste der Dienst Deepnude, der Bilder von Frauen in Nacktbilder verwandelt hatte, schon vor mehr als drei Jahren aufgrund des extrem großen Interesses eingestellt wurde.
|
https://ress.at/deepfakeapps-schuetzen-zu-wenig-vor-pornomissbrauch-news16092022133624.html
© by RessServerWorks, 2024