| ||||||||||
Fr 16. September, 2022 13:36
Millionenfach genutzte Deepfake-Apps lassen sich wohl ohne Vorkehrungen für Pornos oder sexualisierte Gewalt zweckentfremden. Eine gemeinsame Recherche von Netzpolitik.org und Spiegel kommt zu dem Schluss, dass derzeit vielfach genutzte Deepfake-Apps nicht oder nur unzureichend vor "bildbasierter, sexualisierter Gewalt" schützen. So lassen sich mit den Apps etwa direkt Gesichter in Porno-Videos oder auch auf Bikini-Bildern und Ähnlichem austauschen. Und selbst wenn diese Art Kategorie gebannt werde, seien immer noch sexualisierte Inhalte möglich. Die sogenannte Deepfake-Technik ermöglicht es, mit Hilfe von Machine Learning in Videos etwa täuschend echt Gesichter auszutauschen. Das lässt sich für klassische Film- und Fernsehproduktionen nutzen, aber auch für pornografische Inhalte. Letzteres kann schnell zu Schwierigkeiten oder auch Belästigungen für betroffene Personen führen und geschieht auch meist ohne Einverständnis. Bereits im vergangenen Jahr zeigte sich, dass das Problem immer größer zu werden scheint. Mit derartigen Angeboten werden immer mehr Grenzen überschritten, die bereits seit langem als Problem erkannt werden. So musste der Dienst Deepnude, der Bilder von Frauen in Nacktbilder verwandelt hatte, schon vor mehr als drei Jahren aufgrund des extrem großen Interesses eingestellt wurde. C&M News: https://ress.at/-news16092022133624.html Warum willst Du den Post von schaf melden? | |
Werbung Unterstützung in der Kommunikation mit Menschen, mit einer (geistigen) Behinderung. |
|
...::: C&M - News :::... Foren-Übersicht » News |
Du hast bereits für diesen
Post angestimmt...
;-)
Posting wird gespeichert...
Alle Zeiten sind GMT + 1 Stunde
© by Ress Design Group, 2001 - 2023