KI-Programm macht jeden zum Pornostar: Tausende Clips auf Reddit

25. Januar 2018, 15:20

2
Kommentare
Bild: Screenshot

Eine neue Software kann dank KI-Technologien jeden unfreiwillig zum Pornostar machen. Derzeit trifft das vor allem Prominente, die in Porno-Clips montiert werden.

Ein neues Programm namens "FakeApp" kann mithilfe von künstlicher Intelligenz die Gesichter in Videos erkennen und durch Aufnahmen anderer Personen ersetzen. Dieses Programm, das bereits im Vorjahr durch einen Motherboard-Bericht bekannt wurde, sorgt nun vor allem auf Reddit für Furore. Dort wird es vor allem dazu verwendet, um die Gesichter von Prominenten in Porno-Clips einzufügen. Diese "Fake-Promi-Pornos" werden in einem eigenen Subreddit verbreitet, das derzeit knapp 22.000 Leser zählt. Dieses wird auch vom Entwickler der Software, der lediglich als "Deepfakes" bekannt ist, geleitet.

Der Aufwand für derartige Videos ist vergleichsweise gering. Man benötigt lediglich eine aktuelle Nvidia-GPU, drei bis vier Gigabyte an freiem Speicherplatz sowie möglichst viele Aufnahmen einer Person, sodass die Algorithmen diese erkennen und in den passenden Situationen platzieren können. Bislang wurde die Technologie vorwiegend genutzt, um Prominente in Porno-Szenen zu montieren. Doch wie The Register anmerkt, könnte die Technologie auch verwendet werden, um gefälschte Rache-Pornos sowie Kinderpornografie zu erstellen.

Mehr dazu findest Du auf futurezone.at





Kurze URL:


Bewertung: 2.0/5 (7 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(2)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top