> Forums > CM News
Deepnude: Aufregung um App, die Frauen "auszieht"
Erstellt
Jun. '19
|
letzte Antwort | Antworten
12
|
Aufrufe
2.9T |
28
„Gefällt mir“ |
Abos
Noch keine |
Fr., 28. Juni, 2019 um 11:23
#1
Mithilfe von Maschinenlernen wurden normale Bilder in Nacktfotos verwandelt. Der Entwickler nimmt die App nach Kritik wieder offline https://www.ress.at/-news28062019112301.html |
|
Fr., 28. Juni, 2019 um 11:37
#2
OMG!!! Wo ist der Downloadlink??? Ich brauch dieses Programm!!! C&M distanziert sich konkret und ausdrücklich vom Inhalt dieses Postings. Der Ersteller des Postings haftet für seine Äußerungen. Inhalte, die nicht den Forumsregeln entsprechen sind bitte vom Leser zu melden ... |
|
Fr., 28. Juni, 2019 um 12:06
#3
Gast hat Folgendes geschrieben: OMG!!! Wo ist der Downloadlink??? Ich brauch dieses Programm!!! Es ist nicht mehr verfügbar weil der Hersteller es eingestellt hat.. Und selbst wenn du anderes wo im Internet das Programm auftreibst ist der Server zum ausführen nicht mehr verfügbar.. |
|
Fr., 28. Juni, 2019 um 14:43
#4
schaf hat Folgendes geschrieben: Es ist nicht mehr verfügbar weil der Hersteller es eingestellt hat.. Ist an einigen Stellen im Netz noch verfügbar... Aber ich will keine Links posten *gg* Aber eine einfache Google Suche bringt bereits die Downloadlinks... schaf hat Folgendes geschrieben: Und selbst wenn du anderes wo im Internet das Programm auftreibst ist der Server zum ausführen nicht mehr verfügbar.. Da muss ich widersprechen... Ich habe das Programm bereits am ersten Tag zum testen bekommen, da wir nun auch viel mit Künstlicher Intelligenz forschen und es funktioniert auch offline ohne Probleme. Das ganze hat ca. 2,6 GB und bringt somit alles mit was man für das umwandeln braucht. Aber muss sagen, dass es bei mir niemals irgendwelche guten Ergebnisse angeliefert hat. Bei allen Testbildern war alles verschoben und niemals an der richtigen Stelle. |
|
Fr., 28. Juni, 2019 um 14:52
#5
Bitte!!! Wo ist der Link??? C&M distanziert sich konkret und ausdrücklich vom Inhalt dieses Postings. Der Ersteller des Postings haftet für seine Äußerungen. Inhalte, die nicht den Forumsregeln entsprechen sind bitte vom Leser zu melden ... |
|
Fr., 28. Juni, 2019 um 15:13
#6
Gast hat Folgendes geschrieben: Bitte!!! Wo ist der Link??? Google doch einfach... Aber als kleinen Zusatztipp -> Reddit |
|
Fr., 28. Juni, 2019 um 16:05
#7
Ich finde auch keinen link!!! Kannst du bitte direkt verlinken??? C&M distanziert sich konkret und ausdrücklich vom Inhalt dieses Postings. Der Ersteller des Postings haftet für seine Äußerungen. Inhalte, die nicht den Forumsregeln entsprechen sind bitte vom Leser zu melden ... |
|
Fr., 28. Juni, 2019 um 22:05
#9
Ach kommt!!! Bitte!!! Ich brauch den link!!! C&M distanziert sich konkret und ausdrücklich vom Inhalt dieses Postings. Der Ersteller des Postings haftet für seine Äußerungen. Inhalte, die nicht den Forumsregeln entsprechen sind bitte vom Leser zu melden ... |
|
Fr., 28. Juni, 2019 um 22:36
#10
Ich finde diese Aufregung gegen diese Appidee aus logischer Sicht etwas befremdlich. Es gibt Nackscanner und keiner regt sich auf. Es gibt Gewaltfantasien die ungehemmt verbreitet werden dürfen und keiner regt sich auf. Es gibt Organe, die UNS ALLE online datentechnisch insoweit ausziehen, dass wir nackter sind als nackt. Und keiner regt sich auf. Bei aller Liebe - Das ist die Übernahme der US-Amerikanischen Prüderie, die aber doch immerhin die Freiheit lässt dem ungebremsten Hass und Verfolgungswahn gegen andere Menschen freien Lauf zu lassen... C&M distanziert sich konkret und ausdrücklich vom Inhalt dieses Postings. Der Ersteller des Postings haftet für seine Äußerungen. Inhalte, die nicht den Forumsregeln entsprechen sind bitte vom Leser zu melden ... |
|
Sa., 29. Juni, 2019 um 5:01
#11
Ihr scheiss euch bei diesem Programm so an wegen eines Links und bei "FakeApp" habt ihr damals sogar selbst das Programm zur verfügung gestellt, obwohl man mit diesem auch Pornos erzeugen kann!!! C&M distanziert sich konkret und ausdrücklich vom Inhalt dieses Postings. Der Ersteller des Postings haftet für seine Äußerungen. Inhalte, die nicht den Forumsregeln entsprechen sind bitte vom Leser zu melden ... |
|
Sa., 29. Juni, 2019 um 5:06
#12
Hier der Beweis im Forum https://ress.at/forum/deepfakes-fakeapp-mithilfe-von-kunstlicher-intelligenz-die-gesichter-in-videos-erkennen-und-durch-aufnahmen-anderer-personen-ersetzen-t37080.html C&M distanziert sich konkret und ausdrücklich vom Inhalt dieses Postings. Der Ersteller des Postings haftet für seine Äußerungen. Inhalte, die nicht den Forumsregeln entsprechen sind bitte vom Leser zu melden ... |
|
Sa., 29. Juni, 2019 um 8:17
#13
Gast hat Folgendes geschrieben: Ich finde diese Aufregung gegen diese Appidee aus logischer Sicht etwas befremdlich. Es gibt Nackscanner und keiner regt sich auf. Es gibt Gewaltfantasien die ungehemmt verbreitet werden dürfen und keiner regt sich auf. Es gibt Organe, die UNS ALLE online datentechnisch insoweit ausziehen, dass wir nackter sind als nackt. Und keiner regt sich auf. Bei aller Liebe - Das ist die Übernahme der US-Amerikanischen Prüderie, die aber doch immerhin die Freiheit lässt dem ungebremsten Hass und Verfolgungswahn gegen andere Menschen freien Lauf zu lassen... Hier ist sehe ich eher das Problem darin das jeder Nacktbilder von dir erstellen und veröffendliche kann. Klar konnte/kann man dies auch mit Bildbearbeitunsprogramme, aber mit diesem Programm wird es um einiges einfacher. Einfach das Bild rein und es wird automatisch umgewandelt. Aber die Qualität kann man streiten. Da soll doch einiges im Argen liegen und oft die Geschlechtsmerkmale sehr verschoben sein. *gg* Dazu kommen noch einige Strafbestände wenn man dieses Programm benutzt und noch mehr wenn man die Bilder danach veröffendlicht., Gast hat Folgendes geschrieben: Ihr scheiss euch bei diesem Programm so an wegen eines Links und bei "FakeApp" habt ihr damals sogar selbst das Programm zur verfügung gestellt, obwohl man mit diesem auch Pornos erzeugen kann!!! Dieses Programm wurde auch nicht vom Hersteller zurückgezogen und Bekanntgeben das eine Weiterverbreitung unerwünscht ist.. Gast hat Folgendes geschrieben: Hier der Beweis im Forum https://ress.at/forum/deepfakes-fakeapp-mithilfe-von-kunstlicher-intelligenz-die-gesichter-in-videos-erkennen-und-durch-aufnahmen-anderer-personen-ersetzen-t37080.html Gast hat Folgendes geschrieben: Ach kommt!!! Bitte!!! Ich brauch den link!!! Wie du an dieses Programm kommst, ist eben unten bereits erwähnt und auch auf was du bei Goolge achten solltest.. |
|
Du hast bereits für diesen
Post abgestimmt...
;-)
https://t.ress.at/UYtkS/
Ähnliche Themen:
© by Ress Design Group, 2001 - 2024