Kefir am 24. Okt. 2023 um 21:20 |  0 Kommentare | Lesezeit: 38 Sekunden

Neues Tool "vergiftet" KI-Datensätze und macht sie unbrauchbar

Das Tool "Nightshade" soll Künstler*innen eine Möglichkeit geben, gegen das Kopieren ihrer Arbeit vorzugehen.

Mit einem neuen Tool soll es möglich sein, die Trainingsdaten von Künstlicher Intelligenz unbrauchbar zu machen. Mit "Nightshade" sollen sich Künstler gegen KI-Modelle wie DALL-E oder Midjourney wehren können.

Die KIs wurden unter anderem mit den Bildern von Künstler trainiert, deren Stil sie anschließend kopieren können. Mit dem neuen Tool kann die KI aber so stark verwirrt werden, dass sie gar keine brauchbaren Bilder mehr produziert. Tippt man einen Text ein, der nach Hunden verlangt, produziert sie Katzen, fragt man nach Autos bekommt man Kühe, heißt es bei MIT Technology Review.

Mehr dazu findest Du auf futurezone.at





Kurze URL:


Bewertung: 4.0/5 (3 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar angestimmt...

;-)

Top