Chatbot "Tay" blamierte Microsoft mit rassistischen Entgleisungen

25. März 2016, 13:41

0
Kommentare
Bild: Screenshot


Experiment auf Twitter wurde zum Debakel

Microsoft hat eine Chatbot-Software von Netz nehmen müssen, nachdem Nutzer sie durch Tricks massenhaft zu rassistischen Entgleisungen verleiten konnten.

Nutzer brachten "Tay" unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verneinen und Schwarze zu beleidigen. Ein Großteil dieser Tweets wurde später gelöscht. Nach einigen Stunden verkündete die Maschine über ihren Twitter-Account "@TayandYou", sie müsse nach so vielen Gesprächen schlafen und ging vom Netz. Microsoft erklärte, bei "Tay" würden "einige Anpassungen" gemacht.

Mehr dazu findest Du auf derstandard.at





Kurze URL:


Bewertung: 2.0/5 (8 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top