Chatbot "Tay" blamierte Microsoft mit rassistischen Entgleisungen (25. März 2016/13:41) Bild: Screenshot Experiment auf Twitter wurde zum Debakel Microsoft hat eine Chatbot-Software von Netz nehmen müssen, nachdem Nutzer sie durch Tricks massenhaft zu rassistischen Entgleisungen verleiten konnten. Nutzer brachten "Tay" unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verneinen und Schwarze zu beleidigen. Ein Großteil dieser Tweets wurde später gelöscht. Nach einigen Stunden verkündete die Maschine über ihren Twitter-Account "@TayandYou", sie müsse nach so vielen Gesprächen schlafen und ging vom Netz. Microsoft erklärte, bei "Tay" würden "einige Anpassungen" gemacht.
|
https://ress.at/chatbot-tay-blamierte-microsoft-mit-rassistischen-entgleisungen-news25032016134101.html
© by RessServerWorks, 2024