Vorurteile bei KI: "Probleme oft schon in den Daten"

24. Nov. 2020, 20:54 |  0 Kommentare

Nicht nur Menschen, sondern auch Künstliche Intelligenz hat mit Vorurteilen zu kämpfen. Bei Google versucht man, dagegen etwas zu tun.

Künstliche Intelligenz (KI) bietet zahlreiche neue Möglichkeiten, wirft gleichzeitig aber auch viele neue Fragen auf. Zu den größten Risiken zählt vielen Forschern zufolge, dass menschliche Vorurteile durch KI-Systeme reproduziert werden, wodurch soziale Ungleichheit auch verstärkt werden könnte. "Algorithmen werden von Menschen gemacht und basieren auf Daten, die unsere Realität widerspiegeln", sagte etwa die Wissenschaftlerin Carla Hustedt im futurezone-Interview.

Die Gefahr ist nicht nur theoretisch, wie bereits an mehreren Beispielen zu sehen war. So musste etwa das Massachusetts Institute of Technology (MIT) einen Datensatz entfernen, der Künstlicher Intelligenz rassistische und frauenverachtende Begriffe beigebracht hat. Auch Microsoft hatte bereits mit Rassismus bei einem KI-System zu kämpfen. Und vor kurzem haben auch Linzer Forscher untersucht, wie Algorithmen dazu führen, dass Suchmaschinen - wie etwa Google - sexistisch verzerrte Inhalte liefern.

Bei Google beschäftigt man sich - nicht erst seit dem Erscheinen der Studie - intensiv mit dem Thema und hat entsprechende Programme zum Thema "Responsible AI" - also verantwortungsvoller KI - ins Leben gerufen. Auch ist ein zentraler Punkt von Googles Prinzipien für Künstliche Intelligenz, dass damit keine Vorurteile erzeugt oder verstärkt werden.

Mehr dazu findest Du auf futurezone.at





Kurze URL:


Bewertung: 2.0/5 (5 Stimmen)


Das könnte Dich auch interessieren:

Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top