...::: C&M News by Ress - Druckansicht :::...

Drucken (Bereits 54 mal)


Vorurteile bei KI: "Probleme oft schon in den Daten"

(24. November 2020/20:54)
Nicht nur Menschen, sondern auch Künstliche Intelligenz hat mit Vorurteilen zu kämpfen. Bei Google versucht man, dagegen etwas zu tun.

Künstliche Intelligenz (KI) bietet zahlreiche neue Möglichkeiten, wirft gleichzeitig aber auch viele neue Fragen auf. Zu den größten Risiken zählt vielen Forschern zufolge, dass menschliche Vorurteile durch KI-Systeme reproduziert werden, wodurch soziale Ungleichheit auch verstärkt werden könnte. "Algorithmen werden von Menschen gemacht und basieren auf Daten, die unsere Realität widerspiegeln", sagte etwa die Wissenschaftlerin Carla Hustedt im futurezone-Interview.

Die Gefahr ist nicht nur theoretisch, wie bereits an mehreren Beispielen zu sehen war. So musste etwa das Massachusetts Institute of Technology (MIT) einen Datensatz entfernen, der Künstlicher Intelligenz rassistische und frauenverachtende Begriffe beigebracht hat. Auch Microsoft hatte bereits mit Rassismus bei einem KI-System zu kämpfen. Und vor kurzem haben auch Linzer Forscher untersucht, wie Algorithmen dazu führen, dass Suchmaschinen - wie etwa Google - sexistisch verzerrte Inhalte liefern.

Bei Google beschäftigt man sich - nicht erst seit dem Erscheinen der Studie - intensiv mit dem Thema und hat entsprechende Programme zum Thema "Responsible AI" - also verantwortungsvoller KI - ins Leben gerufen. Auch ist ein zentraler Punkt von Googles Prinzipien für Künstliche Intelligenz, dass damit keine Vorurteile erzeugt oder verstärkt werden.


Mehr dazu findet ihr auf futurezone.at


https://ress.at/vorurteile-bei-ki-probleme-oft-schon-in-den-daten-news24112020205417.html
© by RessServerWorks, 2024