Deep Learning macht KI-Systeme besonders sexistisch (19. Juni 2020/10:39) Zeigt Untersuchung von Linzer Forschern - Muss sich Verzerrung von KI-Ergebnissen durch menschliche Vorurteile bewusst machen Entscheidungen von Maschinen mittels Künstlicher Intelligenz (KI) haben sich in der Vergangenheit bereits als diskriminierend oder rassistisch erwiesen. Denn die Algorithmen greifen auf Daten zu, die von Menschen stammen und oftmals mit Vorurteilen belastet sind. Linzer Forscher zeigen nun, dass die Ergebnisse von Suchmaschinen, die Deep Learning nutzen, besonders sexistisch verzerrt sind. Die Diskriminierung durch Algorithmen wurde in zahlreichen Studien belegt. Da werden Menschen mit Migrationshintergrund als weniger kreditwürdig eingestuft, von Polizeicomputern häufiger verdächtigt oder sie bekommen von sozialen Plattformen Angebote für schlechtere Jobs oder Wohnungen. Microsoft musste eine Chatbot-Software nach kurzer Zeit vom Netz nehmen, weil Nutzer sie dazu brachten, den Holocaust zu leugnen und Schwarze zu beleidigen.
|
https://ress.at/deep-learning-macht-kisysteme-besonders-sexistisch-news19062020103939.html
© by RessServerWorks, 2024