schaf am 26. Dez. 2019 um 18:47 |  0 Kommentare | Lesezeit: 40 Sekunden

US-Behörde bestätigt: Software für Gesichtserkennung "rassistisch"

Studienautoren sprechen von einem "algorithmischen Bias" - Personen mit asiatischem oder afroamerikanischem Aussehen bis zu 100 Mal öfter falsch identifiziert

Gesichtserkennungssoftware erkennt Menschen mit nichtweißer Hautfarbe weitaus schlechter, bestätigt eine behördlich durchgeführte Studie des National Institute for Standards and Technology nun. Wie die "Washington Post" berichtet, dürfte das in den USA für weitere Zweifel an der technischen Methode führen, die in den vergangenen Jahren immer aktiver zum Einsatz gekommen ist.

Bis zu 100 Mal öfter würden Menschen mit asiatischem und afroamerikanischem Aussehen falsch identifiziert werden, lautet das vernichtende Fazit der Studie. Vor allem dunkelhäutige Personen, speziell afroamerikanische Frauen, würden schlechter erkannt werden. Die Software sei zudem auch bei älteren Personen und Kindern ungenauer.

Mehr dazu findest Du auf derstandard.at





Kurze URL:


Bewertung: 1.8/5 (5 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar angestimmt...

;-)

Top