am 26. Dez. 2019 um 18:47
US-Behörde bestätigt: Software für Gesichtserkennung "rassistisch"
Studienautoren sprechen von einem "algorithmischen Bias" - Personen mit asiatischem oder afroamerikanischem Aussehen bis zu 100 Mal öfter falsch identifiziert
Gesichtserkennungssoftware erkennt Menschen mit nichtweißer Hautfarbe weitaus schlechter, bestätigt eine behördlich durchgeführte Studie des National Institute for Standards and Technology nun. Wie die "Washington Post" berichtet, dürfte das in den USA für weitere Zweifel an der technischen Methode führen, die in den vergangenen Jahren immer aktiver zum Einsatz gekommen ist.
Bis zu 100 Mal öfter würden Menschen mit asiatischem und afroamerikanischem Aussehen falsch identifiziert werden, lautet das vernichtende Fazit der Studie. Vor allem dunkelhäutige Personen, speziell afroamerikanische Frauen, würden schlechter erkannt werden. Die Software sei zudem auch bei älteren Personen und Kindern ungenauer.
Mehr dazu findest Du auf
derstandard.at