Zu gefährlich: Microsoft stoppt öffentlichen Zugang zu KI, die Emotionen erkennt

22. Juni 2022, 15:15 |  0 Kommentare

Die Technologie könne missbraucht werden für Diskriminierung und ungerechtfertigte Verweigerung von Diensten, sagt der IT-Konzern

In den letzten Jahren hat sich in der Entwicklung künstlicher Intelligenz viel getan. Von Brettspielen über Medizin bis hin zur Generierung teils erstaunlich guter Bilder und Chatbots, die von menschlichen Gesprächspartnern kaum noch zu unterscheiden sind, zeigt die Technologie ihr großes, aber auch gefährliches Potenzial.

Und das weckt auch Ängste davor, dass die Maschinen sich eines Tages vielleicht zu den Herrschern über die Menschen aufschwingen könnten. Gerade diese auch in zahlreichen Sci-Fi-Filmen verarbeitete Furcht dürfte auch das große Interesse an der Berichterstattung über einen Google-Forscher erklären, der zur Ansicht gekommen war, dass die "Gesprächs-KI" des Konzerns, LaMDA, ein eigenes Bewusstsein entwickelt hatte. Sowohl Google selbst als auch verschiedene Experten aus der Forschung stellten aber klar, dass man technologisch noch weit davon entfernt sei, dass eine KI bewusstseinsähnliche Zustände erreichen könne.

Nun lässt Konkurrent Microsoft aufhorchen. Dort hat man sich entschlossen, eine KI aus eigener Entwicklung nicht mehr kommerziell zur Verfügung zu stellen, schreibt man in einem Blogpost. Im Rahmen des "Azure Cognitive Services"-Angebots hatte man eine Technologie entwickelt, die Gesichter auf Liveaufnahmen analysiert und versucht, Geschlecht, Alter sowie die aktuelle Stimmungslage einer Person zu erkennen.



Mehr dazu findest Du auf derstandard.at





Kurze URL:


Bewertung: 2.0/5 (6 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top