> Forums > News

Microsofts Bing-Suche mit ChatGPT beleidigt Nutzer

Erstellt
Feb. '23
letzte Antwort
Noch keine
Antworten
Noch keine
Aufrufe
70
0
„Gefällt mir“
Abos
Noch keine
Mi., 15. Februar, 2023 um 22:07
#1

Das neue Bing mit integriertem "KI-Co-Piloten" dürfte noch fehleranfällig sein. Viele Nutzer*innen versuchen, das System zu manipulieren.



Vor einer Woche schaltete Microsoft eine Testversion seiner Bing-Suche frei, die mit einem auf ChatGPT basierenden KI-Co-Piloten ausgestattet ist. Nutzer*innen können bis zu 1.000 Zeichen lange Fragen stellen, die dann von Bing beantwortet werden sollen.

Getestet werden kann das "neue Bing", mit dem Microsoft Googles Suche zusetzen will, von einer begrenzten Anzahl von Nutzer*innen in den USA. Viele weitere haben sich auf einer Warteliste eingetragen. Nun werden erste Beispiele bekannt, die zeigen, wie fehleranfällig das System noch ist. So soll es Nutzer*innen beleidigen und belügen und auch seine eigene Existenz infrage stellen.

Viele der aus dem Ruder gelaufenen Antworten gehen auch darauf zurück, dass Nutzer*innen versuchen, das System mit ungewöhnlichen Befehlen zu manipulieren und es dazu zu bringen, vorgegebene Regeln zu ignorieren.






C&M News: https://ress.at/-news15022023220756.html

> Forums > News

Du hast bereits für diesen Post abgestimmt...

;-)



Logo https://t.ress.at/Dpb5s/


Ähnliche Themen:











Top