> Forums > News
Microsofts Bing-Suche mit ChatGPT beleidigt Nutzer
Erstellt
Feb. '23
|
letzte Antwort
Noch keine
|
Antworten
Noch keine
|
Aufrufe
70 |
0
„Gefällt mir“ |
Abos
Noch keine |
Mi., 15. Februar, 2023 um 22:07
#1
Das neue Bing mit integriertem "KI-Co-Piloten" dürfte noch fehleranfällig sein. Viele Nutzer*innen versuchen, das System zu manipulieren. Vor einer Woche schaltete Microsoft eine Testversion seiner Bing-Suche frei, die mit einem auf ChatGPT basierenden KI-Co-Piloten ausgestattet ist. Nutzer*innen können bis zu 1.000 Zeichen lange Fragen stellen, die dann von Bing beantwortet werden sollen. Getestet werden kann das "neue Bing", mit dem Microsoft Googles Suche zusetzen will, von einer begrenzten Anzahl von Nutzer*innen in den USA. Viele weitere haben sich auf einer Warteliste eingetragen. Nun werden erste Beispiele bekannt, die zeigen, wie fehleranfällig das System noch ist. So soll es Nutzer*innen beleidigen und belügen und auch seine eigene Existenz infrage stellen. Viele der aus dem Ruder gelaufenen Antworten gehen auch darauf zurück, dass Nutzer*innen versuchen, das System mit ungewöhnlichen Befehlen zu manipulieren und es dazu zu bringen, vorgegebene Regeln zu ignorieren. C&M News: https://ress.at/-news15022023220756.html |
|
Du hast bereits für diesen
Post abgestimmt...
;-)
https://t.ress.at/Dpb5s/
Ähnliche Themen:
© by Ress Design Group, 2001 - 2024