ChatGPT antwortete kurzfristig nur noch Blödsinn (22. Februar 2024/11:15) Ein Bug sorgte dafür, dass der Chatbot deutlich mehr halluzinierte als üblich. Entwickler OpenAI verspricht, das Problem mittlerweile wieder behoben zu haben Die Antworten des populärsten KI-Assistenten ChatGPT sollen am Dienstag aber ein ganz neues Ausmaß an Halluzinieren erreicht haben: Ein Bug im Sprachmodell hat offenbar dazu geführt, dass OpenAIs Aushängeschild eine Reihe unerwartet verrückter Antworten ausspuckte. Die Reaktionen der Nutzerinnen und Nutzer fielen dementsprechend verwundert aus. Während Nutzer auf X etwa meinten, dass ChatGPT seinen Verstand komplett verloren habe, scherzte man auch auf Reddit, dass der Chatbot verrückt geworden sei, an Demenz leide oder einen Schlaganfall erlitten habe. Andere wiederum stellten aber auch ihren eigenen Gesundheitszustand infrage.
|
https://ress.at/chatgpt-antwortete-kurzfristig-nur-noch-bloedsinn-news24022024011821.html
© by RessServerWorks, 2024