ChatGPT antwortete kurzfristig nur noch Blödsinn

22. Februar 2024, 11:15 |  0 Kommentare

Ein Bug sorgte dafür, dass der Chatbot deutlich mehr halluzinierte als üblich. Entwickler OpenAI verspricht, das Problem mittlerweile wieder behoben zu haben



Die Antworten des populärsten KI-Assistenten ChatGPT sollen am Dienstag aber ein ganz neues Ausmaß an Halluzinieren erreicht haben: Ein Bug im Sprachmodell hat offenbar dazu geführt, dass OpenAIs Aushängeschild eine Reihe unerwartet verrückter Antworten ausspuckte.

Die Reaktionen der Nutzerinnen und Nutzer fielen dementsprechend verwundert aus. Während Nutzer auf X etwa meinten, dass ChatGPT seinen Verstand komplett verloren habe, scherzte man auch auf Reddit, dass der Chatbot verrückt geworden sei, an Demenz leide oder einen Schlaganfall erlitten habe. Andere wiederum stellten aber auch ihren eigenen Gesundheitszustand infrage.

Mehr dazu findest Du auf derstandard.at





Kurze URL:


Bewertung: 4.0/5 (3 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top