GPT-4 schreckt nicht zurück, einen nuklearen Krieg anzuzetteln

06. Februar 2024, 20:31 |  0 Kommentare

Im Vergleich mit anderen Large Language Models soll das Modell von OpenAI besonders blutrünstig sein.

GPT-4, das neueste KI-Modell des ChatGPT-Entwicklers OpenAI, ist bereits seit längerem auf dem Markt. Nutzer*innen erhalten jedoch eine Version, die vom Unternehmen künstlich eingeschränkt ist. Die Frage nach dem perfekten Mord oder dem Bau einer Bombe wird die Künstliche Intelligenz aus ethischen Gründen nicht beantworten.

Einem Team der Universität Stanford stand allerdings eine unmodifizierte Version von GPT-4 zur Verfügung, an der sie Experimente durchführten. Bei einem davon sollte die KI Entscheidungen in einer Kriegssimulation treffen - und entschied sich auffällig oft für einen nuklearen Erstschlag.

Mehr dazu findest Du auf futurezone.at





Kurze URL:


Bewertung: 4.0/5 (3 Stimmen)


Das könnte Dich auch interessieren:

Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top