Neuer Jailbreak verwirrt ChatGPT mit Zeitreisen

31. Januar 2025, 11:07 |  0 Kommentare

Durch den Jailbreak verliert ChatGPT sein Zeitbewusstsein. Der Chatbot hat daraufhin bei Tests bereitwillig bei der Entwicklung von Malware geholfen.

Ein Sicherheitsforscher namens David Kuszmar hat wieder eine neue Möglichkeit gefunden, ChatGPT per Jailbreak Informationen und Anleitungen zu entlocken, die der Chatbot aus Sicherheitsgründen eigentlich nicht teilen darf. Der Time Bandit genannte Angriff zielt auf OpenAIs Sprachmodell GPT-4o ab und sorgt dafür, dass ChatGPT in einen Zustand der Verwirrung gerät, in dem er nicht weiß, in welcher Zeit er sich befindet.

Auf diesem Wege lassen sich dem Modell etwa Anleitungen für die Erstellung von Malware, die Herstellung von Drogen oder den Bau von Waffen entlocken - Themen, bei denen ChatGPT aufgrund der von OpenAI auferlegten Sicherheitsbarrieren im Normalfall jegliche Unterstützung verweigert.

Mehr dazu findest Du auf golem.de





Kurze URL:


Bewertung: 3.0/5 (2 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top