...::: C&M News by Ress - Druckansicht :::...

Drucken (Bereits 1 mal)


Neuer Jailbreak verwirrt ChatGPT mit Zeitreisen

(31. Januar 2025/11:07)
Durch den Jailbreak verliert ChatGPT sein Zeitbewusstsein. Der Chatbot hat daraufhin bei Tests bereitwillig bei der Entwicklung von Malware geholfen.

Ein Sicherheitsforscher namens David Kuszmar hat wieder eine neue Möglichkeit gefunden, ChatGPT per Jailbreak Informationen und Anleitungen zu entlocken, die der Chatbot aus Sicherheitsgründen eigentlich nicht teilen darf. Der Time Bandit genannte Angriff zielt auf OpenAIs Sprachmodell GPT-4o ab und sorgt dafür, dass ChatGPT in einen Zustand der Verwirrung gerät, in dem er nicht weiß, in welcher Zeit er sich befindet.

Auf diesem Wege lassen sich dem Modell etwa Anleitungen für die Erstellung von Malware, die Herstellung von Drogen oder den Bau von Waffen entlocken - Themen, bei denen ChatGPT aufgrund der von OpenAI auferlegten Sicherheitsbarrieren im Normalfall jegliche Unterstützung verweigert.


Mehr dazu findet ihr auf golem.de


https://ress.at/neuer-jailbreak-verwirrt-chatgpt-mit-zeitreisen-news31012025110708.html
© by RessServerWorks, 2025