GPT-4o Mini soll gegen Prompt-Injektionen immun sein

21. Juli 2024, 12:14 |  0 Kommentare

OpenAI hat mit seinem neuesten Modell GPT-4o Mini eine neue Technik namens Instruction Hierarchy eingeführt, damit Prompt-Injektionen unmöglich werden.

OpenAI hat bei seinem neuesten Modell GPT-4o Mini eine Sicherheitsfunktion gegen Prompt-Injektionen eingeführt, wie The Verge berichtet. Diese werden oft verwendet, um Chatbots so zu manipulieren, dass sie ihre Grundeinstellung ignorieren.

Mehr dazu findest Du auf golem.de





Kurze URL:


Bewertung: 4.0/5 (2 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top