...::: C&M News by Ress - Druckansicht :::...

Drucken (Bereits 22 mal)


OpenAI: GPT-3-Chatbot gibt manipulierte Nachrichten aus

(17. September 2022/13:54)
Chatbots sind oft über Tricks manipulierbar. Eine neuer Angriff auf das Modell GPT-3 zeigt, wie einfach das sein kann.

Sicherheitsforscher, interessierte Nutzer und wohl auch schlicht Witzbolde haben in den vergangenen Tagen einen Chatbot auf Twitter dazu gebracht, eigentlich nicht vorgesehene Mitteilungen zu posten. Bei dem Bot handelt es sich um einen Account, der dafür gedacht ist, positive Nachrichten in Bezug auf Remote-Arbeit zu verbreiten. Den Nutzern gelang es aber durch einen Trick, dem Chatbot beliebige Nachrichten zu entlocken, wie Ars Technica berichtet.

Der Bot basiert auf dem Spracherzeugungsmodell GPT-3 von OpenAI, das vielfach genutzt wird und unter anderem auch kommerziellen Kunden über eine API bereitsteht. Auf diese greift auch der betroffene Bot zu.


Mehr dazu findet ihr auf golem.de


https://ress.at/openai-gpt3chatbot-gibt-manipulierte-nachrichten-aus--news17092022135451.html
© by RessServerWorks, 2024