ChatGPT hilft staatlichen Hackern, ihre Cyberangriffe zu verbessern

15. Februar 2024, 10:28 |  0 Kommentare

Microsoft und OpenAI warnen jetzt davor, dass staatlich unterstützte Gruppen große Sprachmodelle zunehmend für ihre Zwecke missbrauchen



Wie "The Verge" berichtet, hätten Microsoft und OpenAI zwar noch keine "nennenswerten Angriffe" unter Zuhilfenahme von großen Sprachmodellen entdeckt, seien aber aktiv dabei, Konten und Anlagen zu sperren, die mit diesen bösartigen Aktivitäten in Verbindung gebracht werden. Microsoft warnt an dieser Stelle auch vor KI-gestütztem Betrug. Als Beispiel führt der Konzern das Stimmenklonen an, bei dem bereits eine kurze Stimmprobe ausreichen kann, um ein Modell zu trainieren, das sich wie eine beliebige Person anhört. Selbst etwas so Harmloses wie eine persönliche Anrufbeantworteransage könnte demnach genutzt werden, um ausreichend Daten für bösartige Zwecke zu sammeln.

Um solchen und ähnlichen Bedrohungen zu begegnen, die sich weitgehend noch in Entwicklung befinden, wählt Microsoft offenbar den Ansatz, Feuer mit Feuer zu bekämpfen. In dem Fall scheint man nicht nur tatkräftig ein massives Problem für die Öffentlichkeit finanziert zu haben, sondern will auch gleich eine Lösung dazu verkaufen - nämlich den Einsatz von KI zu Verteidigungszwecken.

Mehr dazu findest Du auf derstandard.at





Kurze URL:


Bewertung: 2.0/5 (3 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top