ChatGPT hilft staatlichen Hackern, ihre Cyberangriffe zu verbessern
15. Februar 2024, 10:28
| 0 KommentareMicrosoft und OpenAI warnen jetzt davor, dass staatlich unterstützte Gruppen große Sprachmodelle zunehmend für ihre Zwecke missbrauchen
Wie
"The Verge" berichtet, hätten Microsoft und OpenAI zwar noch keine "nennenswerten Angriffe" unter Zuhilfenahme von großen Sprachmodellen entdeckt, seien aber aktiv dabei, Konten und Anlagen zu sperren, die mit diesen bösartigen Aktivitäten in Verbindung gebracht werden. Microsoft warnt an dieser Stelle auch vor KI-gestütztem Betrug. Als Beispiel führt der Konzern das Stimmenklonen an, bei dem bereits eine kurze Stimmprobe ausreichen kann, um ein Modell zu trainieren, das sich wie eine beliebige Person anhört. Selbst etwas so Harmloses wie eine persönliche Anrufbeantworteransage könnte demnach genutzt werden, um ausreichend Daten für bösartige Zwecke zu sammeln.
Um solchen und ähnlichen Bedrohungen zu begegnen, die sich weitgehend noch in Entwicklung befinden, wählt Microsoft offenbar den Ansatz, Feuer mit Feuer zu bekämpfen. In dem Fall scheint man nicht nur tatkräftig ein massives Problem für die Öffentlichkeit finanziert zu haben, sondern will auch gleich eine Lösung dazu verkaufen - nämlich den Einsatz von KI zu Verteidigungszwecken.
Mehr dazu findest Du auf
derstandard.at