Githubs Copilot produziert Bugs und Sicherheitslücken

26. August 2021, 13:30 |  0 Kommentare

Laut einer Studie sind 40 Prozent der Vorschläge von Githubs auf Machine-Learning basierendem Programmierassistenten Copilot mit Fehlern behaftet.

Copilot von Github ist ein Werkzeug, das Programmierern die Arbeit erleichtern soll. In einem Paper haben Forscher eine Analyse über die Auswirkungen hinsichtlich Cybersicherheit veröffentlicht.

Über normale Code-Completion hinausgehend soll der Machine-Learning-basierte (ML) KI-Assistent ganze Blöcke von Programmcode generieren. Die Intention des Programmierers extrahiert Copilot zum Beispiel aus ein paar Variablendeklarationen und Kommentaren, in denen die Intention kurz formuliert wird.

Mehr dazu findest Du auf golem.de





Kurze URL:


Bewertung: 2.0/5 (8 Stimmen)


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top