




Githubs Copilot produziert Bugs und Sicherheitslücken
Erstellt
![]() |
letzte Antwort
Noch keine
|
Antworten
Noch keine
|
Aufrufe
1.3T |
2
„Gefällt mir“ |
Abos
Noch keine |
Do., 26. August, 2021 um 13:30
#1
Laut einer Studie sind 40 Prozent der Vorschläge von Githubs auf Machine-Learning basierendem Programmierassistenten Copilot mit Fehlern behaftet. ![]() Über normale Code-Completion hinausgehend soll der Machine-Learning-basierte (ML) KI-Assistent ganze Blöcke von Programmcode generieren. Die Intention des Programmierers extrahiert Copilot zum Beispiel aus ein paar Variablendeklarationen und Kommentaren, in denen die Intention kurz formuliert wird. C&M News: https://ress.at/-news26082021133028.html 0 0 |
|

Du hast bereits für diesen
Post abgestimmt...
;-)

Ähnliche Themen:
© by Ress Design Group, 2001 - 2025