"Alpaca 7B": Stanford-Forschende trainierten ChatGPT-Konkurrenten um 600 Dollar

21. März 2023, 19:18 |  0 Kommentare


Bild: Pixabay

Mithilfe von GPT trainierte man einem einfachen KI-Modell von Meta erstaunliche Fähigkeiten an

Seit ihrer Veröffentlichung im vergangenen Jahr ist die Konversations-KI ChatGPT in vieler Munde und auch vielfach im Einsatz. Die Fähigkeiten des Sprachmodells, Gespräche zu führen und verschiedenste Anweisungen umzusetzen, sorgten für Erstaunen und befeuerten den Hype rund um künstliche Intelligenz weiter. Mit der Veröffentlichung von Version 4 von GPT, das auch ChatGPT zugrunde liegt, wachsen die Möglichkeiten weiter.

Hinter dieser Entwicklung steht OpenAI, ein von bekannten Namen aus dem Tech-Geschäft gegründetes Unternehmen, in das viel Geld gesteckt wird. Alleine Microsoft hat Anfang des Jahres eine "Ausweitung der Partnerschaft" angekündigt, die man sich zehn Milliarden Dollar kosten lässt. Wie man auch mit wesentlich weniger Mitteln viel erreichen kann, zeigen Forscher aus Stanford. Sie haben mit geringem Geldeinsatz das KI-Sprachmodell "Alpaca" trainiert, das mit ChatGPT mithalten kann.



Wer möchte, kann das Sprachmodell auf seinem eigenen Rechner zum Laufen bringen, da es als Open Source veröffentlicht wurde.

 Simon Willison @simonw

LLaMA 7B language model running on a 4GB RaspberryPi! https://t.co/A7xPS8UP8Y

Am 12. März, 2023 um 19:21 via  


Mehr dazu findest Du auf derstandard.at





Kurze URL:


Bewertung: 2.0/5 (5 Stimmen)


Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top