"Alpaca 7B": Stanford-Forschende trainierten ChatGPT-Konkurrenten um 600 Dollar (21. März 2023/19:18) Bild: Pixabay Mithilfe von GPT trainierte man einem einfachen KI-Modell von Meta erstaunliche Fähigkeiten an Seit ihrer Veröffentlichung im vergangenen Jahr ist die Konversations-KI ChatGPT in vieler Munde und auch vielfach im Einsatz. Die Fähigkeiten des Sprachmodells, Gespräche zu führen und verschiedenste Anweisungen umzusetzen, sorgten für Erstaunen und befeuerten den Hype rund um künstliche Intelligenz weiter. Mit der Veröffentlichung von Version 4 von GPT, das auch ChatGPT zugrunde liegt, wachsen die Möglichkeiten weiter. Hinter dieser Entwicklung steht OpenAI, ein von bekannten Namen aus dem Tech-Geschäft gegründetes Unternehmen, in das viel Geld gesteckt wird. Alleine Microsoft hat Anfang des Jahres eine "Ausweitung der Partnerschaft" angekündigt, die man sich zehn Milliarden Dollar kosten lässt. Wie man auch mit wesentlich weniger Mitteln viel erreichen kann, zeigen Forscher aus Stanford. Sie haben mit geringem Geldeinsatz das KI-Sprachmodell "Alpaca" trainiert, das mit ChatGPT mithalten kann. Wer möchte, kann das Sprachmodell auf seinem eigenen Rechner zum Laufen bringen, da es als Open Source veröffentlicht wurde. Simon Willison @simonw LLaMA 7B language model running on a 4GB RaspberryPi! https://t.co/A7xPS8UP8Y Am 12. März, 2023 um 19:21 via ✕
|
https://ress.at/alpaca-7b-stanfordforschende-trainierten-chatgptkonkurrenten-um-600-dollar-news21032023191819.html
© by RessServerWorks, 2024