Seit ChatGTP populär wurde, sind eine nach der anderen KI-Anwendungen entstanden, die rund um ChatGTP entwickelt wurden und den Menschen die Kraft der künstlichen Intelligenz spüren lassen!
Kürzlich hat die Facebook-Muttergesellschaft Meta das Artificial Intelligence Large Language Model (Large Language Model Meta AI) veröffentlicht, das als LLaMA bezeichnet wird. Zuckerberg sagte in den sozialen Medien: „Das vom FAIR-Team entwickelte LLaMA-Modell ist derzeit das weltweit fortschrittlichste groß angelegte Sprachmodell. Ziel ist es, Forschern dabei zu helfen, ihre Arbeit auf dem Gebiet der künstlichen Intelligenz voranzutreiben!“
Wie andere groß angelegte Modelle funktioniert Meta LLaMA, indem es eine Folge von Wörtern als „Eingabe“ nimmt und das nächste Wort vorhersagt, um rekursiv Text zu generieren.
Berichten zufolge entwickelt Meta LLaMA mit mehreren Parametern (7B, 13B, 33B und 65B). Unter ihnen wurden LLaMA 65B und LLaMA 33B mit 1,4 Billionen Token trainiert, während das kleinste Modell, LLaMA 7B, ebenfalls mit 1 Billion Token trainiert wurde.
Das FAIR-Team gab an, dass LLaMA bisher in keinem Meta-Produkt verwendet wurde.
Anders als „DeepMind“ und „OpenAI“ wird LLaMA den Trainingscode veröffentlichen;
Meta plant auch, diese Technologie zu veröffentlichen steht vorrangig KI-Forschenden offen. Wenn Sie LLaMA nutzen möchten, können Sie einen Antrag stellen und diesen nach Genehmigung nutzen.
Das obige ist der detaillierte Inhalt vonEin weiterer „starker Player' wurde dem KI-Bereich hinzugefügt: Meta veröffentlicht ein neues groß angelegtes Sprachmodell LLaMA. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!