Vor einiger Zeit wurde im Bereich der Open-Source-Großmodelle ein neues Modell eingeführt: „Yi“ mit einer Kontextfenstergröße von mehr als 200 KB, das 400.000 chinesische Schriftzeichen gleichzeitig verarbeiten kann.
Vorsitzender und CEO von Sinovation Ventures Kai-fu Lee gründete das große Modellunternehmen „Zero One Everything“ und baute dieses große Modell, das zwei Versionen von Yi-6B und Yi-34B umfasst
Laut Hugging Face Yi-34B, eine englische Open-Source-Community-Plattform und eine chinesische C-Eval-Bewertungsliste, erhielt bei seiner Einführung eine Reihe internationaler SOTA-Auszeichnungen für die besten Leistungsindikatoren und wurde zum „Doppelchampion“ globaler Open-Source-Großmodelle und besiegte Open-Source-Konkurrenzprodukte wie z wie LLaMA2 und Falcon.
Yi-34B war zu dieser Zeit auch das einzige inländische Modell, das die globale Open-Source-Modell-Rangliste von Hugging Face erfolgreich anführte, und wurde als „das stärkste Open-Source-Modell der Welt“ bezeichnet.
Nach seiner Veröffentlichung erregte dieses Modell die Aufmerksamkeit vieler in- und ausländischer Forscher und Entwickler
Aber kürzlich entdeckten einige Forscher, dass das Yi-34B-Modell im Wesentlichen die LLaMA-Architektur verwendet, aber gerade in „Zwei Tensoren“ umbenannt wurde.
Bitte klicken Sie auf diesen Link, um den Originalbeitrag anzuzeigen: https://news.ycombinator.com/item?id=38258015
Der Beitrag erwähnte auch:
Der Code von Yi-34B Tatsächlich handelt es sich um eine Umgestaltung des LLaMA-Codes, die jedoch offenbar keine wesentlichen Änderungen vorgenommen hat. Dieses Modell ist offensichtlich eine Bearbeitung, die auf der ursprünglichen LLaMA-Datei der Apache-Version 2.0 basiert, aber LLaMA wird nicht erwähnt:
Yi vs. LLaMA-Codevergleich. Code-Link: https://www.diffchecker.com/bJTqkvmQ/
Darüber hinaus werden diese Codeänderungen nicht über Pull Request an das Transformers-Projekt übermittelt, sondern im Mai in Form von externem Code angehängt ein Sicherheitsrisiko darstellen oder vom Framework nicht unterstützt werden. Die HuggingFace-Bestenliste wird dieses Modell nicht einmal mit einem Kontextfenster von bis zu 200 KB vergleichen, da es keine benutzerdefinierte Codestrategie hat.
Sie behaupten, dass es sich um ein 32K-Modell handelt, aber es ist als 4K-Modell konfiguriert, es gibt keine RoPE-Skalierungskonfiguration und es gibt keine Erklärung zur Skalierung (Hinweis: Zero One Thousand Things gab zuvor an, dass das Modell selbst ein 4K-Modell ist trainiert auf 4K-Sequenzen, kann aber in Inferenzphasen auf 32K erweitert werden). Derzeit gibt es keine Informationen über die Feinabstimmungsdaten. Sie lieferten auch keine Anweisungen zur Reproduktion ihrer Benchmarks, einschließlich der verdächtig hohen MMLU-Werte.
Wer schon länger auf dem Gebiet der künstlichen Intelligenz tätig ist, wird dafür nicht blind sein. Ist das falsche Werbung? Lizenzverstoß? War es tatsächlich ein Betrug beim Benchmark? Wen interessiert das? Wir könnten ein Papier ändern oder in diesem Fall das gesamte Risikokapital übernehmen. Zumindest liegt Yi über dem Standard, da es sich um ein Basismodell handelt und die Leistung wirklich gut ist
Vor ein paar Tagen hat ein Entwickler in der Huggingface-Community auch darauf hingewiesen:
Nach unserem Verständnis zusätzlich Zur Umbenennung der beiden Tensoren übernimmt Yi vollständig die LLaMA-Architektur. (input_layernorm, post_attention_layernorm)
In der Diskussion sagten einige Internetnutzer: Wenn sie die Architektur, Codebibliothek und andere zugehörige Ressourcen von Meta LLaMA korrekt nutzen möchten, müssen sie die von LLaMA festgelegte Lizenzvereinbarung einhalten
Um der Open-Source-Lizenz von LLaMA zu entsprechen, hat ein Entwickler beschlossen, seinen Namen wieder zu ändern und ihn erneut auf Huggingface zu veröffentlichen.
01-ai/Yi-34B, die Tensoren wurden umbenannt, um dem Standardmodell von LLaMA zu entsprechen Code. Verwandte Links: https://huggingface.co/chargoddard/Yi-34B-LLaMA
Aus der Lektüre dieses Inhalts können wir schließen, dass die Nachricht, dass Jia Yangqing Alibaba verlassen und ein Unternehmen gegründet hat, vor ein paar Tagen in seinem Freundeskreis erwähnt wurde
In dieser Angelegenheit auch das Herz der Maschine ausgedrückt: Null tausend Dinge wurden verifiziert. Lingyiwu antwortete:
GPT ist eine ausgereifte Architektur, die in der Branche anerkannt ist, und LLaMA hat eine Zusammenfassung zu GPT erstellt. Das strukturelle Design des großen Forschungs- und Entwicklungsmodells von Zero One Thousand Things basiert auf der ausgereiften Struktur von GPT und stützt sich auf erstklassige öffentliche Ergebnisse in der Branche. Gleichzeitig hat das Team von Zero One Thousand Things viel Arbeit geleistet zum Verständnis des Modells und zum Training. Dies ist das erste Mal, dass wir hervorragende Ergebnisse veröffentlicht haben. Gleichzeitig erforscht Zero One Thousand Things weiterhin wesentliche Durchbrüche auf der Ebene der Modellstruktur.
Der Modellaufbau ist nur ein Teil der Modellausbildung. Das Open-Source-Modell von Yi konzentriert sich auf andere Aspekte wie Datentechnik, Trainingsmethoden, Babysitting-Fähigkeiten (Überwachung des Trainingsprozesses), Hyperparametereinstellungen, Bewertungsmethoden, tiefes Verständnis der Natur von Bewertungsindikatoren und Tiefe der Forschung zu den Prinzipien von In die Funktionen zur Modellverallgemeinerung, die besten KI-Infrastrukturfunktionen usw. wurde viel Forschungs- und Entwicklungsaufwand investiert, und diese Aufgaben spielen oft eine größere Rolle und sind auch die Kerntechnologien von Zero Ein Wagen im großen Modellvorschulungsstadium.
Während der Durchführung einer großen Anzahl von Trainingsexperimenten haben wir den Code entsprechend den Anforderungen der experimentellen Ausführung umbenannt. Wir legen großen Wert auf das Feedback der Open-Source-Community und haben den Code aktualisiert, um ihn besser in das Transformer-Ökosystem zu integrieren.
Wir sind sehr dankbar für das Feedback der Community. Wir haben gerade erst in der Open-Source-Community angefangen und hoffen, dass wir arbeiten können mit allen, um eine erfolgreiche Community zu schaffen. Easy Open Source Wir werden unser Bestes tun, um weiterhin Fortschritte zu machen
Das obige ist der detaillierte Inhalt vonDas große Modell von Kai-Fu Lee, das auf LLaMA basiert, aber den Tensornamen geändert hat, sorgte für Kontroversen, und die offizielle Antwort ist hier. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!