


Das große Modell von Kai-Fu Lee, das auf LLaMA basiert, aber den Tensornamen geändert hat, sorgte für Kontroversen, und die offizielle Antwort ist hier
Vor einiger Zeit wurde im Bereich der Open-Source-Großmodelle ein neues Modell eingeführt: „Yi“ mit einer Kontextfenstergröße von mehr als 200 KB, das 400.000 chinesische Schriftzeichen gleichzeitig verarbeiten kann.
Vorsitzender und CEO von Sinovation Ventures Kai-fu Lee gründete das große Modellunternehmen „Zero One Everything“ und baute dieses große Modell, das zwei Versionen von Yi-6B und Yi-34B umfasst
Laut Hugging Face Yi-34B, eine englische Open-Source-Community-Plattform und eine chinesische C-Eval-Bewertungsliste, erhielt bei seiner Einführung eine Reihe internationaler SOTA-Auszeichnungen für die besten Leistungsindikatoren und wurde zum „Doppelchampion“ globaler Open-Source-Großmodelle und besiegte Open-Source-Konkurrenzprodukte wie z wie LLaMA2 und Falcon.
Yi-34B war zu dieser Zeit auch das einzige inländische Modell, das die globale Open-Source-Modell-Rangliste von Hugging Face erfolgreich anführte, und wurde als „das stärkste Open-Source-Modell der Welt“ bezeichnet.
Nach seiner Veröffentlichung erregte dieses Modell die Aufmerksamkeit vieler in- und ausländischer Forscher und Entwickler
Aber kürzlich entdeckten einige Forscher, dass das Yi-34B-Modell im Wesentlichen die LLaMA-Architektur verwendet, aber gerade in „Zwei Tensoren“ umbenannt wurde.
Bitte klicken Sie auf diesen Link, um den Originalbeitrag anzuzeigen: https://news.ycombinator.com/item?id=38258015
Der Beitrag erwähnte auch:
Der Code von Yi-34B Tatsächlich handelt es sich um eine Umgestaltung des LLaMA-Codes, die jedoch offenbar keine wesentlichen Änderungen vorgenommen hat. Dieses Modell ist offensichtlich eine Bearbeitung, die auf der ursprünglichen LLaMA-Datei der Apache-Version 2.0 basiert, aber LLaMA wird nicht erwähnt:
Yi vs. LLaMA-Codevergleich. Code-Link: https://www.diffchecker.com/bJTqkvmQ/
Darüber hinaus werden diese Codeänderungen nicht über Pull Request an das Transformers-Projekt übermittelt, sondern im Mai in Form von externem Code angehängt ein Sicherheitsrisiko darstellen oder vom Framework nicht unterstützt werden. Die HuggingFace-Bestenliste wird dieses Modell nicht einmal mit einem Kontextfenster von bis zu 200 KB vergleichen, da es keine benutzerdefinierte Codestrategie hat.
Sie behaupten, dass es sich um ein 32K-Modell handelt, aber es ist als 4K-Modell konfiguriert, es gibt keine RoPE-Skalierungskonfiguration und es gibt keine Erklärung zur Skalierung (Hinweis: Zero One Thousand Things gab zuvor an, dass das Modell selbst ein 4K-Modell ist trainiert auf 4K-Sequenzen, kann aber in Inferenzphasen auf 32K erweitert werden). Derzeit gibt es keine Informationen über die Feinabstimmungsdaten. Sie lieferten auch keine Anweisungen zur Reproduktion ihrer Benchmarks, einschließlich der verdächtig hohen MMLU-Werte.
Wer schon länger auf dem Gebiet der künstlichen Intelligenz tätig ist, wird dafür nicht blind sein. Ist das falsche Werbung? Lizenzverstoß? War es tatsächlich ein Betrug beim Benchmark? Wen interessiert das? Wir könnten ein Papier ändern oder in diesem Fall das gesamte Risikokapital übernehmen. Zumindest liegt Yi über dem Standard, da es sich um ein Basismodell handelt und die Leistung wirklich gut ist
Vor ein paar Tagen hat ein Entwickler in der Huggingface-Community auch darauf hingewiesen:
Nach unserem Verständnis zusätzlich Zur Umbenennung der beiden Tensoren übernimmt Yi vollständig die LLaMA-Architektur. (input_layernorm, post_attention_layernorm)
In der Diskussion sagten einige Internetnutzer: Wenn sie die Architektur, Codebibliothek und andere zugehörige Ressourcen von Meta LLaMA korrekt nutzen möchten, müssen sie die von LLaMA festgelegte Lizenzvereinbarung einhalten
Um der Open-Source-Lizenz von LLaMA zu entsprechen, hat ein Entwickler beschlossen, seinen Namen wieder zu ändern und ihn erneut auf Huggingface zu veröffentlichen.
01-ai/Yi-34B, die Tensoren wurden umbenannt, um dem Standardmodell von LLaMA zu entsprechen Code. Verwandte Links: https://huggingface.co/chargoddard/Yi-34B-LLaMA
Aus der Lektüre dieses Inhalts können wir schließen, dass die Nachricht, dass Jia Yangqing Alibaba verlassen und ein Unternehmen gegründet hat, vor ein paar Tagen in seinem Freundeskreis erwähnt wurde
In dieser Angelegenheit auch das Herz der Maschine ausgedrückt: Null tausend Dinge wurden verifiziert. Lingyiwu antwortete:
GPT ist eine ausgereifte Architektur, die in der Branche anerkannt ist, und LLaMA hat eine Zusammenfassung zu GPT erstellt. Das strukturelle Design des großen Forschungs- und Entwicklungsmodells von Zero One Thousand Things basiert auf der ausgereiften Struktur von GPT und stützt sich auf erstklassige öffentliche Ergebnisse in der Branche. Gleichzeitig hat das Team von Zero One Thousand Things viel Arbeit geleistet zum Verständnis des Modells und zum Training. Dies ist das erste Mal, dass wir hervorragende Ergebnisse veröffentlicht haben. Gleichzeitig erforscht Zero One Thousand Things weiterhin wesentliche Durchbrüche auf der Ebene der Modellstruktur.
Der Modellaufbau ist nur ein Teil der Modellausbildung. Das Open-Source-Modell von Yi konzentriert sich auf andere Aspekte wie Datentechnik, Trainingsmethoden, Babysitting-Fähigkeiten (Überwachung des Trainingsprozesses), Hyperparametereinstellungen, Bewertungsmethoden, tiefes Verständnis der Natur von Bewertungsindikatoren und Tiefe der Forschung zu den Prinzipien von In die Funktionen zur Modellverallgemeinerung, die besten KI-Infrastrukturfunktionen usw. wurde viel Forschungs- und Entwicklungsaufwand investiert, und diese Aufgaben spielen oft eine größere Rolle und sind auch die Kerntechnologien von Zero Ein Wagen im großen Modellvorschulungsstadium.
Während der Durchführung einer großen Anzahl von Trainingsexperimenten haben wir den Code entsprechend den Anforderungen der experimentellen Ausführung umbenannt. Wir legen großen Wert auf das Feedback der Open-Source-Community und haben den Code aktualisiert, um ihn besser in das Transformer-Ökosystem zu integrieren.
Wir sind sehr dankbar für das Feedback der Community. Wir haben gerade erst in der Open-Source-Community angefangen und hoffen, dass wir arbeiten können mit allen, um eine erfolgreiche Community zu schaffen. Easy Open Source Wir werden unser Bestes tun, um weiterhin Fortschritte zu machen
Das obige ist der detaillierte Inhalt vonDas große Modell von Kai-Fu Lee, das auf LLaMA basiert, aber den Tensornamen geändert hat, sorgte für Kontroversen, und die offizielle Antwort ist hier. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Mit lokal installierten Schriftdateien auf Webseiten kürzlich habe ich eine kostenlose Schriftart aus dem Internet heruntergeladen und sie erfolgreich in mein System installiert. Jetzt...

Die H5 -Seite muss aufgrund von Faktoren wie Code -Schwachstellen, Browserkompatibilität, Leistungsoptimierung, Sicherheitsaktualisierungen und Verbesserungen der Benutzererfahrung kontinuierlich aufrechterhalten werden. Zu den effektiven Wartungsmethoden gehören das Erstellen eines vollständigen Testsystems, die Verwendung von Versionstools für Versionskontrolle, die regelmäßige Überwachung der Seitenleistung, das Sammeln von Benutzern und die Formulierung von Wartungsplänen.

Die Hauptquellen von H5 -Seitenmaterialien sind: 1. professionelle Material -Website (bezahlt, hoher Qualität, klares Urheberrecht); 2. hausgemachtes Material (hohe Einzigartigkeit, aber zeitaufwändig); 3. Open Source Material Library (kostenlos, muss sorgfältig abgeschrieben werden); 4. Bild-/Video -Website (Urheberrecht verifiziert ist erforderlich). Darüber hinaus sind ein einheitlicher Materialstil, Größenanpassung, Kompressionsverarbeitung und Urheberrechtsschutz wichtige Punkte, die beachtet werden müssen.

Wenn die Anzahl der Elemente nicht festgelegt ist, wählen Sie das erste untergeordnete Element des angegebenen Klassennamens über CSS aus. Bei der Verarbeitung der HTML -Struktur begegnen Sie häufig auf verschiedene Elemente ...

Warum werden negative Margen in einigen Fällen nicht wirksam? Während der Programmierung negative Margen in CSS (negativ ...

H5 (HTML5) eignet sich für leichte Anwendungen wie Marketingkampagnen, Produktdisplayseiten und Micro-Websites für Unternehmenswerbung. Seine Vorteile liegen in plattformartigen und reichhaltigen Interaktivität, aber seine Einschränkungen liegen in komplexen Interaktionen und Animationen, lokalen Ressourcenzugriff und Offline-Funktionen.

Implementieren Sie den Anzeigeeffekt von schrittweisen Verkürzungen von Text im Webdesign, wie Sie einen speziellen Text -Display -Effekt erzielen, um die Textlänge allmählich zu verkürzen? Dieser Effekt ...

Ein PS, der beim Booten auf "Laden" steckt, kann durch verschiedene Gründe verursacht werden: Deaktivieren Sie korrupte oder widersprüchliche Plugins. Eine beschädigte Konfigurationsdatei löschen oder umbenennen. Schließen Sie unnötige Programme oder aktualisieren Sie den Speicher, um einen unzureichenden Speicher zu vermeiden. Upgrade auf ein Solid-State-Laufwerk, um die Festplatte zu beschleunigen. PS neu installieren, um beschädigte Systemdateien oder ein Installationspaketprobleme zu reparieren. Fehlerinformationen während des Startprozesses der Fehlerprotokollanalyse anzeigen.
