Ein mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker sein

WBOY
Freigeben: 2024-02-01 21:00:47
nach vorne
969 Leute haben es durchsucht

Mistral-Medium ist versehentlich ausgelaufen? Bisher nur über die API verfügbar, Leistung kommt GPT-4 nahe.

Die neueste Aussage des CEO: Es stimmt, es wurde von einem frühen Kundenmitarbeiter durchgesickert. Aber immer noch gesagt: Bleiben Sie dran.

Ein mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker seinBilder

Mit anderen Worten, diese Version ist noch alt und die tatsächliche Leistung der Version wird besser sein.

In den letzten zwei Tagen ist dieses mysteriöse Model namens „Miqu“ zu einem heißen Thema in der großen Model-Community geworden. Viele Leute vermuten auch, dass es sich hierbei um eine verfeinerte Version von LIama handelt.

Ein mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker seinBilder

Der CEO von Mistral erklärte, dass sie Mistral Medium umgeschult und es basierend auf Llama 2 verbessert haben. Dies dient dazu, frühen Kunden so schnell wie möglich eine API bereitzustellen, die der Leistung von GPT-4 nahe kommt. Die Vorbereitungsarbeiten wurden am Tag der Freigabe von Mistral 7B abgeschlossen.

Nachdem die Wahrheit ans Licht gekommen ist, hält sich der CEO immer noch geheim und viele Internetnutzer stechen erwartungsvoll in die Hände.

Ein mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker seinBilder

Ein mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker seinBilder

Mistral-Medium ist versehentlich durchgesickert

Lassen Sie uns den gesamten Vorfall noch einmal Revue passieren lassen. Am 28. Januar veröffentlichte ein mysteriöser Benutzer namens Miqu Dev eine Reihe von Dateien „miqu-1-70b“ auf HuggingFace.

Ein mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker seinBilder

Das Dokument besagt, dass das „Eingabeaufforderungsformat“ und die Benutzerinteraktionsmethoden des neuen LLM mit denen von Mistral identisch sind.

Am selben Tag veröffentlichte ein anonymer Benutzer auf 4chan einen Link zur miqu-1-70b-Datei.

Einige Internetnutzer bemerkten dieses mysteriöse Modell und begannen, einige Benchmark-Tests durchzuführen.

Die Ergebnisse sind erstaunlich, es erreicht im EQ-Bench (lokale Bewertung) einen Wert von 83,5 und übertrifft damit alle anderen großen Modelle der Welt außer GPT-4.

Eine Zeit lang forderten Internetnutzer dringend, dieses große Modell in die Rangliste aufzunehmen und herauszufinden, welches wahre Modell dahinter steckt.

Es gibt drei Hauptverdachtsrichtungen:

  • und Mistral-Medium sind das gleiche Modell.
Einige Internetnutzer haben den Vergleichseffekt gepostet: Es kennt die Standardantwort und macht Sinn, aber es ist unmöglich, dass selbst die russische Formulierung genau mit Mistral-Medium übereinstimmt.

Ein mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker seinBilder

  • Miqu sollte eine verfeinerte Version von LIama 2 sein.
Aber andere Internetnutzer haben herausgefunden, dass es sich nicht um ein MoE-Modell handelt und dieselbe Architektur, dieselben Parameter und dieselbe Anzahl von Schichten wie LIama 2 aufweist.

Ein mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker seinBilder

Es wurde jedoch sofort von anderen Internetnutzern in Frage gestellt, es hat auch die gleichen Parameter und die gleiche Anzahl von Schichten wie Lama 7B.

Stattdessen handelt es sich eher um ein

Mistral-Modell der frühen Nicht-MoE-Version.

Ein mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker seinBilder

Nach Diskussionen lässt sich jedoch nicht leugnen, dass dies in den Augen vieler Menschen das Modell ist, das GPT-4 am nächsten kommt.

Ein mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker seinBilder

Jetzt hat Arthur Mensch, Mitbegründer und CEO von Mistral, zugegeben, dass einer ihrer ersten Kundenmitarbeiter übermäßig enthusiastisch war und eine quantisierte Version eines alten Modells durchsickern ließ, das sie trainiert und öffentlich veröffentlicht hatten.

Was Perplexity angeht, stellte der CEO auch klar, dass sie nie das Gewicht von Mistral Medium erhalten haben.

Ein mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker seinBilder

Internetnutzer sind besorgt, ob diese Version entfernt wird.

Ein mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker seinBilder

Interessanterweise hat Mensch nicht darum gebeten, dass der Beitrag auf HuggingFace entfernt wird.

Ein mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker seinBilder

Hinterlassen Sie stattdessen einen Kommentar mit dem Text: Namensnennungsprobleme können berücksichtigt werden.

Referenzlinks:
[1]https://www.reddit.com/r/LocalLLaMA/comments/1af4fbg/llm_comparisontest_miqu170b/

[2]https://twitter.com/teortaxesTex/status/1752427812466593975
[3]https://twitter.com/N8Programs/status/1752441060133892503
[4]https://twitter.com/AravSrinivas/status/1752803571035504858

Das obige ist der detaillierte Inhalt vonEin mit GPT-4 vergleichbares Open-Source-Modell ist durchgesickert! Der Mistral-Chef hat gerade bestätigt: Die offizielle Version wird noch stärker sein. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!