Heim Technologie-Peripheriegeräte KI Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Apr 23, 2024 pm 05:22 PM
git 数据 训练

Letzte Woche hat Microsoft WizardLM-2 aus der Luft abgeworfen, ein Open-Source-Modell, das als GPT-4-Level bezeichnet werden kann.

Unerwarteterweise wurde es wenige Stunden nach der Veröffentlichung sofort gelöscht.

Einige Internetnutzer stellten plötzlich fest, dass die Modellgewichte und Ankündigungsbeiträge von WizardLM alle gelöscht worden waren und sich nicht mehr in der Microsoft-Sammlung befanden. Abgesehen von der Erwähnung der Website konnten keine Beweise gefunden werden, die dieses offizielle Microsoft-Projekt belegen.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Die GitHub-Projekthomepage ist 404 geworden.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Projektadresse: https://wizardlm.github.io/

Einschließlich des Gewichts des Modells auf HF verschwand alles ...

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Das gesamte Netzwerk Das Gesicht ist voller Verwirrung, warum ist WizardLM verschwunden?

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Aber Microsoft hat dies getan, weil das Team vergessen hat, das Modell zu „testen“.

Später erschien das Microsoft-Team, um sich zu entschuldigen und zu erklären, dass es schon eine Weile her sei, seit WizardLM vor ein paar Monaten veröffentlicht wurde, sodass wir mit dem neuen Veröffentlichungsprozess jetzt nicht vertraut seien.

Wir haben versehentlich eines der im Model-Release-Prozess erforderlichen Dinge übersehen: den Vergiftungstest.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Microsoft WizardLM wurde auf die zweite Generation aktualisiert basierend auf LlaMA Nachdem die erste Generation von WizardLM veröffentlicht wurde, erregte sie große Aufmerksamkeit in der Open-Source-Community.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessenPapieradresse: https://arxiv.org/pdf/2304.12244.pdf

Anschließend wurde die Codeversion von WizardCoder geboren – ein Modell, das auf Code Llama basiert und mithilfe von Evol verfeinert wurde. Anweisen.

Die Testergebnisse zeigen, dass WizardCoders Pass@1 bei HumanEval erstaunliche 73,2 % erreichte und damit den ursprünglichen GPT-4 übertrifft.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen Im Laufe des 15. April kündigten Microsoft-Entwickler offiziell eine neue Generation von WizardLM an, diesmal mit einer Feinabstimmung auf Mixtral 8x22B.

Es enthält drei Parameterversionen, nämlich 8x22B, 70B und 7B.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessenDas Erwähnenswerteste ist, dass das neue Modell im MT-Bench-Benchmark-Test einen Vorsprung erzielen konnte.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessenInsbesondere liegt die Leistung der Version des WizardLM 8x22B-Modells mit dem größten Parameter fast nahe an GPT-4 und Claude 3.

Unter derselben Parameterskala steht die 70B-Version an erster Stelle.

Die 7B-Version ist die schnellste und kann mit einer 10-mal größeren Parameterskala sogar eine Leistung erreichen, die dem Spitzenmodell entspricht.

Das Geheimnis hinter der herausragenden Leistung von WizardLM 2 liegt in der revolutionären Trainingsmethodik Evol-Instruct, die von Microsoft entwickelt wurde.

Evol-Instruct nutzt große Sprachmodelle, um den ursprünglichen Befehlssatz iterativ in immer komplexere Varianten umzuschreiben. Diese entwickelten Befehlsdaten werden dann zur Feinabstimmung des Basismodells verwendet, wodurch seine Fähigkeit zur Bewältigung komplexer Aufgaben erheblich verbessert wird.

Das andere ist das Reinforcement Learning Framework RLEIF, das auch im Entwicklungsprozess von WizardLM 2 eine wichtige Rolle spielte.

Im WizardLM 2-Training wird auch die AI Align AI (AAA)-Methode übernommen, die es mehreren führenden großen Modellen ermöglicht, sich gegenseitig anzuleiten und zu verbessern.

Das AAA-Framework besteht aus zwei Hauptkomponenten, nämlich „Co-Teaching“ und „Selbststudium“.

WizardLM und eine Vielzahl lizenzierter Open-Source- und proprietärer fortgeschrittener Modelle führen in dieser Phase gemeinsam Simulationschats, Qualitätsbeurteilungen, Verbesserungsvorschläge und das Schließen von Kompetenzlücken durch.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Durch die Kommunikation untereinander und die Bereitstellung von Feedback können Models von ihren Kollegen lernen und ihre Fähigkeiten verbessern.

Für das Selbststudium kann WizardLM neue evolutionäre Trainingsdaten für überwachtes Lernen und Präferenzdaten für verstärkendes Lernen durch aktives Selbststudium generieren.

Dieser selbstlernende Mechanismus ermöglicht es dem Modell, die Leistung kontinuierlich zu verbessern, indem es aus seinen selbst generierten Daten und Feedback-Informationen lernt.

Darüber hinaus wurde das WizardLM 2-Modell anhand der generierten synthetischen Daten trainiert.

Nach Ansicht von Forschern werden die Trainingsdaten für große Modelle zunehmend erschöpft, und es wird angenommen, dass sorgfältig von KI erstellte Daten und von KI schrittweise überwachte Modelle der einzige Weg zu leistungsfähigerer künstlicher Intelligenz sein werden.

Also haben sie ein vollständig KI-gesteuertes synthetisches Trainingssystem entwickelt, um WizardLM-2 zu verbessern.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Schnelle Internetnutzer haben die Gewichte bereits heruntergeladen

Vor dem Löschen der Datenbank hatten jedoch viele Leute die Modellgewichte bereits heruntergeladen.

Bevor das Modell entfernt wurde, haben mehrere Benutzer es auch anhand einiger zusätzlicher Benchmarks getestet.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Glücklicherweise waren die Internetnutzer, die es getestet hatten, vom 7B-Modell beeindruckt und sagten, dass es ihre erste Wahl für die Ausführung lokaler Hilfsaufgaben sein würde.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Jemand hat auch einen Gifttest durchgeführt und festgestellt, dass der WizardLM-8x22B 98,33 Punkte erzielte, während der Basis-Mixtral-8x22B 89,46 Punkte erzielte und der Mixtral 8x7B-Indict 92,93 Punkte erzielte.

Je höher die Punktzahl, desto besser, was bedeutet, dass WizardLM-8x22B immer noch sehr stark ist.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Wenn kein Vergiftungstest vorliegt, ist ein Versand des Modells absolut unmöglich.

Jeder weiß, dass große Models anfällig für Halluzinationen sind.

Wenn WizardLM 2 in den Antworten „toxische, voreingenommene und falsche“ Inhalte ausgibt, ist es für große Modelle nicht geeignet.

Insbesondere diese Fehler haben die Aufmerksamkeit des gesamten Netzwerks auf sich gezogen und werden auch bei Microsoft selbst für Kritik sorgen und möglicherweise sogar von den Behörden untersucht werden.

Einige Internetnutzer waren verwirrt und sagten, dass man die Indikatoren durch „Vergiftungstest“ aktualisieren könne. Warum das gesamte Repository und Gewicht löschen?

Der Microsoft-Autor erklärte, dass dies nach den neuesten internen Vorschriften nur möglich sei.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Einige Leute sagten auch, dass wir Modelle ohne „Lobotomie“ wollen.

Innerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen

Entwickler müssen jedoch noch geduldig warten, und das Microsoft-Team verspricht, dass es nach Abschluss des Tests wieder online gehen wird.

Das obige ist der detaillierte Inhalt vonInnerhalb weniger Stunden nach der Veröffentlichung hat Microsoft in Sekundenschnelle ein großes Open-Source-Modell gelöscht, das mit GPT-4 vergleichbar ist! Vergiftungstest vergessen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Welche Bibliotheken werden für die Operationen der schwimmenden Punktzahl in Go verwendet? Welche Bibliotheken werden für die Operationen der schwimmenden Punktzahl in Go verwendet? Apr 02, 2025 pm 02:06 PM

In der Bibliothek, die für den Betrieb der Schwimmpunktnummer in der GO-Sprache verwendet wird, wird die Genauigkeit sichergestellt, wie die Genauigkeit ...

So führen Sie das H5 -Projekt aus So führen Sie das H5 -Projekt aus Apr 06, 2025 pm 12:21 PM

Ausführen des H5 -Projekts erfordert die folgenden Schritte: Installation der erforderlichen Tools wie Webserver, Node.js, Entwicklungstools usw. Erstellen Sie eine Entwicklungsumgebung, erstellen Sie Projektordner, initialisieren Sie Projekte und schreiben Sie Code. Starten Sie den Entwicklungsserver und führen Sie den Befehl mit der Befehlszeile aus. Vorschau des Projekts in Ihrem Browser und geben Sie die Entwicklungsserver -URL ein. Veröffentlichen Sie Projekte, optimieren Sie Code, stellen Sie Projekte bereit und richten Sie die Webserverkonfiguration ein.

Gitee Pages statische Website -Bereitstellung fehlgeschlagen: Wie können Sie einzelne Dateien 404 Fehler beheben und beheben? Gitee Pages statische Website -Bereitstellung fehlgeschlagen: Wie können Sie einzelne Dateien 404 Fehler beheben und beheben? Apr 04, 2025 pm 11:54 PM

GitePages statische Website -Bereitstellung fehlgeschlagen: 404 Fehlerbehebung und Auflösung bei der Verwendung von Gitee ...

Wie gibt ich die mit dem Modell in Beego Orm zugeordnete Datenbank an? Wie gibt ich die mit dem Modell in Beego Orm zugeordnete Datenbank an? Apr 02, 2025 pm 03:54 PM

Wie kann man im Beegoorm -Framework die mit dem Modell zugeordnete Datenbank angeben? In vielen BeEGO -Projekten müssen mehrere Datenbanken gleichzeitig betrieben werden. Bei Verwendung von BeEGO ...

Welche Bibliotheken in GO werden von großen Unternehmen entwickelt oder von bekannten Open-Source-Projekten bereitgestellt? Welche Bibliotheken in GO werden von großen Unternehmen entwickelt oder von bekannten Open-Source-Projekten bereitgestellt? Apr 02, 2025 pm 04:12 PM

Welche Bibliotheken in GO werden von großen Unternehmen oder bekannten Open-Source-Projekten entwickelt? Bei der Programmierung in Go begegnen Entwickler häufig auf einige häufige Bedürfnisse, ...

Wie löste ich das Problem des Typs des user_id -Typs bei der Verwendung von Redis -Stream, um Nachrichtenwarteschlangen in GO -Sprache zu implementieren? Wie löste ich das Problem des Typs des user_id -Typs bei der Verwendung von Redis -Stream, um Nachrichtenwarteschlangen in GO -Sprache zu implementieren? Apr 02, 2025 pm 04:54 PM

Das Problem der Verwendung von RETISTREAM zur Implementierung von Nachrichtenwarteschlangen in der GO -Sprache besteht darin, die Go -Sprache und Redis zu verwenden ...

Bedarf die Produktion von H5 -Seiten eine kontinuierliche Wartung? Bedarf die Produktion von H5 -Seiten eine kontinuierliche Wartung? Apr 05, 2025 pm 11:27 PM

Die H5 -Seite muss aufgrund von Faktoren wie Code -Schwachstellen, Browserkompatibilität, Leistungsoptimierung, Sicherheitsaktualisierungen und Verbesserungen der Benutzererfahrung kontinuierlich aufrechterhalten werden. Zu den effektiven Wartungsmethoden gehören das Erstellen eines vollständigen Testsystems, die Verwendung von Versionstools für Versionskontrolle, die regelmäßige Überwachung der Seitenleistung, das Sammeln von Benutzern und die Formulierung von Wartungsplänen.

Warum gibt es bei Verwendung von SQL.Open keinen Fehler an, wenn DSN leer ist? Warum gibt es bei Verwendung von SQL.Open keinen Fehler an, wenn DSN leer ist? Apr 02, 2025 pm 12:54 PM

Warum meldet der DSN bei Verwendung von SQL.Open keinen Fehler? In Go Language, Sql.open ...

See all articles