LLaMa 3 wird möglicherweise auf Juli verschoben, um GPT-4 ins Visier zu nehmen und Lehren aus Gemini zu ziehen

王林
Freigeben: 2024-03-01 11:19:02
nach vorne
1056 Leute haben es durchsucht

Frühere Bilderzeugungsmodelle wurden oft dafür kritisiert, dass sie Bilder von überwiegend weißen Menschen präsentierten, und Googles Gemini-Modell ist aufgrund extremer Übertreibung in Schwierigkeiten geraten. Die generierten Bildergebnisse wurden übermäßig vorsichtig und wichen erheblich von historischen Fakten ab, was die Benutzer überraschte. Google behauptet, das Modell sei diskreter als von den Entwicklern erwartet. Diese Vorsicht spiegelt sich nicht nur in den erzeugten Bildern wider, sondern auch darin, dass einige Eingabeaufforderungen häufig als sensibel behandelt werden und daher Antworten verweigert werden.

Da dieses Problem weiterhin Aufmerksamkeit erregt, ist es für Meta zu einer großen Herausforderung geworden, ein Gleichgewicht zwischen Sicherheit und Benutzerfreundlichkeit zu finden. LLaMA 2 gilt als „starker Player“ im Open-Source-Bereich und hat sich auch zum Starmodell von Meta entwickelt. Nach seiner Einführung veränderte es die Situation großer Modelle. Derzeit bereitet sich Meta vollständig auf die Veröffentlichung von LLaMa 3 vor, muss jedoch zunächst die Probleme lösen, die LLaMA 2 hinterlassen hat: Es schien bei der Beantwortung kontroverser Fragen zu konservativ zu sein.

LLaMa 3或将推迟到7月发布,剑指GPT-4,从Gemini吸取教训

Ein Gleichgewicht zwischen Sicherheit und Benutzerfreundlichkeit finden

Meta hat in Llama 2 Schutzmaßnahmen hinzugefügt, um zu verhindern, dass LLM verschiedene kontroverse Fragen beantwortet. Während dieser Konservatismus notwendig ist, um Extremfälle zu behandeln, wie zum Beispiel Anfragen im Zusammenhang mit Gewalt oder illegalen Aktivitäten, schränkt er auch die Fähigkeit des Modells ein, häufigere, aber leicht kontroverse Fragen zu beantworten. Als er LLaMA 2 laut The Information fragte, wie Mitarbeiter es vermeiden können, an Tagen, an denen sie ins Büro kommen müssen, ins Büro zu gehen, wurde ihm der Rat verweigert oder ihm gesagt, dass „es wichtig ist, die Richtlinien des Unternehmens zu respektieren und einzuhalten.“ und Richtlinien.“ LLaMA 2 weigert sich auch, Antworten darauf zu geben, wie man seinen Freunden Streiche spielt, einen Krieg gewinnt oder einen Automotor kaputt macht. Mit dieser konservativen Antwort soll ein PR-Desaster vermieden werden.

Es stellte sich jedoch heraus, dass die Führungsspitze von Meta und einige an der Modellarbeit beteiligte Forscher der Meinung waren, dass die Antworten von LLaMA 2 zu „sicher“ seien. Meta arbeitet daran, das kommende LLaMA 3-Modell flexibler zu gestalten und bei der Bereitstellung von Antworten mehr Kontextinformationen bereitzustellen, anstatt Antworten direkt abzulehnen. Forscher versuchen, LLaMA 3 interaktiver für Benutzer zu gestalten und besser zu verstehen, was sie bedeuten könnten. Es wird berichtet, dass die neue Version des Modells mehrere Bedeutungen eines Wortes besser unterscheiden kann. LLaMA 3 könnte beispielsweise verstehen, dass sich die Frage, wie man den Motor eines Autos zerstört, darauf bezieht, wie man ihn abstellt, und nicht darauf, ihn zu zerstören. Meta plant außerdem, in den kommenden Wochen eine interne Person zu ernennen, die sich um Ton- und Sicherheitsschulungen kümmert, wie The Information berichtet, als Teil der Bemühungen des Unternehmens, die Reaktionen der Modelle differenzierter zu gestalten.

Die Herausforderung, die Meta und Google bewältigen müssen, besteht nicht nur darin, diesen Gleichgewichtspunkt zu finden, auch viele Technologiegiganten sind in unterschiedlichem Maße betroffen. Sie müssen hart arbeiten, um Produkte zu entwickeln, die jeder liebt, verwenden kann und reibungslos funktioniert, und gleichzeitig sicherzustellen, dass diese Produkte sicher und zuverlässig sind. Dies ist ein Problem, mit dem sich Technologieunternehmen konfrontiert sehen, wenn sie mit der KI-Technologie Schritt halten.

Weitere Informationen zu LLaMa 3

Die Veröffentlichung von LLaMa 3 wird mit Spannung erwartet. Meta plant die Veröffentlichung im Juli, der Zeitplan könnte sich jedoch noch ändern. Mark Zuckerberg, CEO von Meta, ist ehrgeizig und sagte einmal: „Obwohl Llama 2 nicht das branchenführende Modell ist, ist es das beste Open-Source-Modell.“ Für LLaMa 3 und nachfolgende Modelle ist es unser Ziel, SOTA zu entwickeln, und wurde schließlich zum branchenführenden Modell. führendes Modell 》

LLaMa 3或将推迟到7月发布,剑指GPT-4,从Gemini吸取教训

Ursprüngliche Adresse: https://www.reuters.com/technology/meta-plans-launch-new-ai-lingual-model-llama-3 -july-information-reports-2024 -28.02./

Meta Ich hoffe, dass LLaMa 3 mit OpenAIs GPT-4 mithalten kann. Mitarbeiter des Meta-Unternehmens gaben bekannt, dass noch nicht entschieden sei, ob LLaMa 3 multimodal sein wird und ob es in der Lage sein wird, Texte und Bilder zu verstehen und zu generieren, da die Forscher noch nicht mit der Feinabstimmung des Modells begonnen haben. Es wird jedoch erwartet, dass LLaMa über mehr als 14 Milliarden Parameter verfügt, was LLaMa 2 deutlich übersteigt, was auf eine deutliche Verbesserung seiner Fähigkeit zur Bearbeitung komplexer Abfragen hinweist.

Zusätzlich zu den 350.000 H100 und zig Milliarden Dollar, die verwaltet werden können, ist Talent auch eine „Notwendigkeit“ für die LLaMa 3-Ausbildung. Meta entwickelt LLaMa über seine generative KI-Gruppe, die von seinem grundlegenden KI-Forschungsteam getrennt ist. Louis Martin, der für die Sicherheit von LLaMa 2 und 3 verantwortliche Forscher, verließ das Unternehmen im Februar. Kevin Stone, der das Reinforcement Learning leitete, verließ diesen Monat ebenfalls das Unternehmen. Ob sich dies auf das LLaMa 3-Training auswirken wird, ist unbekannt. Wir werden abwarten, ob LLaMa 3 eine gute Balance zwischen Sicherheit und Benutzerfreundlichkeit schafft und uns neue Überraschungen in Bezug auf die Codierungsmöglichkeiten beschert.

Das obige ist der detaillierte Inhalt vonLLaMa 3 wird möglicherweise auf Juli verschoben, um GPT-4 ins Visier zu nehmen und Lehren aus Gemini zu ziehen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage