Heim Technologie-Peripheriegeräte KI Unterstützt die gleichzeitige Eingabe von 380.000 Wörtern! Tencent Hunyuan führt ein 256.000 langes Artikelmodell ein, das über Tencent Cloud für Unternehmen und einzelne Entwickler zugänglich ist

Unterstützt die gleichzeitige Eingabe von 380.000 Wörtern! Tencent Hunyuan führt ein 256.000 langes Artikelmodell ein, das über Tencent Cloud für Unternehmen und einzelne Entwickler zugänglich ist

Jun 08, 2024 am 11:11 AM
腾讯云 Tencent Hunyuan großes Modell

KIGroßmodelltechnologie wird zu einer Schlüsselkraft bei der Förderung der Entwicklung hochwertiger Produktivität und spielt eine wichtige Rolle bei der Integration mit Tausenden von Branchen. Das Hunyuan-Großmodell von Tencent hat das Modell durch die Übernahme der Struktur des Hybrid-Expertenmodells (MoE) auf eine Billionen-Parameterskala erweitert, wodurch die Kapazität von "brain" erhöht und gleichzeitig die Vorhersageleistung verbessert und die Kosten gefördert wurden Die Argumentation wird reduziert. Als allgemeines Vorbild ist Tencent Hunyuan branchenweit führend in der chinesischen Leistung, insbesondere in den Bereichen Textgenerierung, mathematische Logik und Dialog mit mehreren Runden.

Kürzlich hat Tencent Hunyuan Large Model das 256klange Textmodell offiziell veröffentlicht und steht den meisten Unternehmen und Einzelentwicklern über Tencent Cloud zur Unterstützung eines breiteren Spektrums an Innovationen und Anwendungen offen. Die Modellversion Tencent Hunyuan 256k ist in der Lage, extrem lange Texte mit mehr als 380000 Zeichen zu verarbeiten. In Konversationsanwendungsszenarien kann dieses Modell sich merken mehr Konversationsinhalte ermöglichen und so Informationen und andere Probleme effektiv vermeiden vergessen . Darüber hinaus verfügt es über hervorragende kontextbezogene Analysefunktionen, um den Gesprächsteilnehmern präziseres und relevanteres Feedback zu geben und ihnen dabei zu helfen, fundiertere Entscheidungen zu treffen.

Darüber hinaus zeigt diese Modellversion auch eine starke Leistung beim Leseverständnis langer Dokumente und bei der Analyse umfangreicher Daten. Es kann Fachkräften in den Bereichen Finanzen, Medizin, Bildung, Reisen und anderen Branchen eine starke Arbeitsunterstützung bieten und ihre Arbeitseffizienz erheblich verbessern. Das Modell wurde auch hinsichtlich der Inferenzleistung umfassend optimiert, um sicherzustellen, dass Benutzer in tatsächlichen Anwendungen auf Plattformen wie Tencent Cloud ein reibungsloseres und effizienteres Erlebnis genießen können.


Reduzieren Sie „Vergesslichkeit“ und machen Sie große Modelle intelligenter

Bei Produkten für große Modelle ist der Umgang mit Gesprächsanforderungen eine Kernfunktion. Aufgrund der Einschränkungen bei der Verarbeitung langer Texte neigen herkömmliche große Modelle jedoch dazu, während Gesprächen die Richtung zu verlieren oder ihnen das Gedächtnis zu fehlen Die Dauer des Gesprächs nimmt zu. Auch die Menge der vergessenen Informationen nimmt zu. Das Modell Tencent Hunyuan256k ist speziell für diese Herausforderung optimiert. Es übernimmt die fortschrittliche Expert Hybrid (

MoE

) Architektur und integriert innovative Technologien wie RoPE-NTK und Flash Attention V2, die beide beibehalten die Fähigkeit, allgemeine Kurztexte (weniger als 4.000 Zeichen) effizient zu verarbeiten und gleichzeitig einen Durchbruch in der Tiefe und Breite der Langtextverarbeitung zu erzielen. Derzeit verfügt das große Modell von Tencent Hunyuan bereits über die Fähigkeit zum ultralangen Kontextverständnis von 256k, und die Anzahl der gleichzeitig verarbeiteten Zeichen übersteigt 38 Millionen. Die Nadel im Heuhaufen finden

Nach dem Testen der Aufgabe hat die Genauigkeit des Modells bei der Langtextverarbeitung

99,99 % erreicht, was auch international eine Spitzenposition einnimmt. Durch die kontinuierliche und stabile Iteration wird die Effizienz der Anwendung großer Modelle verbessert ) Struktur, und in diesem Prozess wurde eine große Anzahl selbst entwickelter Technologien angesammelt. In der Vorgängerversion 32K hat dieses Modell ähnliche Open-Source-Modelle auf dem Markt deutlich übertroffen und in einer Vielzahl von Anwendungsszenarien eine hervorragende Leistung gezeigt. Nach einer neuen Iteration beträgt Tencent Hunyuan 256k

In der


GSB

-Bewertung im allgemeinen Bereich beträgt die Gewinnquote im Vergleich zur vorherigen Version 50,72 %. Gleichzeitig integriert der Trainingssatz von Tencent Hunyuan

256k hochwertige annotierte Daten wie Langtextdaten, Übersetzungsdaten und Fragen und Antworten aus mehreren Dokumenten in mehreren Bereichen wie Medizin und Finanzen, wodurch das Modell erstellt wird Praktischer in praktischen Anwendungen, insbesondere in der Medizin- und Finanzbranche, die eine häufige Analyse und Verarbeitung großer Mengen langer Textdaten erfordern, kann eine genauere und effizientere Arbeitsunterstützung bieten. Wenn beispielsweise ein von der Zentralbank herausgegebener Finanzbericht in das Tencent Hunyuan 256k-Modell eingegeben wird, kann das Modell die wichtigsten Punkte des Berichts schnell verfeinern und zusammenfassen und so eine beeindruckende Verarbeitungsgeschwindigkeit und Genauigkeit erreichen. Zufriedenstellendes Niveau.

Inferenzleistungsoptimierung, die bessere Fähigkeiten zum Verständnis großer Modelle bietet

Gleichzeitig wurde Tencent Hunyuan 256k in der Inferenzleistung tiefgreifend optimiert. Im INT8Präzisionsmodus erreichte die QPM (Abfragerate pro Sekunde) des Modells im Vergleich zur FP16Präzision eine deutliche Verbesserung von 23,9 %, während das erste Wort nur Es verbrauchte um 5,7 % erhöht. Diese Verbesserungen verbessern die Reaktionsfähigkeit und Gesamteffizienz des Modells in realen Anwendungen erheblich.

Nehmen Sie als Beispiel die Analyse von „The Romance of the Three Kingdoms“ 256k kann diesen klassischen Roman mit Hunderttausenden Wörtern schnell lesen und abrufen und nicht nur den Schlüssel genau identifizieren Charaktere und Ereignisse im Roman, selbst detaillierte Beschreibungen des Wetters, der Kleidung der Charaktere usw. können genaue Informationen liefern. Als Schlüsselkomponente neuer Produktivität spielen große Modelle eine entscheidende Rolle bei der Förderung der industriellen Modernisierung und der Erzielung einer qualitativ hochwertigen Entwicklung. Die Einführung des 256k

-Modells von Tencent Hunyuan hat der gesamten Branche neue Dynamik verliehen und breitere Anwendungsperspektiven eröffnet.

Unterstützt die gleichzeitige Eingabe von 380.000 Wörtern! Tencent Hunyuan führt ein 256.000 langes Artikelmodell ein, das über Tencent Cloud für Unternehmen und einzelne Entwickler zugänglich ist

Derzeit ist das

256k

lange Artikelmodell von Tencent Hunyuan für die Mehrheit der Unternehmen und Einzelentwickler über Tencent Cloud geöffnet. Benutzer können auf die hunyuan-Standardversion256klange Artikel zugreifen Modell eingeben. Dies ermöglicht mehr Entwicklern und Benutzern den einfachen Zugriff und die Nutzung der leistungsstarken Funktionen des Hunyuan-Modells von Tencent, wodurch intelligente Lösungen für alle Lebensbereiche bereitgestellt und die Realisierung innovativerer Anwendungsszenarien gefördert werden.

Das obige ist der detaillierte Inhalt vonUnterstützt die gleichzeitige Eingabe von 380.000 Wörtern! Tencent Hunyuan führt ein 256.000 langes Artikelmodell ein, das über Tencent Cloud für Unternehmen und einzelne Entwickler zugänglich ist. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1673
14
PHP-Tutorial
1278
29
C#-Tutorial
1257
24
Das große Tencent Hunyuan-Modell wurde im Preis vollständig reduziert! Hunyuan-lite ist ab sofort kostenlos Das große Tencent Hunyuan-Modell wurde im Preis vollständig reduziert! Hunyuan-lite ist ab sofort kostenlos Jun 02, 2024 pm 08:07 PM

Am 22. Mai kündigte Tencent Cloud einen neuen großen Modell-Upgrade-Plan an. Bei einem der Hauptmodelle, dem Hunyuan-Lite-Modell, ist geplant, die gesamte API-Eingabe- und Ausgabelänge von derzeit 4.000 auf 256.000 zu erhöhen und den Preis von 0,008 Yuan/tausend Token auf völlig kostenlos anzupassen. Der API-Eingabepreis nach Hunyuan-Standard sank von 0,01 Yuan/Tausend Token auf 0,0045 Yuan/Tausend Token, was einem Rückgang von 55 % entspricht, und der API-Ausgabepreis sank von 0,01 Yuan/Tausend Token auf 0,005 Yuan/Tausend Token, was einem Rückgang um 50 % entspricht %. Der neu eingeführte Hunyuan-Standard-256k ist in der Lage, ultralange Texte mit mehr als 380.000 Zeichen zu verarbeiten, und der API-Eingabepreis wurde auf 0,015 Yuan/Tausend Toke gesenkt.

Anerkennung durch den ersten Preis des Science and Technology Progress Award: Tencent hat das Problem gelöst, große Modelle mit Billionen von Parametern zu trainieren Anerkennung durch den ersten Preis des Science and Technology Progress Award: Tencent hat das Problem gelöst, große Modelle mit Billionen von Parametern zu trainieren Mar 27, 2024 pm 09:41 PM

Die Liste der Gewinner der Science and Technology Awards 2023 der China Electronics Society wurde bekannt gegeben. Dieses Mal haben wir eine bekannte Figur entdeckt – die Angel-Plattform für maschinelles Lernen von Tencent. Im gegenwärtigen Zeitalter der rasanten Entwicklung großer Modelle wird der Science and Technology Award an Forschungs- und Anwendungsprojekte zu Plattformen für maschinelles Lernen verliehen, was den Wert und die Bedeutung von Modelltrainingsplattformen voll und ganz unterstreicht. Der Wissenschafts- und Technologiepreis würdigt die Forschung und Anwendung von Plattformprojekten für maschinelles Lernen und würdigt den Wert und die Bedeutung von Modelltrainingsplattformen, insbesondere im Zusammenhang mit der schnellen Entwicklung groß angelegter Modelle. Mit dem Aufstieg des Deep Learning haben große Unternehmen begonnen, die Bedeutung maschineller Lernplattformen für die Entwicklung der Technologie der künstlichen Intelligenz zu erkennen. Google, Microsoft, Nvidia und andere Unternehmen haben zur Beschleunigung ihre eigenen Plattformen für maschinelles Lernen eingeführt

Verwenden Sie vscode, um den Linux-Kernel remote zu debuggen Verwenden Sie vscode, um den Linux-Kernel remote zu debuggen Feb 05, 2024 pm 12:30 PM

Vorwort Im vorherigen Artikel wurde die Verwendung von QEMU+GDB zum Debuggen des Linux-Kernels vorgestellt. Manchmal ist es jedoch nicht sehr praktisch, GDB direkt zum Debuggen und Anzeigen des Codes zu verwenden. Wie kann es daher sein, dass bei einem so wichtigen Anlass das vscode-Artefakt fehlt? In diesem Artikel wird erläutert, wie Sie vscode zum Remote-Debuggen des Kernels verwenden. Umgebung für diesen Artikel: Windows 10 vs. Code Ubuntu 20.04 Ich persönlich verwende Tencent Cloud Server, daher spare ich mir den Prozess der Installation einer virtuellen Maschine. Beginnen Sie direkt mit der vscode-Konfiguration. Installieren Sie das vscode-Plug-in remote-ssh. Suchen Sie das Remote-SSH-Plug-in in der Plug-in-Bibliothek und installieren Sie es. Nach Abschluss der Installation gibt es in der rechten Symbolleiste eine zusätzliche Funktion. Drücken Sie F1, um das Paar aufzurufen.

Der GPT Store kann es nicht einmal wagen, diesen Weg einzuschlagen. ? Der GPT Store kann es nicht einmal wagen, diesen Weg einzuschlagen. ? Apr 19, 2024 pm 09:30 PM

Achtung, dieser Mann hat mehr als 1.000 große Modelle angeschlossen, sodass Sie problemlos anschließen und wechseln können. Kürzlich wurde ein visueller KI-Workflow eingeführt: Er bietet Ihnen eine intuitive Drag-and-Drop-Oberfläche, mit der Sie Ihren eigenen Workflow per Drag-and-Drop auf einer unendlichen Leinwand anordnen können. Wie das Sprichwort sagt: Krieg kostet Geschwindigkeit, und Qubit hörte, dass Benutzer innerhalb von 48 Stunden nach der Online-Schaltung dieses AIWorkflows bereits persönliche Workflows mit mehr als 100 Knoten konfiguriert hatten. Ohne weitere Umschweife möchte ich heute über Dify, ein LLMOps-Unternehmen, und seinen CEO Zhang Luyu sprechen. Zhang Luyu ist auch der Gründer von Dify. Bevor er in das Unternehmen eintrat, verfügte er über 11 Jahre Erfahrung in der Internetbranche. Ich beschäftige mich mit Produktdesign, verstehe Projektmanagement und habe einige einzigartige Einblicke in SaaS. Später er

Sollte ich IPv6 auf meinem Heimrouter aktivieren? „Muss gesehen werden: Vorteile der Aktivierung von IPV6 auf Ihrem Heimrouter' Sollte ich IPv6 auf meinem Heimrouter aktivieren? „Muss gesehen werden: Vorteile der Aktivierung von IPV6 auf Ihrem Heimrouter' Feb 07, 2024 am 09:03 AM

IPv4 ist erschöpft und IPv6 wird dringend benötigt, aber ist dieses Upgrade nur eine passive Änderung? Was bedeutet IPv6 für die breite Öffentlichkeit? Wie viel Veränderung kann das umfassende Upgrade von IPv6 in unserem Netzwerk bringen? 01 Die groß angelegte IPv6-Transformation steht kurz vor der Umsetzung. Vor kurzem haben das Generalbüro des Ministeriums für Industrie und Informationstechnologie und das Generalbüro der staatlichen Verwaltung für Radio und Fernsehen eine Bekanntmachung herausgegeben, in der Anforderungen zur Förderung der IPv6-Transformation des Internet-TV vorgeschlagen werden Dienstleistungen. China Mobile, Alibaba Cloud, Tencent Cloud, Baidu Cloud, JD Cloud, Huawei Cloud und Wangsu Technology müssen eine IPv6-Transformation des Content Distribution Network (CDN) im Zusammenhang mit dem Internet-TV-Geschäft durchführen. Bis Ende 2020 werden die auf dem IPv6-Protokoll basierenden Internet-TV-Dienstfunktionen 85 % von IPv4 erreichen

Tencent Hunyuan aktualisiert die Modellmatrix und führt ein 256.000 langes Artikelmodell in der Cloud ein Tencent Hunyuan aktualisiert die Modellmatrix und führt ein 256.000 langes Artikelmodell in der Cloud ein Jun 01, 2024 pm 01:46 PM

Die Implementierung großer Modelle beschleunigt sich und die „industrielle Praktikabilität“ ist zu einem Entwicklungskonsens geworden. Am 17. Mai 2024 fand in Peking der Tencent Cloud Generative AI Industry Application Summit statt, bei dem eine Reihe von Fortschritten bei der Entwicklung großer Modelle und Anwendungsprodukten angekündigt wurden. Die Hunyuan-Großmodellfunktionen von Tencent werden weiterhin über Tencent Cloud für die Außenwelt geöffnet, um die Modellanforderungen von Unternehmenskunden und Entwicklern in verschiedenen Szenarien zu erfüllen und umzusetzen die optimale kostengünstige Modelllösung. Tencent Cloud veröffentlicht drei Haupttools: Wissens-Engine für große Modelle, Bilderstellungs-Engine und Video-Erstellungs-Engine. Damit wird eine native Toolkette für das Zeitalter großer Modelle erstellt und der Datenzugriff, die Feinabstimmung von Modellen und Anwendungsentwicklungsprozesse durch PaaS-Dienste vereinfacht Unternehmen zu helfen

Wie erstelle ich einen WeChat-Link? Teilen Sie, wie Sie WeChat-Links erstellen Wie erstelle ich einen WeChat-Link? Teilen Sie, wie Sie WeChat-Links erstellen Mar 09, 2024 pm 09:37 PM

WeChat bietet als beliebte soziale Software nicht nur den Komfort von Instant Messaging, sondern integriert auch eine Vielzahl von Funktionen, um das soziale Erlebnis der Benutzer zu bereichern. Unter anderem ist das Erstellen und Teilen von WeChat-Links ein wichtiger Bestandteil der WeChat-Funktionen. Die Erstellung von WeChat-Links stützt sich hauptsächlich auf die öffentliche WeChat-Plattform und die damit verbundenen Funktionen sowie auf Tools von Drittanbietern. Im Folgenden sind einige gängige Methoden zum Erstellen von WeChat-Links aufgeführt. Wie erstelle ich einen WeChat-Link? Die erste Methode zum Erstellen von WeChat-Links besteht darin, den Bild- und Texteditor der öffentlichen WeChat-Plattform zu verwenden. 1. Melden Sie sich bei der öffentlichen WeChat-Plattform an und rufen Sie die Bild- und Textbearbeitungsoberfläche auf. 2. Fügen Sie im Editor Text oder Bilder hinzu und fügen Sie dann über die Link-Schaltfläche den erforderlichen Link hinzu. Diese Methode eignet sich für einfache Text- oder Bildlinks. Die zweite Methode ist die Verwendung von HTML-Code

Muss WordPress registriert werden? Muss WordPress registriert werden? Apr 16, 2024 pm 12:07 PM

WordPress erfordert eine Registrierung. Gemäß den „Internet Security Management Measures“ meines Landes müssen Websites, die Internet-Informationsdienste innerhalb des Landes anbieten, beim örtlichen Internet-Informationsbüro der Provinz registriert werden, einschließlich WordPress. Der Registrierungsprozess umfasst Schritte wie die Auswahl eines Dienstleisters, die Vorbereitung von Informationen, die Einreichung eines Antrags, die Prüfung und Veröffentlichung sowie den Erhalt einer Registrierungsnummer. Zu den Vorteilen der Einreichung gehören die Einhaltung gesetzlicher Vorschriften, die Verbesserung der Glaubwürdigkeit, die Erfüllung von Zugangsvoraussetzungen, die Gewährleistung eines normalen Zugangs usw. Die Anmeldeinformationen müssen wahr und gültig sein und nach der Einreichung regelmäßig aktualisiert werden.

See all articles