


Der „goldene Partner' der großen Models ist da! Tencent Cloud veröffentlicht offiziell eine native KI-Vektordatenbank, die Vektorabruffunktionen auf 1-Milliarden-Ebene bietet
Am 4. Juli veröffentlichte Tencent Cloud offiziell die AI-native (AI Native) Vektordatenbank Tencent Cloud VectorDB. Diese Datenbank kann in großem Umfang in Szenarien wie Training großer Modelle, Inferenz und Wissensdatenbankergänzung eingesetzt werden. Sie ist die erste Vektordatenbank in China, die den gesamten Lebenszyklus von KI von der Zugriffsschicht über die Rechenschicht bis zur Speicherschicht bietet.
Vektordatenbanken werden in der Branche als „Hippocampus“ großer Modelle bezeichnet und sind speziell für die Speicherung und Abfrage von Vektordaten konzipiert. Berichten zufolge unterstützt die Vektordatenbank von Tencent Cloud eine Vektorabrufskala von bis zu 1 Milliarde, wobei die Latenz auf Millisekundenebene kontrolliert wird. Im Vergleich zu herkömmlichen eigenständigen Plug-in-Datenbanken ist die Abrufskala um das Zehnfache erhöht und verfügt außerdem über eine Spitzenabfragekapazität von einer Million Ebenen pro Sekunde (QPS).
Tencent Cloud definiert AI Native Vektordatenbank
Mit Beginn der Ära der großen Modelle ist die Einführung großer Modelle für Unternehmen zu einer Notwendigkeit geworden.
Vektordatenbanken können durch die Vektorisierung von Daten die Effizienz erheblich verbessern und Kosten senken. Es kann die Probleme hoher Vorschulungskosten für große Modelle, fehlendes „Langzeitgedächtnis“, unzureichende Wissensaktualisierungen und komplexes Prompt-Word-Engineering lösen, die zeitlichen und räumlichen Beschränkungen großer Modelle durchbrechen und die Implementierung großer Modelle beschleunigen Modelle in Branchenszenarien.
Statistiken zeigen, dass durch die Verwendung der Tencent Cloud Vector Database zur Klassifizierung, Deduplizierung und Bereinigung großer Modelldaten vor dem Training eine zehnfache Effizienzsteigerung im Vergleich zu herkömmlichen Methoden erzielt werden kann. Es kann die Kosten um 2–4 Größenordnungen senken.
Es ist erwähnenswert, dass Tencent Cloud das Entwicklungsparadigma von AI Native neu definiert und eine umfassende KI-Lösung für die Zugriffsschicht, die Rechenschicht und die Speicherschicht bereitgestellt hat, die es Benutzern ermöglicht, sie auf den gesamten Lebenszyklus der Verwendung von Vektordatenbanken anzuwenden Fähigkeiten.
Insbesondere auf der Zugriffsebene unterstützt die Tencent Cloud Vector Database die Eingabe von Text in natürlicher Sprache, übernimmt die Abfragemethode „Skalar + Vektor“, unterstützt die vollständige Speicherindizierung und unterstützt bis zu eine Million Abfragen pro Sekunde (QPS). Auf der Datenverarbeitungsebene kann das AI-Native-Entwicklungsparadigma umfassende Daten-KI-Berechnungen realisieren und Probleme wie Textsegmentierung (Segmentierung) und Vektorisierung (Einbettung) aus einer Hand lösen, wenn Unternehmen private Domänenwissensdatenbanken auf der Speicherebene aufbauen Cloud Vector Die Datenbank unterstützt die intelligente Speicherverteilung von Daten und hilft Unternehmen, die Speicherkosten um 50 % zu senken.
Früher dauerte es etwa einen Monat, bis Unternehmen auf ein großes Modell zugreifen konnten. Nach der Verwendung der Tencent Cloud Vector Database kann die Fertigstellung in drei Tagen erfolgen, was die Zugriffskosten des Unternehmens erheblich senkt.
Es versteht sich, dass die Vektorisierungsfähigkeit (Einbettung) der Tencent Cloud Vector Database mehrfach von renommierten Organisationen anerkannt wurde. Im Jahr 2021 stand sie ganz oben auf der MS MARCO-Liste und entsprechende Ergebnisse wurden im NLP Summit ACL veröffentlicht.
Luo Yun, stellvertretender General Manager von Tencent Cloud Database, sagte, dass die Ära von AI Native angebrochen sei. „Vektordatenbank + großes Modell + Daten“ würden einen „Schwungradeffekt“ erzeugen und Unternehmen gemeinsam dabei helfen, in die AI Native-Ära einzutreten. )Epoche.
Die Vektordatenbank von Tencent Cloud trägt dazu bei, die Effizienz des Datenzugriffs um das Zehnfache zu verbessern
Tencent Cloud Vector Database basiert auf der Vektor-Engine (OLAMA) der Tencent Group, die täglich Hunderte Milliarden Suchanfragen verarbeitet. Nach der Übung in Tencents internen Massenszenarien ist die Effizienz des Datenzugriffs auf KI ebenfalls zehnmal höher als bei herkömmlichen Lösungen Die Betriebsstabilität beträgt bis zu 99,99 % und wurde in mehr als 30 nationalen Produkten wie Tencent Video, QQ Browser und QQ Music verwendet.
Die Vektordatenbank von Tencent Cloud kann Produkten effektiv dabei helfen, die Betriebseffizienz zu verbessern. Daten zeigen, dass nach Verwendung der Tencent Cloud Vector Database die Pro-Kopf-Hörzeit von QQ Music um 3,2 % gestiegen ist, die effektive Pro-Kopf-Belichtungszeit von Tencent Video um 1,74 % gestiegen ist und die Kosten von QQ Browser um 37,9 % gesunken sind.
Nehmen Sie die Anwendung von Tencent Video als Beispiel. Bilder, Audio, Titeltext und andere Inhalte in der Videobibliothek nutzen die Tencent Cloud-Vektordatenbank. Das durchschnittliche monatliche Abruf- und Berechnungsvolumen erreicht 20 Milliarden Mal, was den Anforderungen des Urheberrechts effektiv entspricht Schutz, ursprüngliche Identifikation, Ähnlichkeit usw.
Große modellbeschleunigte Vektordatenbanken befinden sich in einer Phase rasanter Entwicklung. Laut Northeast Securities wird der weltweite Markt für Vektordatenbanken bis 2030 voraussichtlich 50 Milliarden US-Dollar erreichen, und der inländische Markt für Vektordatenbanken wird voraussichtlich 60 Milliarden RMB überschreiten.
Vektordatenbanken können Unternehmen dabei helfen, große Modelle effizienter und bequemer zu nutzen und den Wert von Daten zu maximieren. Mit der kontinuierlichen Entwicklung und Verbreitung großer Modelle wird die AI Native-Vektordatenbank zum Standard für die Datenverarbeitung in Unternehmen.
Das obige ist der detaillierte Inhalt vonDer „goldene Partner' der großen Models ist da! Tencent Cloud veröffentlicht offiziell eine native KI-Vektordatenbank, die Vektorabruffunktionen auf 1-Milliarden-Ebene bietet. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Am 30. Mai kündigte Tencent ein umfassendes Upgrade seines Hunyuan-Modells an. Die auf dem Hunyuan-Modell basierende App „Tencent Yuanbao“ wurde offiziell eingeführt und kann in den App-Stores von Apple und Android heruntergeladen werden. Im Vergleich zur Hunyuan-Applet-Version in der vorherigen Testphase bietet Tencent Yuanbao Kernfunktionen wie KI-Suche, KI-Zusammenfassung und KI-Schreiben für Arbeitseffizienzszenarien. Yuanbaos Gameplay ist außerdem umfangreicher und bietet mehrere Funktionen für KI-Anwendungen , und neue Spielmethoden wie das Erstellen persönlicher Agenten werden hinzugefügt. „Tencent strebt nicht danach, der Erste zu sein, der große Modelle herstellt.“ Liu Yuhong, Vizepräsident von Tencent Cloud und Leiter des großen Modells von Tencent Hunyuan, sagte: „Im vergangenen Jahr haben wir die Fähigkeiten des großen Modells von Tencent Hunyuan weiter gefördert.“ . In die reichhaltige und umfangreiche polnische Technologie in Geschäftsszenarien eintauchen und gleichzeitig Einblicke in die tatsächlichen Bedürfnisse der Benutzer gewinnen

Tan Dai, Präsident von Volcano Engine, sagte, dass Unternehmen, die große Modelle gut implementieren wollen, vor drei zentralen Herausforderungen stehen: Modelleffekt, Inferenzkosten und Implementierungsschwierigkeiten: Sie müssen über eine gute Basisunterstützung für große Modelle verfügen, um komplexe Probleme zu lösen, und das müssen sie auch Dank der kostengünstigen Inferenzdienste können große Modelle weit verbreitet verwendet werden, und es werden mehr Tools, Plattformen und Anwendungen benötigt, um Unternehmen bei der Implementierung von Szenarien zu unterstützen. ——Tan Dai, Präsident von Huoshan Engine 01. Das große Sitzsackmodell feiert sein Debüt und wird häufig genutzt. Das Polieren des Modelleffekts ist die größte Herausforderung für die Implementierung von KI. Tan Dai wies darauf hin, dass ein gutes Modell nur durch ausgiebigen Gebrauch poliert werden kann. Derzeit verarbeitet das Doubao-Modell täglich 120 Milliarden Text-Tokens und generiert 30 Millionen Bilder. Um Unternehmen bei der Umsetzung groß angelegter Modellszenarien zu unterstützen, wird das von ByteDance unabhängig entwickelte Beanbao-Großmodell durch den Vulkan gestartet

„Hohe Komplexität, hohe Fragmentierung und Cross-Domain“ waren schon immer die Hauptprobleme auf dem Weg zur digitalen und intelligenten Modernisierung der Transportbranche. Kürzlich ist das „Qinling·Qinchuan Traffic Model“ mit einer Parameterskala von 100 Milliarden, das gemeinsam von China Science Vision, der Bezirksregierung Xi'an Yanta und dem Xi'an Future Artificial Intelligence Computing Center entwickelt wurde, auf den Bereich des intelligenten Transports ausgerichtet und bietet Dienstleistungen für Xi'an und die umliegenden Gebiete. Die Region wird ein Dreh- und Angelpunkt für intelligente Transportinnovationen sein. Das „Qinling·Qinchuan Traffic Model“ kombiniert Xi'ans umfangreiche lokale verkehrsökologische Daten in offenen Szenarien, den ursprünglich von China Science Vision unabhängig entwickelten fortschrittlichen Algorithmus und die leistungsstarke Rechenleistung der Shengteng AI des Xi'an Future Artificial Intelligence Computing Center Überwachung des Straßennetzes, intelligente Transportszenarien wie Notfallkommando, Wartungsmanagement und öffentlicher Verkehr führen zu digitalen und intelligenten Veränderungen. Das Verkehrsmanagement weist in verschiedenen Städten und auf verschiedenen Straßen unterschiedliche Merkmale auf

1. Produktpositionierung von TensorRT-LLM TensorRT-LLM ist eine von NVIDIA entwickelte skalierbare Inferenzlösung für große Sprachmodelle (LLM). Es erstellt, kompiliert und führt Berechnungsdiagramme auf der Grundlage des TensorRT-Deep-Learning-Kompilierungsframeworks aus und stützt sich auf die effiziente Kernels-Implementierung in FastTransformer. Darüber hinaus nutzt es NCCL für die Kommunikation zwischen Geräten. Entwickler können Betreiber entsprechend der Technologieentwicklung und Nachfrageunterschieden an spezifische Anforderungen anpassen, beispielsweise durch die Entwicklung maßgeschneiderter GEMM auf Basis von Entermessern. TensorRT-LLM ist die offizielle Inferenzlösung von NVIDIA, die sich der Bereitstellung hoher Leistung und der kontinuierlichen Verbesserung ihrer Praktikabilität verschrieben hat. TensorRT-LL

Laut Nachrichten vom 4. April hat die Cyberspace Administration of China kürzlich eine Liste registrierter großer Modelle veröffentlicht, in der das „Jiutian Natural Language Interaction Large Model“ von China Mobile enthalten ist, was darauf hinweist, dass das große Jiutian AI-Modell von China Mobile offiziell generative künstliche Intelligenz bereitstellen kann Geheimdienste nach außen. China Mobile gab an, dass dies das erste groß angelegte Modell sei, das von einem zentralen Unternehmen entwickelt wurde und sowohl die nationale Doppelregistrierung „Generative Artificial Intelligence Service Registration“ als auch die „Domestic Deep Synthetic Service Algorithm Registration“ bestanden habe. Berichten zufolge zeichnet sich Jiutians großes Modell für die Interaktion mit natürlicher Sprache durch verbesserte Branchenfähigkeiten, Sicherheit und Glaubwürdigkeit aus und unterstützt die vollständige Lokalisierung. Es hat mehrere Parameterversionen wie 9 Milliarden, 13,9 Milliarden, 57 Milliarden und 100 Milliarden gebildet. und kann flexibel in der Cloud eingesetzt werden, Edge und End sind unterschiedliche Situationen

Wenn die Testfragen zu einfach sind, können sowohl Spitzenschüler als auch schlechte Schüler 90 Punkte erreichen, und der Abstand kann nicht vergrößert werden ... Mit der Veröffentlichung stärkerer Modelle wie Claude3, Llama3 und später sogar GPT-5 ist die Branche in Bewegung Dringender Bedarf an einem schwierigeren und differenzierteren Benchmark-Modell. LMSYS, die Organisation hinter der großen Modellarena, brachte den Benchmark der nächsten Generation, Arena-Hard, auf den Markt, der große Aufmerksamkeit erregte. Es gibt auch die neueste Referenz zur Stärke der beiden fein abgestimmten Versionen der Llama3-Anweisungen. Im Vergleich zu MTBench, das zuvor ähnliche Ergebnisse erzielte, stieg die Arena-Hard-Diskriminierung von 22,6 % auf 87,4 %, was auf den ersten Blick stärker und schwächer ist. Arena-Hard basiert auf menschlichen Echtzeitdaten aus der Arena und seine Übereinstimmungsrate mit menschlichen Vorlieben liegt bei bis zu 89,1 %.

1. Einführung in den Hintergrund Lassen Sie uns zunächst die Entwicklungsgeschichte von Yunwen Technology vorstellen. Yunwen Technology Company ... 2023 ist die Zeit, in der große Modelle vorherrschen. Viele Unternehmen glauben, dass die Bedeutung von Diagrammen nach großen Modellen stark abgenommen hat und die zuvor untersuchten voreingestellten Informationssysteme nicht mehr wichtig sind. Mit der Förderung von RAG und der Verbreitung von Data Governance haben wir jedoch festgestellt, dass eine effizientere Datenverwaltung und qualitativ hochwertige Daten wichtige Voraussetzungen für die Verbesserung der Wirksamkeit privatisierter Großmodelle sind. Deshalb beginnen immer mehr Unternehmen, darauf zu achten zu wissenskonstruktionsbezogenen Inhalten. Dies fördert auch den Aufbau und die Verarbeitung von Wissen auf einer höheren Ebene, wo es viele Techniken und Methoden gibt, die erforscht werden können. Es ist ersichtlich, dass das Aufkommen einer neuen Technologie nicht alle alten Technologien besiegt, sondern auch neue und alte Technologien integrieren kann.

Laut Nachrichten vom 13. Juni hat Xiaomis Assistent für künstliche Intelligenz „Xiao Ai“ laut Bytes öffentlichem Bericht „Volcano Engine“ eine Zusammenarbeit mit Volcano Engine erzielt. Die beiden Parteien werden ein intelligenteres interaktives KI-Erlebnis auf der Grundlage des großen Beanbao-Modells erzielen . Berichten zufolge kann das von ByteDance erstellte groß angelegte Beanbao-Modell bis zu 120 Milliarden Text-Tokens effizient verarbeiten und täglich 30 Millionen Inhalte generieren. Xiaomi nutzte das große Doubao-Modell, um die Lern- und Denkfähigkeiten seines eigenen Modells zu verbessern und einen neuen „Xiao Ai Classmate“ zu schaffen, der nicht nur die Benutzerbedürfnisse genauer erfasst, sondern auch eine schnellere Reaktionsgeschwindigkeit und umfassendere Inhaltsdienste bietet. Wenn ein Benutzer beispielsweise nach einem komplexen wissenschaftlichen Konzept fragt, &ldq
