Heim Technologie-Peripheriegeräte KI Der „goldene Partner' der großen Models ist da! Tencent Cloud veröffentlicht offiziell eine native KI-Vektordatenbank, die Vektorabruffunktionen auf 1-Milliarden-Ebene bietet

Der „goldene Partner' der großen Models ist da! Tencent Cloud veröffentlicht offiziell eine native KI-Vektordatenbank, die Vektorabruffunktionen auf 1-Milliarden-Ebene bietet

Jul 06, 2023 am 08:37 AM
大模型 ai原生 向量数据库

Am 4. Juli veröffentlichte Tencent Cloud offiziell die AI-native (AI Native) Vektordatenbank Tencent Cloud VectorDB. Diese Datenbank kann in großem Umfang in Szenarien wie Training großer Modelle, Inferenz und Wissensdatenbankergänzung eingesetzt werden. Sie ist die erste Vektordatenbank in China, die den gesamten Lebenszyklus von KI von der Zugriffsschicht über die Rechenschicht bis zur Speicherschicht bietet.

Vektordatenbanken werden in der Branche als „Hippocampus“ großer Modelle bezeichnet und sind speziell für die Speicherung und Abfrage von Vektordaten konzipiert. Berichten zufolge unterstützt die Vektordatenbank von Tencent Cloud eine Vektorabrufskala von bis zu 1 Milliarde, wobei die Latenz auf Millisekundenebene kontrolliert wird. Im Vergleich zu herkömmlichen eigenständigen Plug-in-Datenbanken ist die Abrufskala um das Zehnfache erhöht und verfügt außerdem über eine Spitzenabfragekapazität von einer Million Ebenen pro Sekunde (QPS).

Tencent Cloud definiert AI Native Vektordatenbank

Mit Beginn der Ära der großen Modelle ist die Einführung großer Modelle für Unternehmen zu einer Notwendigkeit geworden.

Vektordatenbanken können durch die Vektorisierung von Daten die Effizienz erheblich verbessern und Kosten senken. Es kann die Probleme hoher Vorschulungskosten für große Modelle, fehlendes „Langzeitgedächtnis“, unzureichende Wissensaktualisierungen und komplexes Prompt-Word-Engineering lösen, die zeitlichen und räumlichen Beschränkungen großer Modelle durchbrechen und die Implementierung großer Modelle beschleunigen Modelle in Branchenszenarien.

Statistiken zeigen, dass durch die Verwendung der Tencent Cloud Vector Database zur Klassifizierung, Deduplizierung und Bereinigung großer Modelldaten vor dem Training eine zehnfache Effizienzsteigerung im Vergleich zu herkömmlichen Methoden erzielt werden kann. Es kann die Kosten um 2–4 Größenordnungen senken.

Es ist erwähnenswert, dass Tencent Cloud das Entwicklungsparadigma von AI Native neu definiert und eine umfassende KI-Lösung für die Zugriffsschicht, die Rechenschicht und die Speicherschicht bereitgestellt hat, die es Benutzern ermöglicht, sie auf den gesamten Lebenszyklus der Verwendung von Vektordatenbanken anzuwenden Fähigkeiten.

Insbesondere auf der Zugriffsebene unterstützt die Tencent Cloud Vector Database die Eingabe von Text in natürlicher Sprache, übernimmt die Abfragemethode „Skalar + Vektor“, unterstützt die vollständige Speicherindizierung und unterstützt bis zu eine Million Abfragen pro Sekunde (QPS). Auf der Datenverarbeitungsebene kann das AI-Native-Entwicklungsparadigma umfassende Daten-KI-Berechnungen realisieren und Probleme wie Textsegmentierung (Segmentierung) und Vektorisierung (Einbettung) aus einer Hand lösen, wenn Unternehmen private Domänenwissensdatenbanken auf der Speicherebene aufbauen Cloud Vector Die Datenbank unterstützt die intelligente Speicherverteilung von Daten und hilft Unternehmen, die Speicherkosten um 50 % zu senken.

Der „goldene Partner der großen Models ist da! Tencent Cloud veröffentlicht offiziell eine native KI-Vektordatenbank, die Vektorabruffunktionen auf 1-Milliarden-Ebene bietet

Früher dauerte es etwa einen Monat, bis Unternehmen auf ein großes Modell zugreifen konnten. Nach der Verwendung der Tencent Cloud Vector Database kann die Fertigstellung in drei Tagen erfolgen, was die Zugriffskosten des Unternehmens erheblich senkt.

Es versteht sich, dass die Vektorisierungsfähigkeit (Einbettung) der Tencent Cloud Vector Database mehrfach von renommierten Organisationen anerkannt wurde. Im Jahr 2021 stand sie ganz oben auf der MS MARCO-Liste und entsprechende Ergebnisse wurden im NLP Summit ACL veröffentlicht.

Luo Yun, stellvertretender General Manager von Tencent Cloud Database, sagte, dass die Ära von AI Native angebrochen sei. „Vektordatenbank + großes Modell + Daten“ würden einen „Schwungradeffekt“ erzeugen und Unternehmen gemeinsam dabei helfen, in die AI Native-Ära einzutreten. )Epoche.

Die Vektordatenbank von Tencent Cloud trägt dazu bei, die Effizienz des Datenzugriffs um das Zehnfache zu verbessern

Tencent Cloud Vector Database basiert auf der Vektor-Engine (OLAMA) der Tencent Group, die täglich Hunderte Milliarden Suchanfragen verarbeitet. Nach der Übung in Tencents internen Massenszenarien ist die Effizienz des Datenzugriffs auf KI ebenfalls zehnmal höher als bei herkömmlichen Lösungen Die Betriebsstabilität beträgt bis zu 99,99 % und wurde in mehr als 30 nationalen Produkten wie Tencent Video, QQ Browser und QQ Music verwendet.

Die Vektordatenbank von Tencent Cloud kann Produkten effektiv dabei helfen, die Betriebseffizienz zu verbessern. Daten zeigen, dass nach Verwendung der Tencent Cloud Vector Database die Pro-Kopf-Hörzeit von QQ Music um 3,2 % gestiegen ist, die effektive Pro-Kopf-Belichtungszeit von Tencent Video um 1,74 % gestiegen ist und die Kosten von QQ Browser um 37,9 % gesunken sind.

Nehmen Sie die Anwendung von Tencent Video als Beispiel. Bilder, Audio, Titeltext und andere Inhalte in der Videobibliothek nutzen die Tencent Cloud-Vektordatenbank. Das durchschnittliche monatliche Abruf- und Berechnungsvolumen erreicht 20 Milliarden Mal, was den Anforderungen des Urheberrechts effektiv entspricht Schutz, ursprüngliche Identifikation, Ähnlichkeit usw.

Große modellbeschleunigte Vektordatenbanken befinden sich in einer Phase rasanter Entwicklung. Laut Northeast Securities wird der weltweite Markt für Vektordatenbanken bis 2030 voraussichtlich 50 Milliarden US-Dollar erreichen, und der inländische Markt für Vektordatenbanken wird voraussichtlich 60 Milliarden RMB überschreiten.

Vektordatenbanken können Unternehmen dabei helfen, große Modelle effizienter und bequemer zu nutzen und den Wert von Daten zu maximieren. Mit der kontinuierlichen Entwicklung und Verbreitung großer Modelle wird die AI Native-Vektordatenbank zum Standard für die Datenverarbeitung in Unternehmen.

Das obige ist der detaillierte Inhalt vonDer „goldene Partner' der großen Models ist da! Tencent Cloud veröffentlicht offiziell eine native KI-Vektordatenbank, die Vektorabruffunktionen auf 1-Milliarden-Ebene bietet. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Die große Model-App Tencent Yuanbao ist online! Hunyuan wird zu einem Allround-KI-Assistenten aufgerüstet, der überall hin mitgenommen werden kann Die große Model-App Tencent Yuanbao ist online! Hunyuan wird zu einem Allround-KI-Assistenten aufgerüstet, der überall hin mitgenommen werden kann Jun 09, 2024 pm 10:38 PM

Am 30. Mai kündigte Tencent ein umfassendes Upgrade seines Hunyuan-Modells an. Die auf dem Hunyuan-Modell basierende App „Tencent Yuanbao“ wurde offiziell eingeführt und kann in den App-Stores von Apple und Android heruntergeladen werden. Im Vergleich zur Hunyuan-Applet-Version in der vorherigen Testphase bietet Tencent Yuanbao Kernfunktionen wie KI-Suche, KI-Zusammenfassung und KI-Schreiben für Arbeitseffizienzszenarien. Yuanbaos Gameplay ist außerdem umfangreicher und bietet mehrere Funktionen für KI-Anwendungen , und neue Spielmethoden wie das Erstellen persönlicher Agenten werden hinzugefügt. „Tencent strebt nicht danach, der Erste zu sein, der große Modelle herstellt.“ Liu Yuhong, Vizepräsident von Tencent Cloud und Leiter des großen Modells von Tencent Hunyuan, sagte: „Im vergangenen Jahr haben wir die Fähigkeiten des großen Modells von Tencent Hunyuan weiter gefördert.“ . In die reichhaltige und umfangreiche polnische Technologie in Geschäftsszenarien eintauchen und gleichzeitig Einblicke in die tatsächlichen Bedürfnisse der Benutzer gewinnen

Das große Bytedance Beanbao-Modell wurde veröffentlicht. Der Full-Stack-KI-Dienst Volcano Engine unterstützt Unternehmen bei der intelligenten Transformation Das große Bytedance Beanbao-Modell wurde veröffentlicht. Der Full-Stack-KI-Dienst Volcano Engine unterstützt Unternehmen bei der intelligenten Transformation Jun 05, 2024 pm 07:59 PM

Tan Dai, Präsident von Volcano Engine, sagte, dass Unternehmen, die große Modelle gut implementieren wollen, vor drei zentralen Herausforderungen stehen: Modelleffekt, Inferenzkosten und Implementierungsschwierigkeiten: Sie müssen über eine gute Basisunterstützung für große Modelle verfügen, um komplexe Probleme zu lösen, und das müssen sie auch Dank der kostengünstigen Inferenzdienste können große Modelle weit verbreitet verwendet werden, und es werden mehr Tools, Plattformen und Anwendungen benötigt, um Unternehmen bei der Implementierung von Szenarien zu unterstützen. ——Tan Dai, Präsident von Huoshan Engine 01. Das große Sitzsackmodell feiert sein Debüt und wird häufig genutzt. Das Polieren des Modelleffekts ist die größte Herausforderung für die Implementierung von KI. Tan Dai wies darauf hin, dass ein gutes Modell nur durch ausgiebigen Gebrauch poliert werden kann. Derzeit verarbeitet das Doubao-Modell täglich 120 Milliarden Text-Tokens und generiert 30 Millionen Bilder. Um Unternehmen bei der Umsetzung groß angelegter Modellszenarien zu unterstützen, wird das von ByteDance unabhängig entwickelte Beanbao-Großmodell durch den Vulkan gestartet

Mithilfe der Shengteng-KI-Technologie hilft das Qinling·Qinchuan-Transportmodell Xi'an beim Aufbau eines intelligenten Transportinnovationszentrums Mithilfe der Shengteng-KI-Technologie hilft das Qinling·Qinchuan-Transportmodell Xi'an beim Aufbau eines intelligenten Transportinnovationszentrums Oct 15, 2023 am 08:17 AM

„Hohe Komplexität, hohe Fragmentierung und Cross-Domain“ waren schon immer die Hauptprobleme auf dem Weg zur digitalen und intelligenten Modernisierung der Transportbranche. Kürzlich ist das „Qinling·Qinchuan Traffic Model“ mit einer Parameterskala von 100 Milliarden, das gemeinsam von China Science Vision, der Bezirksregierung Xi'an Yanta und dem Xi'an Future Artificial Intelligence Computing Center entwickelt wurde, auf den Bereich des intelligenten Transports ausgerichtet und bietet Dienstleistungen für Xi'an und die umliegenden Gebiete. Die Region wird ein Dreh- und Angelpunkt für intelligente Transportinnovationen sein. Das „Qinling·Qinchuan Traffic Model“ kombiniert Xi'ans umfangreiche lokale verkehrsökologische Daten in offenen Szenarien, den ursprünglich von China Science Vision unabhängig entwickelten fortschrittlichen Algorithmus und die leistungsstarke Rechenleistung der Shengteng AI des Xi'an Future Artificial Intelligence Computing Center Überwachung des Straßennetzes, intelligente Transportszenarien wie Notfallkommando, Wartungsmanagement und öffentlicher Verkehr führen zu digitalen und intelligenten Veränderungen. Das Verkehrsmanagement weist in verschiedenen Städten und auf verschiedenen Straßen unterschiedliche Merkmale auf

Entdeckung des NVIDIA-Inferenz-Frameworks für große Modelle: TensorRT-LLM Entdeckung des NVIDIA-Inferenz-Frameworks für große Modelle: TensorRT-LLM Feb 01, 2024 pm 05:24 PM

1. Produktpositionierung von TensorRT-LLM TensorRT-LLM ist eine von NVIDIA entwickelte skalierbare Inferenzlösung für große Sprachmodelle (LLM). Es erstellt, kompiliert und führt Berechnungsdiagramme auf der Grundlage des TensorRT-Deep-Learning-Kompilierungsframeworks aus und stützt sich auf die effiziente Kernels-Implementierung in FastTransformer. Darüber hinaus nutzt es NCCL für die Kommunikation zwischen Geräten. Entwickler können Betreiber entsprechend der Technologieentwicklung und Nachfrageunterschieden an spezifische Anforderungen anpassen, beispielsweise durch die Entwicklung maßgeschneiderter GEMM auf Basis von Entermessern. TensorRT-LLM ist die offizielle Inferenzlösung von NVIDIA, die sich der Bereitstellung hoher Leistung und der kontinuierlichen Verbesserung ihrer Praktikabilität verschrieben hat. TensorRT-LL

Benchmark GPT-4! Das große Jiutian-Modell von China Mobile hat die doppelte Registrierung bestanden Benchmark GPT-4! Das große Jiutian-Modell von China Mobile hat die doppelte Registrierung bestanden Apr 04, 2024 am 09:31 AM

Laut Nachrichten vom 4. April hat die Cyberspace Administration of China kürzlich eine Liste registrierter großer Modelle veröffentlicht, in der das „Jiutian Natural Language Interaction Large Model“ von China Mobile enthalten ist, was darauf hinweist, dass das große Jiutian AI-Modell von China Mobile offiziell generative künstliche Intelligenz bereitstellen kann Geheimdienste nach außen. China Mobile gab an, dass dies das erste groß angelegte Modell sei, das von einem zentralen Unternehmen entwickelt wurde und sowohl die nationale Doppelregistrierung „Generative Artificial Intelligence Service Registration“ als auch die „Domestic Deep Synthetic Service Algorithm Registration“ bestanden habe. Berichten zufolge zeichnet sich Jiutians großes Modell für die Interaktion mit natürlicher Sprache durch verbesserte Branchenfähigkeiten, Sicherheit und Glaubwürdigkeit aus und unterstützt die vollständige Lokalisierung. Es hat mehrere Parameterversionen wie 9 Milliarden, 13,9 Milliarden, 57 Milliarden und 100 Milliarden gebildet. und kann flexibel in der Cloud eingesetzt werden, Edge und End sind unterschiedliche Situationen

Neuer Test-Benchmark veröffentlicht, der leistungsstärkste Open-Source-Llama 3 ist peinlich Neuer Test-Benchmark veröffentlicht, der leistungsstärkste Open-Source-Llama 3 ist peinlich Apr 23, 2024 pm 12:13 PM

Wenn die Testfragen zu einfach sind, können sowohl Spitzenschüler als auch schlechte Schüler 90 Punkte erreichen, und der Abstand kann nicht vergrößert werden ... Mit der Veröffentlichung stärkerer Modelle wie Claude3, Llama3 und später sogar GPT-5 ist die Branche in Bewegung Dringender Bedarf an einem schwierigeren und differenzierteren Benchmark-Modell. LMSYS, die Organisation hinter der großen Modellarena, brachte den Benchmark der nächsten Generation, Arena-Hard, auf den Markt, der große Aufmerksamkeit erregte. Es gibt auch die neueste Referenz zur Stärke der beiden fein abgestimmten Versionen der Llama3-Anweisungen. Im Vergleich zu MTBench, das zuvor ähnliche Ergebnisse erzielte, stieg die Arena-Hard-Diskriminierung von 22,6 % auf 87,4 %, was auf den ersten Blick stärker und schwächer ist. Arena-Hard basiert auf menschlichen Echtzeitdaten aus der Arena und seine Übereinstimmungsrate mit menschlichen Vorlieben liegt bei bis zu 89,1 %.

Fortgeschrittene Praxis des industriellen Wissensgraphen Fortgeschrittene Praxis des industriellen Wissensgraphen Jun 13, 2024 am 11:59 AM

1. Einführung in den Hintergrund Lassen Sie uns zunächst die Entwicklungsgeschichte von Yunwen Technology vorstellen. Yunwen Technology Company ... 2023 ist die Zeit, in der große Modelle vorherrschen. Viele Unternehmen glauben, dass die Bedeutung von Diagrammen nach großen Modellen stark abgenommen hat und die zuvor untersuchten voreingestellten Informationssysteme nicht mehr wichtig sind. Mit der Förderung von RAG und der Verbreitung von Data Governance haben wir jedoch festgestellt, dass eine effizientere Datenverwaltung und qualitativ hochwertige Daten wichtige Voraussetzungen für die Verbesserung der Wirksamkeit privatisierter Großmodelle sind. Deshalb beginnen immer mehr Unternehmen, darauf zu achten zu wissenskonstruktionsbezogenen Inhalten. Dies fördert auch den Aufbau und die Verarbeitung von Wissen auf einer höheren Ebene, wo es viele Techniken und Methoden gibt, die erforscht werden können. Es ist ersichtlich, dass das Aufkommen einer neuen Technologie nicht alle alten Technologien besiegt, sondern auch neue und alte Technologien integrieren kann.

Xiaomi Byte schließt sich zusammen! Ein großes Modell von Xiao Ais Zugang zu Doubao: bereits auf Mobiltelefonen und SU7 installiert Xiaomi Byte schließt sich zusammen! Ein großes Modell von Xiao Ais Zugang zu Doubao: bereits auf Mobiltelefonen und SU7 installiert Jun 13, 2024 pm 05:11 PM

Laut Nachrichten vom 13. Juni hat Xiaomis Assistent für künstliche Intelligenz „Xiao Ai“ laut Bytes öffentlichem Bericht „Volcano Engine“ eine Zusammenarbeit mit Volcano Engine erzielt. Die beiden Parteien werden ein intelligenteres interaktives KI-Erlebnis auf der Grundlage des großen Beanbao-Modells erzielen . Berichten zufolge kann das von ByteDance erstellte groß angelegte Beanbao-Modell bis zu 120 Milliarden Text-Tokens effizient verarbeiten und täglich 30 Millionen Inhalte generieren. Xiaomi nutzte das große Doubao-Modell, um die Lern- und Denkfähigkeiten seines eigenen Modells zu verbessern und einen neuen „Xiao Ai Classmate“ zu schaffen, der nicht nur die Benutzerbedürfnisse genauer erfasst, sondern auch eine schnellere Reaktionsgeschwindigkeit und umfassendere Inhaltsdienste bietet. Wenn ein Benutzer beispielsweise nach einem komplexen wissenschaftlichen Konzept fragt, &ldq

See all articles