Heim Technologie-Peripheriegeräte KI Das erste Open-Source-Modell, das das GPT4o-Niveau übertrifft! Llama 3.1 durchgesickert: 405 Milliarden Parameter, Download-Links und Modellkarten sind verfügbar

Das erste Open-Source-Modell, das das GPT4o-Niveau übertrifft! Llama 3.1 durchgesickert: 405 Milliarden Parameter, Download-Links und Modellkarten sind verfügbar

Jul 23, 2024 pm 08:51 PM
meta 产业

Machen Sie Ihre GPU bereit!


Llama 3.1 ist endlich erschienen, aber die Quelle ist nicht Meta-offiziell.

Heute ging die Nachricht vom Leak des neuen Llama-Großmodells auf Reddit viral. Zusätzlich zum Basismodell enthält es auch Benchmark-Ergebnisse von 8B, 70B und den maximalen Parameter von 405B.

首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了

Das Bild unten zeigt die Vergleichsergebnisse jeder Version von Llama 3.1 mit OpenAI GPT-4o und Llama 3 8B/70B. Wie Sie sehen können, übertrifft „selbst die 70B-Version GPT-4o“ bei mehreren Benchmarks.

首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了

                                                                                                                                  Die 8B- und 70B-Modelle der Version 3.1 sind aus 405B destilliert und weisen daher im Vergleich zur vorherigen Generation erhebliche Leistungsverbesserungen auf.
Einige Internetnutzer sagten, dass dies das erste Mal sei, dass ein Open-Source-Modell Closed-Source-Modelle wie GPT4o und Claude Sonnet 3.5 übertroffen und bei mehreren Benchmarks SOTA
erreicht habe.
Gleichzeitig ist die Modellkarte von Llama 3.1 durchgesickert und die Details wurden durchgesickert (das in der Modellkarte markierte Datum weist darauf hin, dass sie auf der Veröffentlichung vom 23. Juli basiert).
Jemand hat die folgenden Highlights zusammengefasst:

首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了

Das Modell verwendet 15T+ Token aus öffentlichen Quellen für das Training, und die Datenfrist vor dem Training endet im Dezember 2023;
Die Feinabstimmungsdaten umfassen öffentliche Verfügbarer Datensatz zur Feinabstimmung von Anweisungen (im Gegensatz zu Llama 3) und 15 Millionen synthetischen Beispielen.

    Das Modell unterstützt mehrere Sprachen, darunter Englisch, Französisch, Deutsch, Hindi, Italienisch, Portugiesisch, Spanisch und Thailändisch.
  •                                                                                                                                                         
  • Obwohl der durchgesickerte Github-Link derzeit 404 ist, haben einige Internetnutzer Download-Links angegeben (Aus Sicherheitsgründen wird jedoch empfohlen, heute Abend auf die offizielle Kanalankündigung zu warten):

首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了

Aber das ist schließlich ein 100-Milliarden-Level-Modell. Bitte bereiten Sie vor dem Herunterladen genügend Festplattenspeicher vor:
Das Folgende ist das Llama 3.1-Modell. Wichtiger Inhalt der Karte:

Basic Modellinformationen 首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了

首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了Die Meta Llama 3.1 Multilingual Large Language Model (LLM)-Sammlung besteht aus einer Reihe vorab trainierter und durch Anweisungen fein abgestimmter generativer Modelle mit den Größen 8B, 70B und 405B (Texteingabe/Textausgabe). Die auf Befehle von Llama 3.1 optimierten Nur-Text-Modelle (8B, 70B, 405B) sind für mehrsprachige Konversationsanwendungsfälle optimiert und übertreffen viele verfügbare Open- und Closed-Source-Chat-Modelle bei gängigen Branchen-Benchmarks.


Modellarchitektur: Llama 3.1 ist ein optimiertes autoregressives Sprachmodell für die Transformer-Architektur. Die optimierte Version verwendet SFT und RLHF, um Benutzerfreundlichkeit und Sicherheitspräferenzen aufeinander abzustimmen.
Unterstützte Sprachen: Englisch, Deutsch, Französisch, Italienisch, Portugiesisch, Hindi, Spanisch und Thailändisch.

Aus den Modellkarteninformationen lässt sich ableiten, dass die Kontextlänge des
Llama 3.1-Serienmodells 128k
beträgt. Alle Modellversionen verwenden Grouped Query Attention (GQA), um die Skalierbarkeit der Inferenz zu verbessern.

首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了

首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了

BESTIMMTER GEBRAUCH

BESTIMMTER VERWENDUNGSFALL. Llama 3.1 ist für mehrsprachige Geschäftsanwendungen und Forschung gedacht. Auf Anweisungen abgestimmte Nur-Text-Modelle eignen sich für assistentenähnliche Chats, während vorab trainierte Modelle an eine Vielzahl von Aufgaben zur Erzeugung natürlicher Sprache angepasst werden können.

Der Llama 3.1-Modellsatz unterstützt auch die Möglichkeit, seine Modellausgabe zu nutzen, um andere Modelle zu verbessern, einschließlich der Generierung und Destillation synthetischer Daten. Die Llama 3.1 Community-Lizenz ermöglicht diese Anwendungsfälle.

Llama 3.1 trainiert auf einer größeren Anzahl von Sprachen als den 8 unterstützten Sprachen. Entwickler können Llama 3.1-Modelle für andere Sprachen als die 8 unterstützten Sprachen verfeinern, sofern sie der Llama 3.1 Community-Lizenzvereinbarung und der Richtlinie zur akzeptablen Nutzung entsprechen, und sind in solchen Fällen dafür verantwortlich, sicherzustellen, dass andere Sprachen verwendet werden eine sichere und verantwortungsvolle Art und Weise Sprache Lama 3.1.

Software- und Hardware-Infrastruktur
Das erste ist das Trainingselement. Llama 3.1 verwendet eine benutzerdefinierte Trainingsbibliothek, einen Meta-angepassten GPU-Cluster und eine Produktionsinfrastruktur für das Vortraining und ist auch darauf abgestimmt der Produktionsinfrastruktur, Annotation und Auswertung.

Der zweite Punkt ist der Energieverbrauch des Trainings. Beim Llama 3.1-Training werden auf Hardware vom Typ H100-80 GB (TDP 700 W) insgesamt 39,3 Mio. GPU-Stunden benötigt. Hier ist die Trainingszeit die gesamte GPU-Zeit, die zum Trainieren jedes Modells erforderlich ist, und der Stromverbrauch ist die Spitzenleistungskapazität jedes GPU-Geräts, angepasst an die Energieeffizienz.

Schulung zum Thema Treibhausgasemissionen. Die gesamten Treibhausgasemissionen basierend auf geografischen Benchmarks werden während der Llama 3.1-Trainingsphase auf 11.390 Tonnen CO2e geschätzt. Seit 2020 hält Meta in seinen weltweiten Betrieben Netto-Treibhausgasemissionen von Null aufrecht und deckt 100 % seines Stromverbrauchs mit erneuerbarer Energie ab, was während des Schulungszeitraums zu marktbezogenen Treibhausgasemissionen von insgesamt 0 Tonnen CO2e führt.

Die Methoden zur Ermittlung des Trainingsenergieverbrauchs und der Treibhausgasemissionen finden Sie im folgenden Dokument. Da Meta diese Modelle öffentlich veröffentlicht, müssen andere nicht die Last der Schulung des Energieverbrauchs und der Treibhausgasemissionen tragen.

Papieradresse: https://arxiv.org/pdf/2204.05149

Trainingsdaten
Übersicht: Llama 3.1 wurde mit etwa 1,5 Billionen Token-Daten aus öffentlichen Quellen durchgeführt. Ausbildung. Zu den Feinabstimmungsdaten gehören öffentlich verfügbare Befehlsdatensätze und über 25 Millionen synthetisch generierte Beispiele.
Datenaktualität: Die Frist für die Daten vor dem Training endet im Dezember 2023.

Benchmark-Score

In diesem Abschnitt berichtet Meta über die Bewertungsergebnisse des Llama 3.1-Modells im Annotations-Benchmark. Für alle Auswertungen nutzt Meta interne Auswertungsbibliotheken.

首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了

Überlegungen zu Sicherheitsrisiken

Das Llama-Forschungsteam ist bestrebt, der Forschungsgemeinschaft wertvolle Ressourcen zur Verfügung zu stellen, um die Robustheit der Sicherheitsfeinabstimmung zu untersuchen und Entwicklern sichere und robuste Standardmodelle für eine Vielzahl bereitzustellen von Anwendungen, um die Arbeitsbelastung von Entwicklern zu reduzieren, die sichere KI-Systeme bereitstellen.
Das Forschungsteam verwendet einen vielschichtigen Datenerfassungsansatz und kombiniert von Menschen generierte Daten von Anbietern mit synthetischen Daten, um potenzielle Sicherheitsrisiken zu mindern. Das Forschungsteam entwickelte eine Reihe von Klassifikatoren, die auf einem großen Sprachmodell (LLM) basieren, um qualitativ hochwertige Eingabeaufforderungen und Antworten sorgfältig auszuwählen und so die Datenqualitätskontrolle zu verbessern.
Erwähnenswert ist, dass Llama 3.1 großen Wert auf die vorbildliche Ablehnung harmloser Aufforderungen und den Ablehnungston legt. Das Forschungsteam führte Grenzaufforderungen und kontradiktorische Aufforderungen in die Richtlinie für sichere Daten ein und änderte die Antworten auf sichere Daten, um den Tonrichtlinien zu folgen.

Das Modell Llama 3.1 ist nicht für den alleinigen Einsatz konzipiert, sondern sollte als Teil des Gesamtsystems der künstlichen Intelligenz eingesetzt werden, wobei bei Bedarf zusätzliche „Sicherheitsleitplanken“ bereitgestellt werden. Entwickler sollten beim Aufbau von Agentensystemen Systemsicherheitsmaßnahmen ergreifen.

Bitte beachten Sie, dass diese Version neue Funktionen einführt, darunter längere Kontextfenster, mehrsprachige Eingabe und Ausgabe sowie eine mögliche Entwicklerintegration mit Tools von Drittanbietern. Beim Erstellen mit diesen neuen Funktionen müssen Sie neben der Berücksichtigung der Best Practices, die im Allgemeinen für alle generativen KI-Anwendungsfälle gelten, auch besondere Aufmerksamkeit auf die folgenden Punkte richten:

Werkzeugverwendung: Wie bei der Standardsoftwareentwicklung Der Entwickler ist dafür verantwortlich, LLM mit den Tools und Diensten seiner Wahl zu integrieren. Sie sollten klare Richtlinien für ihre Anwendungsfälle entwickeln und die Integrität der von ihnen genutzten Drittanbieterdienste bewerten, um die Sicherheitseinschränkungen bei der Nutzung dieser Funktionalität zu verstehen.

Mehrsprachig: Lama 3.1 unterstützt neben Englisch 7 Sprachen: Französisch, Deutsch, Hindi, Italienisch, Portugiesisch, Spanisch und Thailändisch. Llama kann möglicherweise Text in anderen Sprachen ausgeben, dieser Text erfüllt jedoch möglicherweise nicht die Sicherheits- und Hilfsleistungsschwellenwerte.

Die Grundwerte von Lama 3.1 sind Offenheit, Inklusivität und Hilfsbereitschaft. Es ist so konzipiert, dass es jedem dient und für eine Vielzahl von Anwendungsfällen geeignet ist. Daher ist Llama 3.1 so konzipiert, dass es für Menschen aller Hintergründe, Erfahrungen und Perspektiven zugänglich ist. Bei Llama 3.1 stehen die Benutzer und ihre Bedürfnisse im Mittelpunkt, ohne unnötige Urteile oder Normen einzubauen, und es spiegelt gleichzeitig die Erkenntnis wider, dass selbst Inhalte, die in manchen Kontexten problematisch erscheinen, in anderen nützlich sein können. Llama 3.1 respektiert die Würde und Autonomie aller Benutzer und respektiert insbesondere die Werte des freien Denkens und der freien Meinungsäußerung, die Innovation und Fortschritt vorantreiben.
Aber Llama 3.1 ist eine neue Technologie, und wie jede neue Technologie birgt ihre Verwendung Risiken. Bisher durchgeführte Tests können und können nicht alle Situationen abdecken. Daher können die potenziellen Ergebnisse von Llama 3.1, wie bei allen LLMs, nicht im Voraus vorhergesagt werden, und in einigen Fällen reagiert das Modell möglicherweise ungenau, voreingenommen oder auf andere Weise anstößig auf Benutzereingaben. Daher sollten Entwickler vor der Bereitstellung einer Anwendung des Llama 3.1-Modells Sicherheitstests und Feinabstimmungen für die spezifische Anwendung des Modells durchführen.

Modellkartenquelle: https://pastebin.com/9jGkYbXY
Referenzinformationen: https://x.com/op7418/status/1815340034717069728
https: //x.com/iScienceLuvr/status/1815519917715730702
https://x.com/mattshumer_/status/1815444612414087294

Das obige ist der detaillierte Inhalt vonDas erste Open-Source-Modell, das das GPT4o-Niveau übertrifft! Llama 3.1 durchgesickert: 405 Milliarden Parameter, Download-Links und Modellkarten sind verfügbar. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Aug 09, 2024 pm 04:01 PM

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Aug 21, 2024 pm 07:33 PM

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Sep 02, 2024 pm 01:56 PM

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Das neue erschwingliche Meta Quest 3S VR-Headset erscheint bei FCC, was auf eine baldige Markteinführung hindeutet Das neue erschwingliche Meta Quest 3S VR-Headset erscheint bei FCC, was auf eine baldige Markteinführung hindeutet Sep 04, 2024 am 06:51 AM

Die Meta Connect 2024-Veranstaltung findet vom 25. bis 26. September statt. Bei dieser Veranstaltung wird das Unternehmen voraussichtlich ein neues erschwingliches Virtual-Reality-Headset vorstellen. Gerüchten zufolge handelt es sich bei dem VR-Headset um das Meta Quest 3S, das offenbar auf der FCC-Liste aufgetaucht ist. Dieser Vorschlag

Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Aug 22, 2024 pm 10:35 PM

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Analyst bespricht Einführungspreise für das gemunkelte Meta Quest 3S VR-Headset Analyst bespricht Einführungspreise für das gemunkelte Meta Quest 3S VR-Headset Aug 27, 2024 pm 09:35 PM

Seit Metas Erstveröffentlichung von Quest 3 (aktuell 499,99 $ bei Amazon) ist mittlerweile über ein Jahr vergangen. Seitdem hat Apple das deutlich teurere Vision Pro ausgeliefert, während Byte Dance nun in China die Pico 4 Ultra vorgestellt hat. Es gibt jedoch eine

Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Aug 08, 2024 am 07:02 AM

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

See all articles