Heim Technologie-Peripheriegeräte KI Konstruktion eines Skalierungsgesetzes aus 80 Modellen: eine neue Arbeit eines chinesischen Doktoranden, die vom Autor der Denkkette wärmstens empfohlen wird

Konstruktion eines Skalierungsgesetzes aus 80 Modellen: eine neue Arbeit eines chinesischen Doktoranden, die vom Autor der Denkkette wärmstens empfohlen wird

Jun 06, 2024 pm 08:40 PM
产业 Gesetz der Expansion

Im Bereich der KI sind Skalierungsgesetze ein leistungsstarkes Werkzeug zum Verständnis von LM-Skalierungstrends. Sie bieten eine Richtlinie für Forscher. Dieses Gesetz bietet einen wichtigen Leitfaden für das Verständnis, wie sich die Leistung von Sprachmodellen mit der Skalierung ändert.

Aber leider ist die Skalierungsanalyse in vielen Benchmarking- und Post-Training-Studien nicht üblich, da die meisten Forscher nicht über die Rechenressourcen verfügen, um Skalierungsgesetze von Grund auf zu erstellen, und die Trainingsskalen offener Modelle zu gering sind, um sie zuverlässig zu machen Expansionsprognosen.

Forscher der Stanford University, der University of Toronto und anderen Institutionen haben eine alternative Beobachtungsmethode vorgeschlagen: Observational Scaling Laws, die die Funktionen von Sprachmodellen (LM) mit der Leistung über mehrere Modellfamilien hinweg kombiniert, anstatt nur innerhalb eines einzelne Reihen, wie es bei standardmäßigen rechnerischen Erweiterungsgesetzen der Fall ist.

Diese Methode umgeht das Modelltraining und erstellt stattdessen Skalierungsgesetze basierend auf etwa 80 öffentlich verfügbaren Modellen. Dies führt jedoch zu einem weiteren Problem. Die Konstruktion eines einzelnen Expansionsgesetzes aus mehreren Modellfamilien stellt aufgrund der großen Unterschiede in der Trainingsrecheneffizienz und den Fähigkeiten zwischen verschiedenen Modellen große Herausforderungen dar.

Dennoch zeigt die Studie, dass diese Änderungen mit einem einfachen, verallgemeinerten Skalierungsgesetz vereinbar sind, bei dem die Leistung des Sprachmodells eine Funktion des niedrigdimensionalen Fähigkeitsraums ist und sich die gesamte Modellfamilie nur in der Effizienz der Konvertierung unterscheidet Berechnungen in Fähigkeiten umwandeln.

Mit der oben genannten Methode demonstriert diese Studie die erstaunliche Vorhersagbarkeit vieler anderer Arten von Erweiterungsstudien. Sie fanden heraus, dass: einige aufkommende Phänomene einem glatten Sigmoidalverhalten folgen und anhand kleiner Modelle wie der GPT-4-Agentenleistung vorhergesagt werden können von kann aus einfacheren Nicht-Agent-Benchmarks genau vorhergesagt werden. Darüber hinaus zeigt die Studie, wie sich die Auswirkungen von Interventionen nach dem Training wie Denkketten auf das Modell vorhersagen lassen.

Untersuchungen zeigen, dass beobachtbare Expansionsgesetze, selbst wenn sie nur mit einem kleinen Sub-GPT-3-Modell angepasst werden, komplexe Phänomene wie Emergenzkapazität, Agentenleistung und Erweiterung von Post-Training-Methoden (z. B. Denkkette) genau vorhersagen.
从80个模型中构建Scaling Law:华人博士生新作,思维链提出者力荐
  • Papieradresse: https://arxiv.org/pdf/2405.10938
  • Papiertitel: Observational Scaling Laws and the Predictability of Language Model Performance

Es gibt drei Autoren s von Der Artikel, unter dem Yangjun Ruan ein chinesischer Autor ist, schloss sein Studium an der Zhejiang-Universität ab.

Dieser Artikel erhielt auch einen weitergeleiteten Kommentar von Jason Wei, dem Antragsteller der Denkkette, der sagte, dass ihm diese Forschung sehr gut gefallen habe.
从80个模型中构建Scaling Law:华人博士生新作,思维链提出者力荐
Paper Introduction

Die Studie ergab, dass derzeit Hunderte von offenen Modellen mit unterschiedlichen Maßstäben und Fähigkeiten existieren. Allerdings können Forscher diese Modelle nicht direkt zur Berechnung von Expansionsgesetzen verwenden (da die Recheneffizienz des Trainings zwischen den Modellfamilien stark variiert), aber die Forscher hoffen, dass es ein allgemeineres Expansionsgesetz gibt, das für Modellfamilien gilt.

In diesem Artikel wird insbesondere davon ausgegangen, dass die Downstream-Leistung von LMs eine Funktion des niederdimensionalen Fähigkeitsraums ist (z. B. Verständnis natürlicher Sprache, Argumentation und Codegenerierung) und dass sich Modellfamilien nur in ihrer Effizienz unterscheiden bei der Umwandlung von Trainingsberechnungen in diese Fähigkeiten. Wenn diese Beziehung wahr ist, würde dies bedeuten, dass es eine logarithmisch lineare Beziehung von niedrigdimensionalen Fähigkeiten zu nachgelagerten Fähigkeiten über Modellfamilien hinweg gibt (was es Forschern ermöglichen würde, Skalierungsgesetze anhand vorhandener Modelle festzulegen) (Abbildung 1). Diese Studie erhielt kostengünstige, hochauflösende Erweiterungsvorhersagen unter Verwendung von fast 80 öffentlich verfügbaren LMs (rechts).
从80个模型中构建Scaling Law:华人博士生新作,思维链提出者力荐
Durch die Analyse standardmäßiger LM-Benchmarks (z. B. Open LLM Leaderboard) haben Forscher einige solcher Fähigkeitsmaße entdeckt, die in einem Expansionsgesetz mit dem Rechenaufwand innerhalb der Modellfamilie zusammenhängen (R^2 > 0,9) (siehe Abbildung 3 unten), und dieser Zusammenhang besteht auch zwischen verschiedenen Modellfamilien und nachgelagerten Indikatoren. Dieser Artikel nennt diese Expansionsbeziehung das beobachtbare Expansionsgesetz.

Abschließend zeigt diese Studie, dass die Verwendung beobachtbarer Expansionsgesetze kostengünstig und einfach ist, da es einige Modellreihen gibt, die ausreichen, um viele der Kernergebnisse der Studie zu reproduzieren. Mit diesem Ansatz stellte die Studie fest, dass Skalierungsvorhersagen für Interventionen zu Beginn und nach dem Training leicht durch die Auswertung von nur 10–20 Modellen erreicht werden können.
从80个模型中构建Scaling Law:华人博士生新作,思维链提出者力荐
Neue Fähigkeiten

Es gab eine hitzige Debatte darüber, ob LM bei bestimmten Rechenschwellen diskontinuierliche „aufkommende“ Fähigkeiten hat und ob diese Fähigkeiten mithilfe kleiner Modelle vorhergesagt werden können. Beobachtbare Expansionsgesetze legen nahe, dass einige dieser Phänomene glatten S-förmigen Kurven folgen und mithilfe kleiner Sub-Llama-2-7B-Modelle genau vorhergesagt werden können.
从80个模型中构建Scaling Law:华人博士生新作,思维链提出者力荐
从80个模型中构建Scaling Law:华人博士生新作,思维链提出者力荐
Agentenfähigkeiten

Diese Studie zeigt, dass LM als fortgeschrittenere und komplexere Fähigkeiten eines Agenten, gemessen mit AgentBench und AgentBoard, mithilfe beobachtbarer Expansionsgesetze vorhergesagt werden kann. Durch beobachtbare Skalierungsgesetze sagt die Studie die Leistung von GPT-4 genau voraus, indem nur ein schwächeres Modell (unter GPT-3.5) verwendet wird, und identifiziert Programmierfähigkeit als einen Faktor, der die Agentenleistung antreibt.

Post-Training-Methodenerweiterung

Diese Studie zeigt, dass das Expansionsgesetz Post-Training-Methoden zuverlässig vorhersagen kann, selbst wenn es an ein schwächeres Modell (sub Llama-2 7B) angepasst wird. Vorteile wie Chain -des-Gedankens, Selbstkonsistenz usw.

Insgesamt besteht der Beitrag dieser Studie darin, ein beobachtbares Skalierungsgesetz vorzuschlagen, das vorhersehbare logarithmisch-lineare Beziehungen zwischen Berechnungen, einfachen Fähigkeitsmaßen und komplexen nachgelagerten Indikatoren nutzt.

Verifizierung beobachtbarer Expansionsgesetze

Forscher haben die Nützlichkeit dieser Expansionsgesetze durch Experimente überprüft. Darüber hinaus haben die Forscher nach der Veröffentlichung des Papiers auch Vorhersagen für zukünftige Modelle vorab registriert, um zu testen, ob das Expansionsgesetz dem aktuellen Modell zu gut entspricht. Der relevante Code zum Implementierungsprozess und zur Datenerfassung wurde auf GitHub veröffentlicht:

GitHub-Adresse: https://github.com/ryoungj/ObsScaling

Vorhersagbarkeit neu entstehender Fähigkeiten

Abbildung 4 unten zeigt die Vorhersageergebnisse mithilfe der PC-Messung (Hauptfähigkeit) und die Basisergebnisse der Vorhersageleistung basierend auf Trainings-FLOPs. Es zeigt sich, dass diese Fähigkeiten mithilfe unserer PC-Metrik genau vorhergesagt werden können, selbst wenn nur ein Modell mit schlechter Leistung verwendet wird.

Im Gegensatz dazu führt die Verwendung von Trainings-FLOPs zu einer deutlich schlechteren Extrapolation auf dem Testsatz und einer deutlich schlechteren Passform auf dem Trainingssatz, wie höhere MSE-Werte zeigen. Diese Unterschiede können durch das Training von FLOPs für verschiedene Modellfamilien verursacht werden.
从80个模型中构建Scaling Law:华人博士生新作,思维链提出者力荐
Vorhersagbarkeit der Agentenfähigkeit

Abbildung 5 unten zeigt die Vorhersageergebnisse des beobachtbaren Expansionsgesetzes unter Verwendung der PC-Metrik. Es zeigt sich, dass bei beiden Agenten-Benchmarks die Leistung des Hold-out-Modells (GPT-4 oder Claude-2) unter Verwendung der PC-Metrik anhand des Modells mit schwächerer Leistung (mehr als 10 % Lücke) genau vorhergesagt werden kann.

Dies zeigt, dass die komplexeren Agentenfähigkeiten von LMs eng mit ihren zugrunde liegenden Modellfähigkeiten zusammenhängen und auf dieser Grundlage Vorhersagen treffen können. Dies zeigt auch, dass LM-basierte Agentenfunktionen gute Skalierbarkeitseigenschaften aufweisen, da Backbone-LMs immer größer werden.
从80个模型中构建Scaling Law:华人博士生新作,思维链提出者力荐
Auswirkung von Post-Training-Techniken

Abbildung 6a unten zeigt die Expansionsvorhersageergebnisse von CoT und SC (Selbstkonsistenz, Selbstkonsistenz) unter Verwendung beobachtbarer Expansionsgesetze. Es kann festgestellt werden, dass die Leistung stärkerer, größerer Modelle, die CoT und CoT+SC ohne (naive) Post-Training-Techniken verwenden, aus den schwächeren Modellen mit kleinerem Rechenmaßstab (wie Modellgröße und Trainings-FLOPs) genau vorhergesagt werden kann.

Es ist erwähnenswert, dass die Skalierungstrends zwischen den beiden Technologien unterschiedlich sind, wobei CoT einen offensichtlicheren Skalierungstrend aufweist als die Verwendung der Selbstkonsistenz von CoT.
从80个模型中构建Scaling Law:华人博士生新作,思维链提出者力荐
Weitere technische Details finden Sie im Originalpapier.

Das obige ist der detaillierte Inhalt vonKonstruktion eines Skalierungsgesetzes aus 80 Modellen: eine neue Arbeit eines chinesischen Doktoranden, die vom Autor der Denkkette wärmstens empfohlen wird. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1667
14
PHP-Tutorial
1273
29
C#-Tutorial
1255
24
Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Aug 09, 2024 pm 04:01 PM

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Aug 21, 2024 pm 07:33 PM

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Sep 02, 2024 pm 01:56 PM

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Aug 22, 2024 pm 10:35 PM

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Sep 03, 2024 pm 05:18 PM

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Aug 22, 2024 pm 08:02 PM

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au

Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Aug 08, 2024 am 07:02 AM

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

See all articles