


Das erste binäre neuronale Netzwerk BNext mit einer Genauigkeit von mehr als 80 % auf ImageNet wurde veröffentlicht, eine fünfjährige Reise von -1 und +1
Vor zwei Jahren, als MeliusNet herauskam, veröffentlichte Heart of the Machine einen technischen Artikel „Binäres neuronales Netzwerk, das MobileNet zum ersten Mal schlägt, -1 und +1 drei Jahre mühsamer Reise 》, überprüfte die Entwicklungsgeschichte von BNN. Damals wurde XNOR.AI, das mit der frühen BNN-Arbeit XNOR-Net begann, von Apple übernommen. Jeder hatte sich vorgestellt, ob diese energieeffiziente, leistungsstarke binäre neuronale Netzwerktechnologie bald breite Anwendungsperspektiven eröffnen würde.
Allerdings war es für uns in den letzten zwei Jahren schwierig, mehr Informationen über die Anwendung der BNN-Technologie von Apple zu erhalten, das seine Technologie streng vertraulich behandelt, und es gab keine weiteren besonders auffälligen Anwendungsfälle entweder in der Wissenschaft oder in der Industrie. Andererseits wachsen Edge-KI-Anwendungen und -Märkte mit der rasant steigenden Zahl an Endgeräten rasant: Es wird erwartet, dass bis 2030 500 bis 125 Milliarden Edge-Geräte produziert werden und der Edge-Computing-Markt auf 60 Milliarden US-Dollar ansteigen wird. Derzeit gibt es mehrere beliebte Anwendungsbereiche: AIoT, Metaverse und Roboter-Endgeräte. Relevante Branchen beschleunigen die Implementierung von Technologie. Gleichzeitig wurden KI-Funktionen in viele wichtige technische Verbindungen in den oben genannten Bereichen eingebettet, beispielsweise in die weit verbreitete Anwendung von KI-Technologie in der dreidimensionalen Rekonstruktion, Videokomprimierung und Echtzeit Wahrnehmung von Roboterszenen. Vor diesem Hintergrund wird die Nachfrage der Branche nach Edge-basierter KI-Technologie mit hoher Energieeffizienz und geringem Stromverbrauch, Softwaretools und Hardwarebeschleunigung immer dringlicher.
Derzeit gibt es zwei Hauptengpässe, die die Anwendung von BNN einschränken: erstens die Unfähigkeit, die Genauigkeitslücke mit herkömmlichen 32-Bit-Deep-Learning-Modellen effektiv zu schließen; zweitens das Fehlen einer leistungsstarken Algorithmusimplementierung auf unterschiedlicher Hardware . Beschleunigungen in maschinellen Lernpapieren lassen sich oft nicht auf die von Ihnen verwendete GPU oder CPU übertragen. Der zweite Grund kann aus dem ersten Grund resultieren. BNN kann keine zufriedenstellende Genauigkeit erreichen und daher keine breite Aufmerksamkeit von Praktikern auf dem Gebiet der System- und Hardwarebeschleunigung und -optimierung auf sich ziehen. Die Community für maschinelle Lernalgorithmen kann häufig nicht selbst Hochleistungs-Hardwarecode entwickeln. Um sowohl eine hohe Genauigkeit als auch eine starke Beschleunigung zu erreichen, erfordern BNN-Anwendungen oder -Beschleuniger daher zweifellos die Zusammenarbeit von Entwicklern aus diesen beiden unterschiedlichen Bereichen.
Warum BNN rechen- und speichereffizient ist
Zum Beispiel verwendet das Meta-Empfehlungssystemmodell DLRM 32-Bit-Gleitkommazahlen zum Speichern von Gewichten und Aktivierungsparametern, und seine Modellgröße beträgt etwa 2,2 GB. Eine binäre Version des Modells mit einer geringen Genauigkeitsreduzierung (
Der zweite wesentliche Vorteil von BNN besteht darin, dass die Berechnungsmethode äußerst effizient ist. Es verwendet nur 1 Bit, also zwei Zustände, um Variablen darzustellen. Dies bedeutet, dass alle Operationen nur durch Bitoperationen abgeschlossen werden können. Mithilfe von UND-Gattern, XOR-Gattern und anderen Operationen können herkömmliche Multiplikations- und Additionsoperationen ersetzt werden. Bitoperationen sind die Grundeinheit in der Schaltung. Studenten, die mit dem Schaltungsdesign vertraut sind, sollten verstehen, dass eine effektive Reduzierung der Fläche der Multiplikations- und Additionsberechnungseinheit und eine Reduzierung des Speicherzugriffs außerhalb des Chips die effektivsten Möglichkeiten zur Reduzierung des Stromverbrauchs sind. BNN konzentriert sich sowohl auf den Speicher als auch auf die Berechnung. WRPN [1] hat gezeigt, dass BNN im Vergleich zu voller Präzision eine 1000-fache Energieeinsparung erzielen kann. Die neuere Arbeit BoolNet [2] demonstrierte ein BNN-Strukturdesign, das nahezu keine Gleitkommaoperationen verwenden und einen reinen binären Informationsfluss aufrechterhalten kann, wodurch hervorragende Kompromisse bei Stromverbrauch und Genauigkeit bei der ASIC-Simulation erzielt werden.
Wie sieht das erste BNN mit 80 % Genauigkeit aus?
Forscher wie Nianhui Guo und Haojin Yang vom Hasso-Plattner-Institut für Computersystemtechnik in Deutschland schlugen das BNext-Modell vor und erreichten damit als erstes BNN eine Top1-Klassifizierungsgenauigkeit von über 80 % im ImageNet-Datensatz:
Abbildung 1 Leistungsvergleich von SOTA BNN basierend auf ImageNet
Papieradresse: https://arxiv.org/pdf/2211.12933.pdf
Der Autor führte zunächst einen ausführlichen Vergleich der Optimierungsfreundlichkeit des aktuellen Mainstream-BNN-Modells und des 32- Der große Gradunterschied (Abbildung 2) legt nahe, dass die grobe Verlustlandschaft von BNN einer der Hauptgründe ist, die die aktuelle Forschungsgemeinschaft daran hindert, die Leistungsgrenzen von BNN weiter zu erkunden.
Basierend auf dieser Annahme versuchte der Autor, mithilfe eines neuartigen Strukturdesigns die Optimierungsfreundlichkeit des BNN-Modells zu verbessern, und verringerte die Schwierigkeit der Optimierung des hochpräzisen BNN-Modells durch den Aufbau einer binären neuronalen Netzwerkarchitektur mit einem glatteren Verlust Landschaft. Insbesondere betont der Autor, dass die Modellbinarisierung die Merkmalsmuster, die für die Vorwärtsausbreitung verwendet werden können, stark einschränkt und die binäre Faltung dazu zwingt, nur Informationen in einem begrenzten Merkmalsraum zu extrahieren und zu verarbeiten. Dieser eingeschränkte Feed-Forward-Ausbreitungsmodus kann zu Optimierungsschwierigkeiten führen durch zwei Ebenen des Strukturdesigns effektiv gemildert werden: (1) Aufbau eines flexiblen Moduls zur Kalibrierung zusammenhängender Faltungsmerkmale, um die Anpassungsfähigkeit des Modells an die binäre Darstellung zu verbessern; (2) Erforschung effizienter Bypass-Strukturen, um das Informationsengpassproblem zu lindern, das durch die Merkmalsbinarisierung bei der Feedforward-Ausbreitung verursacht wird; .
Abbildung 2 Vergleich der Verlustlandschaftsvisualisierung (2D-Konturperspektive) für die beliebte BNN-Architektur
Basierend auf der obigen Analyse schlug der Autor BNext vor, das als erstes Unternehmen dies erreichte ImageNe-Bildklassifizierungsaufgabe > Binäre neuronale Netzwerkarchitektur mit 80 % Genauigkeit Das spezifische Netzwerkarchitekturdesign ist in Abbildung 4 dargestellt. Der Autor entwarf zunächst eine grundlegende binäre Verarbeitungseinheit basierend auf dem Info-Recoupling-Modul (Info-RCP). Um das Informationsengpassproblem zwischen benachbarten Faltungen anzugehen, wird der vorläufige Kalibrierungsentwurf der Ausgabeverteilung der binären Faltung durch die Einführung zusätzlicher Batch-Normalisierungsschichten und PReLU-Schichten vervollständigt. Anschließend konstruierte der Autor ein quadratisches dynamisches Verteilungskalibrierungsdesign basierend auf der inversen Reststruktur und der Squeeze-And-Expand-Zweigstruktur. Wie in Abbildung 3 dargestellt, berücksichtigt die zusätzliche inverse Reststruktur im Vergleich zur herkömmlichen Real2Binary-Kalibrierungsstruktur die Merkmalslücke zwischen der Eingabe und der Ausgabe der Binäreinheit vollständig und vermeidet so eine suboptimale Verteilungskalibrierung, die ausschließlich auf Eingabeinformationen basiert. Diese zweistufige dynamische Verteilungskalibrierung kann die Schwierigkeit der Merkmalsextraktion in nachfolgenden benachbarten binären Faltungsschichten wirksam verringern. Abbildung 3: Vergleichstabelle zum Design des Faltungsmoduls Der Autor vervollständigte den Grundaufbau von Basic Block durch Stapeln mehrerer Info-RCP-Module und führte zusätzliche Batch-Normalisierung und kontinuierliche Restverbindungen für jedes Info-RCP-Modul ein, um das Informationsengpassproblem zwischen verschiedenen Info-RCP-Modulen weiter zu lindern. Basierend auf der Analyse der Auswirkungen der Bypass-Struktur auf die Optimierung des Binärmodells schlägt der Autor vor, den Zweig der elementweisen Matrixmultiplikation zu verwenden, um eine Verteilungskalibrierung am Ausgang des ersten 3x3-Info-RCP-Moduls jedes Basisblocks durchzuführen . Der zusätzliche Luftraum-Aufmerksamkeitsgewichtungsmechanismus kann Basic Block dabei helfen, eine Vorwärtsinformationsfusion und -verteilung mit einem flexibleren Mechanismus durchzuführen und so die Glätte der Modellverlustlandschaft zu verbessern. Wie in Abbildung 2.e und Abbildung 2.f dargestellt, kann das vorgeschlagene Moduldesign die Glätte der Verlustlandschaft des Modells erheblich verbessern.
Abbildung 4 BNächster Architekturentwurf. „Prozessor repräsentiert das Info-RCP-Modul, „BN“ repräsentiert die Batch-Normalisierungsschicht, „C“ repräsentiert die Grundbreite des Modells, „N“ und „M“ repräsentieren die Tiefenskalenparameter verschiedener Stufen des Modells.
Der Autor kombinierte das obige Strukturdesign mit dem beliebten MoboleNetv1-Benchmark-Modell und konstruierte vier BNext-Modellreihen (Tabelle 1) unterschiedlicher Komplexität, indem er den Proportionalkoeffizienten von Modelltiefe und -breite änderte: BNex-Tiny, BNext-Small, BNext - Mittel, BWeiter-Groß.
Aufgrund der relativ rauen Verlustlandschaft stützt sich die aktuelle binäre Modelloptimierung im Allgemeinen auf feinere Überwachungsinformationen, die durch Methoden wie Wissensdestillation bereitgestellt werden, um weit verbreitete suboptimale Konvergenz zu beseitigen. Zum ersten Mal berücksichtigte der Autor von BNext die möglichen Auswirkungen der großen Lücke in der Vorhersageverteilung zwischen dem Lehrermodell und dem binären Schülermodell während des Optimierungsprozesses und wies darauf hin, dass die Lehrerauswahl ausschließlich auf der Grundlage der Modellgenauigkeit zu Gegenmaßnahmen führen wird - Intuitive Überanpassungsergebnisse für Schüler. Um dieses Problem zu lösen, schlägt der Autor die Wissenskomplexität (KC) als neue Metrik für die Lehrerauswahl vor und berücksichtigt dabei die Korrelation zwischen der Wirksamkeit der Ausgabe-Softlabels des Lehrermodells und der Komplexität der Parameter des Lehrermodells.
Wie in Abbildung 5 gezeigt, hat der Autor basierend auf der Wissenskomplexität die Komplexität beliebter Modellreihen mit voller Präzision wie ResNet, EfficientNet und ConvNext gemessen und bewertet und BNext-T als Studentenmodell kombiniert um zunächst die Gültigkeit der Kriterien zu überprüfen und die Ergebnisse der Rangfolge für die Auswahl des Wissensdestillationsmodells in nachfolgenden Experimenten zu verwenden. Abbildung 5: Kontraintuitiver Überanpassungseffekt und die Auswirkung der Wissenskomplexität bei verschiedenen Lehrerauswahlen Diversified Consecutive KD wird vorgeschlagen, um das Optimierungsproblem zu lösen, das durch die frühe Vorhersageverteilungslücke verursacht wird. Wie unten gezeigt, moduliert der Autor die Zielfunktion im Optimierungsprozess durch die Wissensintegrationsmethode der Kombination starker und schwacher Lehrer. Auf dieser Grundlage wird die Strategie zur Wissenssteigerung weiter eingeführt, bei der mehrere vordefinierte Lehrkräfte eingesetzt werden, um schwache Lehrkräfte während des Ausbildungsprozesses gleichmäßig zu wechseln, die kombinierte Wissenskomplexität lehrplanmäßig von schwach nach stark zu lenken und die Vorhersageoptimierungsinterferenz zu reduzieren durch Unterschiede verursacht.
In Bezug auf Optimierungstechniken berücksichtigen die BNext-Autoren vollständig die möglichen Gewinne, die die Datenerweiterung bei der modernen hochpräzisen Modelloptimierung mit sich bringt, und bieten die erste mögliche Anwendung bestehender beliebter Datenerweiterungsstrategien bei der binären Modelloptimierung Experimentelle Ergebnisse zeigen, dass die vorhandenen Datenverbesserungsmethoden nicht vollständig für die binäre Modelloptimierung geeignet sind, was Anregungen für die Gestaltung von Datenverbesserungsstrategien speziell für die binäre Modelloptimierung in späteren Forschungen liefert. Basierend auf dem vorgeschlagenen Architekturdesign und der Optimierungsmethode führte der Autor eine Methodenüberprüfung für die groß angelegte Bildklassifizierungsaufgabe ImageNet-1k durch. Die experimentellen Ergebnisse sind in Abbildung 6 dargestellt.
Abbildung 6 Vergleich der SOTA-BNN-Methoden basierend auf ImageNet-1k.
Im Vergleich zu vorhandenen Methoden hat BNext-L die Leistungsgrenze binärer Modelle auf ImageNet-1k erstmals auf 80,57 % verschoben und damit eine Genauigkeit von mehr als 10 % für die meisten vorhandenen Methoden erreicht. Im Vergleich zu PokeBNN von Google ist BNext-M bei ähnlichen Parametern um 0,7 % höher. Der Autor betont auch, dass die Optimierung von PokeBNN auf höheren Rechenressourcen wie einer Bacth-Größe von bis zu 8192 und einer TPU von 720 Epochen beruht , während BNext-L nur 512 Epochen mit einer herkömmlichen Batch-Größe von 512 iterierte, was die Wirksamkeit der Strukturdesign- und Optimierungsmethode von BNext widerspiegelt. Bei Vergleichen, die auf demselben Basismodell basieren, weisen sowohl BNext-T als auch BNext-18 eine deutlich verbesserte Genauigkeit auf. Im Vergleich zu Modellen mit voller Präzision wie RegNetY-4G (80,0 %) weist BNext-L Lernfähigkeiten für die passende visuelle Darstellung auf und nutzt dabei nur einen begrenzten Parameterraum und eine begrenzte Rechenkomplexität, was es ideal für die nachgelagerte, auf visuellen Aufgaben basierende Bereitstellung macht Der Feature-Extraktor im Binärmodell bietet reichhaltigen Fantasieraum. BNext Die Autoren erwähnten in dem Papier, dass sie und ihre Mitarbeiter die Betriebseffizienz dieser hochpräzisen BNN-Architektur aktiv auf GPU-Hardware implementieren und überprüfen und eine Ausweitung auf andere breitere Hardware planen Zukunft auf der Plattform. Nach Ansicht des Herausgebers hat die Community jedoch wieder Vertrauen in BNN gewonnen und die Aufmerksamkeit von mehr Geeks im System- und Hardwarebereich auf sich gezogen. Die vielleicht wichtigere Bedeutung dieser Arbeit besteht darin, die Vorstellung vom Anwendungspotenzial von BNN neu zu gestalten. Da immer mehr Anwendungen von Cloud-zentrierten Computing-Paradigmen auf dezentrales Edge-Computing migrieren, wird die enorme Anzahl an Edge-Geräten in der Zukunft effizientere KI-Technologie, Software-Frameworks und Hardware-Computing-Plattformen erfordern. Allerdings sind die derzeit gängigsten KI-Modelle und Computerarchitekturen nicht für Edge-Szenarien konzipiert und optimiert. Daher glaube ich, dass BNN immer eine wichtige Option voller technischer Herausforderungen und großem Potenzial sein wird, bis die Antwort auf Edge AI gefunden ist. Was kommt als Nächstes?
Das obige ist der detaillierte Inhalt vonDas erste binäre neuronale Netzwerk BNext mit einer Genauigkeit von mehr als 80 % auf ImageNet wurde veröffentlicht, eine fünfjährige Reise von -1 und +1. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Leider löschen Menschen aus bestimmten Gründen oft versehentlich bestimmte Kontakte. WeChat ist eine weit verbreitete soziale Software. Um Benutzern bei der Lösung dieses Problems zu helfen, wird in diesem Artikel erläutert, wie gelöschte Kontakte auf einfache Weise wiederhergestellt werden können. 1. Verstehen Sie den WeChat-Kontaktlöschmechanismus. Dies bietet uns die Möglichkeit, gelöschte Kontakte wiederherzustellen. Der Kontaktlöschmechanismus in WeChat entfernt sie aus dem Adressbuch, löscht sie jedoch nicht vollständig. 2. Nutzen Sie die integrierte „Kontaktbuch-Wiederherstellung“-Funktion von WeChat, um Zeit und Energie zu sparen. Mit dieser Funktion können Benutzer schnell gelöschte Kontakte wiederherstellen. 3. Rufen Sie die WeChat-Einstellungsseite auf und klicken Sie auf die untere rechte Ecke, öffnen Sie die WeChat-Anwendung „Me“ und klicken Sie auf das Einstellungssymbol in der oberen rechten Ecke, um die Einstellungsseite aufzurufen.

Stellen Sie sich ein Modell der künstlichen Intelligenz vor, das nicht nur die Fähigkeit besitzt, die traditionelle Datenverarbeitung zu übertreffen, sondern auch eine effizientere Leistung zu geringeren Kosten erzielt. Dies ist keine Science-Fiction, DeepSeek-V2[1], das weltweit leistungsstärkste Open-Source-MoE-Modell, ist da. DeepSeek-V2 ist ein leistungsstarkes MoE-Sprachmodell (Mix of Experts) mit den Merkmalen eines wirtschaftlichen Trainings und einer effizienten Inferenz. Es besteht aus 236B Parametern, von denen 21B zur Aktivierung jedes Markers verwendet werden. Im Vergleich zu DeepSeek67B bietet DeepSeek-V2 eine stärkere Leistung, spart gleichzeitig 42,5 % der Trainingskosten, reduziert den KV-Cache um 93,3 % und erhöht den maximalen Generierungsdurchsatz auf das 5,76-fache. DeepSeek ist ein Unternehmen, das sich mit allgemeiner künstlicher Intelligenz beschäftigt

KI verändert tatsächlich die Mathematik. Vor kurzem hat Tao Zhexuan, der diesem Thema große Aufmerksamkeit gewidmet hat, die neueste Ausgabe des „Bulletin of the American Mathematical Society“ (Bulletin der American Mathematical Society) weitergeleitet. Zum Thema „Werden Maschinen die Mathematik verändern?“ äußerten viele Mathematiker ihre Meinung. Der gesamte Prozess war voller Funken, knallhart und aufregend. Der Autor verfügt über eine starke Besetzung, darunter der Fields-Medaillengewinner Akshay Venkatesh, der chinesische Mathematiker Zheng Lejun, der NYU-Informatiker Ernest Davis und viele andere bekannte Wissenschaftler der Branche. Die Welt der KI hat sich dramatisch verändert. Viele dieser Artikel wurden vor einem Jahr eingereicht.

Boston Dynamics Atlas tritt offiziell in die Ära der Elektroroboter ein! Gestern hat sich der hydraulische Atlas einfach „unter Tränen“ von der Bühne der Geschichte zurückgezogen. Heute gab Boston Dynamics bekannt, dass der elektrische Atlas im Einsatz ist. Es scheint, dass Boston Dynamics im Bereich kommerzieller humanoider Roboter entschlossen ist, mit Tesla zu konkurrieren. Nach der Veröffentlichung des neuen Videos wurde es innerhalb von nur zehn Stunden bereits von mehr als einer Million Menschen angesehen. Die alten Leute gehen und neue Rollen entstehen. Das ist eine historische Notwendigkeit. Es besteht kein Zweifel, dass dieses Jahr das explosive Jahr der humanoiden Roboter ist. Netizens kommentierten: Die Weiterentwicklung der Roboter hat dazu geführt, dass die diesjährige Eröffnungsfeier wie Menschen aussieht, und der Freiheitsgrad ist weitaus größer als der von Menschen. Aber ist das wirklich kein Horrorfilm? Zu Beginn des Videos liegt Atlas ruhig auf dem Boden, scheinbar auf dem Rücken. Was folgt, ist atemberaubend

Anfang dieses Monats schlugen Forscher des MIT und anderer Institutionen eine vielversprechende Alternative zu MLP vor – KAN. KAN übertrifft MLP in Bezug auf Genauigkeit und Interpretierbarkeit. Und es kann MLP, das mit einer größeren Anzahl von Parametern ausgeführt wird, mit einer sehr kleinen Anzahl von Parametern übertreffen. Beispielsweise gaben die Autoren an, dass sie KAN nutzten, um die Ergebnisse von DeepMind mit einem kleineren Netzwerk und einem höheren Automatisierungsgrad zu reproduzieren. Konkret verfügt DeepMinds MLP über etwa 300.000 Parameter, während KAN nur etwa 200 Parameter hat. KAN hat eine starke mathematische Grundlage wie MLP und basiert auf dem universellen Approximationssatz, während KAN auf dem Kolmogorov-Arnold-Darstellungssatz basiert. Wie in der folgenden Abbildung gezeigt, hat KAN

Mobile Spiele sind mit der Entwicklung der Technologie zu einem festen Bestandteil des Lebens der Menschen geworden. Mit seinem niedlichen Drachenei-Bild und dem interessanten Schlüpfvorgang hat es die Aufmerksamkeit vieler Spieler auf sich gezogen, und eines der Spiele, das viel Aufmerksamkeit erregt hat, ist die mobile Version von Dragon Egg. Um den Spielern dabei zu helfen, ihre eigenen Drachen im Spiel besser zu kultivieren und zu züchten, erfahren Sie in diesem Artikel, wie Sie Dracheneier in der mobilen Version ausbrüten. 1. Wählen Sie den geeigneten Drachenei-Typ aus, der Ihnen gefällt und zu Ihnen passt, basierend auf den verschiedenen Arten von Drachenei-Attributen und -Fähigkeiten, die im Spiel zur Verfügung stehen. 2. Verbessern Sie die Stufe der Brutmaschine, indem Sie Aufgaben erledigen und Requisiten sammeln. Die Stufe der Brutmaschine bestimmt die Schlüpfgeschwindigkeit und die Erfolgsquote beim Schlüpfen. 3. Sammeln Sie die Ressourcen, die die Spieler zum Schlüpfen benötigen

Das Festlegen der Schriftgröße ist zu einer wichtigen Personalisierungsanforderung geworden, da Mobiltelefone zu einem wichtigen Werkzeug im täglichen Leben der Menschen geworden sind. Um den Bedürfnissen verschiedener Benutzer gerecht zu werden, wird in diesem Artikel erläutert, wie Sie das Nutzungserlebnis Ihres Mobiltelefons verbessern und die Schriftgröße des Mobiltelefons durch einfache Vorgänge anpassen können. Warum müssen Sie die Schriftgröße Ihres Mobiltelefons anpassen? Durch Anpassen der Schriftgröße kann der Text klarer und leichter lesbar werden. Geeignet für die Lesebedürfnisse von Benutzern unterschiedlichen Alters. Praktisch für Benutzer mit Sehbehinderung, die Schriftgröße zu verwenden Einstellungsfunktion des Mobiltelefonsystems – So rufen Sie die Systemeinstellungsoberfläche auf – Suchen und geben Sie die Option „Anzeige“ in der Einstellungsoberfläche ein – suchen Sie die Option „Schriftgröße“ und passen Sie sie mit einem Drittanbieter an Anwendung – Laden Sie eine Anwendung herunter und installieren Sie sie, die die Anpassung der Schriftgröße unterstützt – öffnen Sie die Anwendung und rufen Sie die entsprechende Einstellungsoberfläche auf – je nach Person

Das neueste Video von Teslas Roboter Optimus ist veröffentlicht und er kann bereits in der Fabrik arbeiten. Bei normaler Geschwindigkeit sortiert es Batterien (Teslas 4680-Batterien) so: Der Beamte hat auch veröffentlicht, wie es bei 20-facher Geschwindigkeit aussieht – auf einer kleinen „Workstation“, pflücken und pflücken und pflücken: Dieses Mal wird es freigegeben. Eines der Highlights Der Vorteil des Videos besteht darin, dass Optimus diese Arbeit in der Fabrik völlig autonom und ohne menschliches Eingreifen während des gesamten Prozesses erledigt. Und aus Sicht von Optimus kann es auch die krumme Batterie aufnehmen und platzieren, wobei der Schwerpunkt auf der automatischen Fehlerkorrektur liegt: In Bezug auf die Hand von Optimus gab der NVIDIA-Wissenschaftler Jim Fan eine hohe Bewertung ab: Die Hand von Optimus ist der fünffingrige Roboter der Welt am geschicktesten. Seine Hände sind nicht nur taktil
