


Wie fusioniere ich Arrayelemente mit derselben ID mit JavaScript in ein Objekt?
JavaScript -Array -Element Zusammenführung: Elemente mit derselben ID in ein Objekt zusammenführen
Bei der Datenverarbeitung ist es häufig erforderlich, Array -Elemente mit derselben ID in ein einzelnes Objekt zusammenzufassen. Dieser Artikel enthält eine JavaScript -Lösung, um Array -Elemente mit derselben ID zu konvertieren, jedoch unterschiedliche Attribute in ein neues Array -Format.
Originaldatenformat:
const list = [ {ID: "202301", Jine: 23, Typ: "Dinner"}, {ID: "202301", Jine: 87.5, Typ: "Frühstück"}, {ID: "202301", Jine: 1065,5, Typ: "Chinesische Lebensmittel"}, {ID: "202302", Jine: 10, Typ: "Dinner"}, {id: "202302", Jine: 181.5, Typ: "Frühstück"}, {ID: "202302", Jine: 633,5, Typ: "Chinese Food"} ];
Zieldatenformat:
const targetList = [ {ID: "202301", Jine1: 87,5, Jine2: 1065.5, Jine3: 23}, {ID: "202302", Jine1: 181.5, Jine2: 633.5, Jine3: 10} ];
Lösung:
Wir werden die reduce
verwenden, um die Datenkonvertierung zu implementieren. Diese Methode iteriert über das Array und sammelt jedes Element in ein Ergebnisobjekt.
const result = Object.Values (list.Reduce ((ACC, Curr) => { const {id, jine, type} = curr; if (! Acc [id]) { ACC [id] = {id}; } Switch (Typ) { Fall 'Frühstück': ACC [ID] .Jine1 = Jine; brechen; Fall 'chinesisches Essen': ACC [ID] .Jine2 = Jine; brechen; Fall 'Abendessen': ACC [ID] .Jine3 = Jine; brechen; } Rückgabe ACC; }, {})); console.log (Ergebnis); // Zieldatenformat ausgeben
Code Erläuterung:
- Methode
reduce
: Diereduce
der Methode iteriertlist
und sammelt jedes Element in ein Objektacc
. -
acc[id]
: Verwenden Sieid
als Schlüssel zum Speichern von Daten inacc
-Objekt. Wennid
nicht vorhanden ist, wird ein neues Objekt erstellt. -
switch
-Anweisung: Weisen Sie denjine
-Wertjine1
,jine2
oderjine3
gemäß dem Werttype
zu. -
Object.values
: Verwenden Sie schließlich die Methode vonObject.values
, um dasacc
-Objekt in ein Array umzuwandeln, um das Zieldatenformat zu erhalten.
Diese Methode ist klar und präzise, um die Verwendung externer Bibliotheken zu vermeiden und direkt JavaScript-integrierte Methoden zur Implementierung der Datenkonvertierung zu verwenden. Es ist auch einfacher zu skalieren. Wenn Sie sich mit mehr Speisearten befassen müssen, fügen Sie einfach weitere case
in der switch
-Anweisung hinzu.
Das obige ist der detaillierte Inhalt vonWie fusioniere ich Arrayelemente mit derselben ID mit JavaScript in ein Objekt?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Das Erstellen eines Hadoop -verteilten Dateisystems (HDFS) auf einem CentOS -System erfordert mehrere Schritte. Dieser Artikel enthält einen kurzen Konfigurationshandbuch. 1. Bereiten Sie sich auf die Installation von JDK in der frühen Stufe vor: Installieren Sie JavadevelopmentKit (JDK) auf allen Knoten, und die Version muss mit Hadoop kompatibel sein. Das Installationspaket kann von der offiziellen Oracle -Website heruntergeladen werden. Konfiguration der Umgebungsvariablen: Bearbeiten /etc /Profildatei, setzen Sie Java- und Hadoop -Umgebungsvariablen, damit das System den Installationspfad von JDK und Hadoop ermittelt. 2. Sicherheitskonfiguration: SSH-Kennwortfreie Anmeldung zum Generieren von SSH-Schlüssel: Verwenden Sie den Befehl ssh-keygen auf jedem Knoten

VPROCESSERAZRABOTKIVEB-ENTLEGEN, мненеришшшо & лносsprechen, LeavallySumballanceFriablanceFaumdoptomatification, čtookazalovnetakprosto, Kakaožidal.Posenesko

Aktivieren Sie Redis langsame Abfrageprotokolle im CentOS -System, um die Leistungsdiagnoseeffizienz zu verbessern. In den folgenden Schritten führen Sie die Konfiguration durch: Schritt 1: Suchen und bearbeiten Sie die Redis -Konfigurationsdatei zuerst und suchen Sie die Redis -Konfigurationsdatei, die sich normalerweise in /etc/redis/redis.conf befindet. Öffnen Sie die Konfigurationsdatei mit dem folgenden Befehl: Sudovi/etc/redis/redis.conf Schritt 2: Passen Sie die Langsame-Abfrage-Protokollparameter in der Konfigurationsdatei an, suchen Sie die folgenden Parameter: #Slow Query-Schwellenwert (MS) Slow-Log-Slow-Than10000 #Maximum der Einträge für langsame Query-Log-Logog-Logog-Len-Len-Len

Wie erkennt die Redis -Caching -Lösung die Anforderungen der Produktranking -Liste? Während des Entwicklungsprozesses müssen wir uns häufig mit den Anforderungen der Ranglisten befassen, z. B. das Anzeigen eines ...

Beim Konfigurieren von Hadoop-Distributed Dateisystem (HDFS) auf CentOS müssen die folgenden Schlüsselkonfigurationsdateien geändert werden: Core-Site.xml: Fs.DefaultFs: Gibt die Standarddateisystemadresse von HDFs an, wie z. B. HDFS: // localhost: 9000. Hadoop.tmp.dir: Gibt das Speicherverzeichnis für Hadoop -temporäre Dateien an. Hadoop.proxyuser.root.hosts und Hadoop.proxyuser.ro

Das Installations-, Konfigurations- und Optimierungshandbuch für das HDFS -Dateisystem unter CentOS -System In diesem Artikel wird die Installation, Konfiguration und Optimierung von Hadoop Distributed Dateisystem (HDFS) auf CentOS -System geleitet. HDFS -Installation und Konfiguration Java -Umgebung Installation: Stellen Sie zunächst sicher, dass die entsprechende Java -Umgebung installiert ist. Bearbeiten/etc/Profildatei, Folgendes hinzufügen und /usr/lib/java-1.8.0/jdk1.8.0_144 mit Ihrem tatsächlichen Java-Installationspfad: exportjava_home =/usr/lib/java-1.8.0/jdk1.8.0_144144141441444 = $ java-1.8.0/Jdk1.8.0_144444 = $ Java-1. Java-1 $ Java-1.8.8.0_14444, ersetzen

Fehlerbehebung bei HDFS -Konfigurationsfehlern unter CentOS -Systemen Dieser Artikel soll Ihnen helfen, die Probleme bei der Konfiguration von HDFs in CentOS -Systemen zu lösen. Bitte befolgen Sie die folgenden Schritte zur Fehlerbehebung: Java -Umgebungsüberprüfung: Bestätigen Sie, dass die Variable der java_home -Umgebungsvariable korrekt festgelegt wird. Fügen Sie Folgendes in der Datei/etc/profil oder ~/.bashrc hinzu: exportjava_home =/path/to/your/javaexportpath = $ java_home/bin: $ pathexecutequelle/etc/Profil oder Quelle ~/.bashrc, damit die Konfiguration wirksam wird. Hadoop

Zusammenfassungsbeschreibung: Verteilte Verriegelung ist ein wichtiges Instrument zur Gewährleistung der Datenkonsistenz bei der Entwicklung hoher Parallelitätsanwendungen. Dieser Artikel startet aus einem praktischen Fall und führt ausführlich vor, wie der Komponist zur Installation und Verwendung der Dino-MA/Distributed-Lock-Bibliothek zur Lösung des verteilten Sperrproblems und die Sicherung der Sicherheit und Effizienz des Systems verwendet wird.
