


Was ist der Grund, warum der Rückgabewert leer ist, wenn die RedISTEMplate für die Stapelabfrage verwendet wird? Wie löst ich dieses Problem?
Dieser Artikel analysiert den Grund, warum der Rückgabewert leer ist, wenn RedisTemplate
von Spring Data Redis für die Batch -Abfrage verwendet wird, und entsprechende Lösungen. Bei Verwendung der executePipelined
-Methode für den Batch GET
-Betrieb ist der Rückgabewert leer, wenn das Ergebnis direkt in der Pipeline verarbeitet wird. Dies liegt daran, dass der Pipeline -Vorgang alle Befehle zwischenstrahlt und erst an den Redis -Server gesendet wird, wenn executePipelined
aufgerufen wird, und die interne Verarbeitung kann nicht rechtzeitig zurückgegeben werden.
Frage Beschreibung:
In dem Artikel sind zwei Fehlerbeispiele angegeben, die beide versuchen, die Ergebnisse des GET
-Befehls in executePipelined
zu verarbeiten, was dazu führt, dass die endgültige zurückgegebene Liste nur null
ist.
Problemanalyse und Lösungen:
Der Kern des Problems liegt in den asynchronen Eigenschaften von Pipeline -Operationen. Der korrekte Ansatz sollte durchgeführt werden, nachdem executePipelined
Methode das Ergebnis zurückgegeben und dann einheitlich behandelt wird. Die erste in diesem Artikel bereitgestellte Methode des Deserializes innerhalb einer Schleife, die die Effizienz von Pipeline -Operationen zerstört. Obwohl die zweite Methode SessionCallback
verwendet, führt sie dennoch eine Ergebnisverarbeitung innerhalb der Pipeline durch.
Verbesserte Lösungen:
Im Artikel wird eine verbesserte batchGetList
-Methode bereitgestellt, in der der Rückgabewert von executePipelined
korrekt verwendet wird:
öffentlich<t> Liste<t> BatchgetList (Sammlung<string> Schlüssel) { if (collectionUtil.isempty (keys)) { NeuarrayList () zurückgeben; } Liste<object> Ergebnisse = redistemplate.executepipelined ((Redisconnection -Verbindung) -> { Redisserializer<string> Keyserializer = (Redisserializer<string> ) redistemplate.getkeyserializer (); für (Stringschlüssel: Schlüssel) { Connection.get (KeySerializer.Serialize (Schlüssel)); } null zurückkehren; }); // Externe Verarbeitungsergebnisse in den Pipeline -Rückgabeergebnissen ausführen. Stream () .MAP (Ergebnis -> (t) redistemplate.getValueSerializer (). Deserialize ((Byte []) Ergebnis))) .Collect (sammel.tolist ()); }</string></string></object></string></t></t>
Diese Methode prüft zuerst, ob keys
leer sind, und verwendet dann executePipelined
um Stapel GET
-Operationen durchzuführen. Der Schlüssel ist, dass nach Abschluss der Pipeline -Ausführung Stream
-API verwendet wird, um results
zu durchqueren und jedes Ergebnis mithilfe redisTemplate.getValueSerializer().deserialize
Dies vermeidet die falsche Praxis der Verarbeitungsergebnisse in der Pipeline und stellt sicher, dass die Daten in Redis ordnungsgemäß abgerufen werden. Es ist zu beachten, dass diese Methode davon ausgeht, dass alle Schlüsselwertpaare denselben Deserializer verwenden. Wenn es mehrere Datentypen gibt, muss es gemäß den tatsächlichen Bedingungen angepasst werden.
Das obige ist der detaillierte Inhalt vonWas ist der Grund, warum der Rückgabewert leer ist, wenn die RedISTEMplate für die Stapelabfrage verwendet wird? Wie löst ich dieses Problem?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Das Erstellen eines Hadoop -verteilten Dateisystems (HDFS) auf einem CentOS -System erfordert mehrere Schritte. Dieser Artikel enthält einen kurzen Konfigurationshandbuch. 1. Bereiten Sie sich auf die Installation von JDK in der frühen Stufe vor: Installieren Sie JavadevelopmentKit (JDK) auf allen Knoten, und die Version muss mit Hadoop kompatibel sein. Das Installationspaket kann von der offiziellen Oracle -Website heruntergeladen werden. Konfiguration der Umgebungsvariablen: Bearbeiten /etc /Profildatei, setzen Sie Java- und Hadoop -Umgebungsvariablen, damit das System den Installationspfad von JDK und Hadoop ermittelt. 2. Sicherheitskonfiguration: SSH-Kennwortfreie Anmeldung zum Generieren von SSH-Schlüssel: Verwenden Sie den Befehl ssh-keygen auf jedem Knoten

Verwenden Sie das JSON-Viewer-Plug-In in Notepad, um JSON-Dateien einfach zu formatieren: Öffnen Sie eine JSON-Datei. Installieren und aktivieren Sie das JSON-Viewer-Plug-In. Gehen Sie zu "Plugins" & gt; "JSON Viewer" & gt; "Format JSON". Passen Sie die Einstellungen für Einklehung, Verzweigung und Sortier an. Wenden Sie Formatierung an, um die Lesbarkeit und das Verständnis zu verbessern und so die Verarbeitung und Bearbeitung von JSON -Daten zu vereinfachen.

Laden Sie das Quellcodepaket von der offiziellen Redis -Quelle herunter, um es zu kompilieren und zu installieren, um die neueste und stabile Version zu gewährleisten, und kann auf personalisierte Weise angepasst werden. Die spezifischen Schritte sind wie folgt: Aktualisieren Sie die Liste der Softwarepakets und erstellen

Aktivieren Sie Redis langsame Abfrageprotokolle im CentOS -System, um die Leistungsdiagnoseeffizienz zu verbessern. In den folgenden Schritten führen Sie die Konfiguration durch: Schritt 1: Suchen und bearbeiten Sie die Redis -Konfigurationsdatei zuerst und suchen Sie die Redis -Konfigurationsdatei, die sich normalerweise in /etc/redis/redis.conf befindet. Öffnen Sie die Konfigurationsdatei mit dem folgenden Befehl: Sudovi/etc/redis/redis.conf Schritt 2: Passen Sie die Langsame-Abfrage-Protokollparameter in der Konfigurationsdatei an, suchen Sie die folgenden Parameter: #Slow Query-Schwellenwert (MS) Slow-Log-Slow-Than10000 #Maximum der Einträge für langsame Query-Log-Logog-Logog-Len-Len-Len

Beim Konfigurieren von Hadoop-Distributed Dateisystem (HDFS) auf CentOS müssen die folgenden Schlüsselkonfigurationsdateien geändert werden: Core-Site.xml: Fs.DefaultFs: Gibt die Standarddateisystemadresse von HDFs an, wie z. B. HDFS: // localhost: 9000. Hadoop.tmp.dir: Gibt das Speicherverzeichnis für Hadoop -temporäre Dateien an. Hadoop.proxyuser.root.hosts und Hadoop.proxyuser.ro

Das Installations-, Konfigurations- und Optimierungshandbuch für das HDFS -Dateisystem unter CentOS -System In diesem Artikel wird die Installation, Konfiguration und Optimierung von Hadoop Distributed Dateisystem (HDFS) auf CentOS -System geleitet. HDFS -Installation und Konfiguration Java -Umgebung Installation: Stellen Sie zunächst sicher, dass die entsprechende Java -Umgebung installiert ist. Bearbeiten/etc/Profildatei, Folgendes hinzufügen und /usr/lib/java-1.8.0/jdk1.8.0_144 mit Ihrem tatsächlichen Java-Installationspfad: exportjava_home =/usr/lib/java-1.8.0/jdk1.8.0_144144141441444 = $ java-1.8.0/Jdk1.8.0_144444 = $ Java-1. Java-1 $ Java-1.8.8.0_14444, ersetzen

VPROCESSERAZRABOTKIVEB-ENTLEGEN, мненеришшшо & лносsprechen, LeavallySumballanceFriablanceFaumdoptomatification, čtookazalovnetakprosto, Kakaožidal.Posenesko

Wie erkennt die Redis -Caching -Lösung die Anforderungen der Produktranking -Liste? Während des Entwicklungsprozesses müssen wir uns häufig mit den Anforderungen der Ranglisten befassen, z. B. das Anzeigen eines ...
