Heim > System-Tutorial > LINUX > Pika: Ergänzen Sie anwendbare Szenarien für Redis-Speicher mit großer Kapazität

Pika: Ergänzen Sie anwendbare Szenarien für Redis-Speicher mit großer Kapazität

WBOY
Freigeben: 2024-01-08 22:14:34
nach vorne
830 Leute haben es durchsucht
Einführung Wir haben die Geburt von Pika, die Eigenschaften von Pika, den Kern von Pika und die Verwendung von Pika in „Redis-Speicher mit großer Kapazität – Alles über Pika“ vorgestellt. Der Artikel analysiert die wichtigen Dateien in der Pika-Synchronisationslogik ausführlich: die Datenspeichermethode und das Implementierungsprinzip von „write2file“, was sehr lesenswert ist!
pika

pika ist ein Redis-ähnlicher Speicher mit großer Kapazität, der gemeinsam vom DBA der 360 Web Platform-Abteilung und dem Infrastrukturteam entwickelt wurde. Die Entstehung von Pika soll Redis nicht ersetzen, sondern Redis-Szenarien ergänzen. Pika ist bestrebt, die Probleme von Redis in Szenarien mit großer Kapazität durch dauerhaften Speicher zu lösen, unter der Voraussetzung, dass es vollständig mit dem Redis-Protokoll kompatibel ist und das praktische Betriebs- und Wartungsdesign von Redis übernimmt, wie z. B. langsame Wiederherstellungszeit und hohe Master-Slave-Kosten Synchronisation, relativ fragiler einzelner Thread, begrenzte Datenkapazität, hohe Speicherkosten usw.

pika Master-Slave-Replikationsprinzip binlog

Binlog-bezogene Dateien enthalten zwei Teile: Manifest und write2file zeichnen Protokoll-Metainformationen auf, einschließlich der aktuellen Protokolldateinummer und des aktuellen Protokolldatei-Offsets.

Dateiformat

Manifest-Dateiformat:

Log-Offset (8 Bytes)|con_offset (8 Bytes, unbenutzt)|Anzahl der Elemente (4 Bytes, unbenutzt)|Protokolldateinummer (4 Bytes).

Binlog-Dateiformat:

Die feste Größe der Binlog-Datei beträgt 100 MB. Jede Binlog-Datei besteht aus mehreren Blöcken. Jeder Schreib-Redis-Befehl wird als Datensatz bezeichnet. Ein Datensatz kann in mehreren Blöcken verteilt werden, er wird jedoch nur in einer Binlog-Datei verteilt, sodass die Binlog-Datei möglicherweise größer als 100 MB ist.

Datensatzformat: Header|Cmd

Header: Datensatzlänge (3 Bytes) |. Zeitstempel (4 Bytes) |.

Cmd: Ein Teil oder der gesamte Redis-Befehl, je nachdem, ob der verbleibende Speicherplatz des aktuellen Blocks den Datensatz speichern kann.

Implementierungskurs

Grundkurs

Version: Metainformationsklasse, zugeordnet durch mmap- und Manifestdateien.

Binlog: Protokollklasse, zugeordnet durch mmap- und write2file-Dateien.

PikaBinlogSenderThread: Protokollverbrauchsklasse, liest nacheinander den Inhalt der Protokolldatei und verbraucht Protokolle.

Grundlegende Operationen

Binlog erstellen

//file_size kann in der Konfigurationsdatei angegeben werden, der Standardwert ist 100 MB

Binlog::Binlog(const std::string& binlog_path, const int file_size)

1.1 Erstellen Sie ein Binlog-Dateiverzeichnis.

1.2 Überprüfen Sie, ob die Manifestdatei im Protokollverzeichnis vorhanden ist. Wenn sie nicht vorhanden ist, erstellen Sie eine neue.

1.3 Initialisieren Sie die Versionsklasse gemäß der Manifestdatei.

1.4 Suchen Sie die entsprechende Protokolldatei gemäß Dateinum im Manifest, suchen Sie die Dateianhängeposition gemäß pro_offset, initialisieren Sie den Protokollzeiger, zeichnen Sie die Länge des Protokollinhalts und die Anzahl der Blockblöcke auf.

Aktualisieren Sie den aktuellen Protokollproduktionsstatus

//pro_num: Protokolldateinummer

//pro_offset: Protokolldatei-Offset

//Wird verwendet, um die Binlog-Informationen entsprechend der Slave-Instanz zu aktualisieren, wenn eine vollständige Synchronisierung erforderlich ist

Status Binlog::SetProducerStatus(uint32_t pro_num, uint64_t pro_offset)

2.1 Write2file0 löschen.

2.2 write2file+pro_num löschen.

2.3 Erstellen Sie eine neue Datei „write2file+pro_num“, füllen Sie pro_offset-Leerzeichen aus, initialisieren Sie version->pro_num mit pro_num, version->pro_offset mit pro_offset und aktualisieren Sie sie in der Manifestdatei.

2.4 Initialisieren Sie die aktuelle Dateigröße und den Blockoffset.

Aktualisieren Sie den aktuellen Protokollproduktionsstatus

//filenum: aktuelle Protokollnummer

//pro_offset: aktueller Log-Offset

Status Binlog::GetProducerStatus(uint32_t* filenum, uint64_t* pro_offset)

3.1 Lesen Sie pro_num und pro_offset in der Version und geben Sie sie zurück.

Produktionsprotokoll

//Put->Produce->EmitPhysicalRecord

Status Binlog::Put(const std::string &item)

4.1 Überprüfen Sie, ob die aktuelle Protokolldatei die Schnittbedingungen erfüllt, und schneiden Sie sie gegebenenfalls aus.

4.1.1 pro_num erhöht sich um 1 und initialisiert neue Protokolldateien, version->pro_num=pro_num, version->pro_offset = 0, binlog->filesize = 0, binlog->block_offset = 0.

4.1.2 Wenn die verbleibende Größe des aktuellen Blocks

4.1.3 Produce ist eine Schleife, die sicherstellt, dass, wenn die Elementgröße kBlockSize überschreitet, mehrere EmitPhysicalRecord ausgeführt werden können, um alle in die Binlog-Datei fallenden Elementdaten zu vervollständigen. Die Bedingung für das normale Beenden der Schleife ist left==0.

4.1.3.1 Wenn left

4.1.3.2 Wenn links > verfügbar, bedeutet dies, dass mehrere Blöcke zum Speichern von Elementen erforderlich sind, dann Type=kFirstType zum ersten Mal und EmitPhysicalRecord wird mehrmals aufgerufen.

4.1.3.3 Wenn links > verfügbar und es nicht das erste Mal ist, dass EmitPhysicalRecord, dann Type=kMiddleType, EmitPhysicalRecord mehrmals aufgerufen wird.

4.1.4PhysicalRecord ausgeben.

4.1.4.1 RecordHeader verbinden (3 Byte Länge + 4 Byte Zeit + 1 Byte Typ), Daten schreiben und block_offset und pro_offset aktualisieren.

Verbrauchsprotokoll

//scratch: Das Verbrauchsergebnis gibt einen vollständigen Redis-CMD zurück

//Consume->ReadPhysicalRecord, ReadPhysicalRecord liest jedes Mal einen vollständigen Datensatz, mehrere Datensätze bilden einen vollständigen Redis-Cmd

Status PikaBinlogSenderThread::Consume(std::string &scratch)

5.1Consume ist eine Schleife, die ReadPhysicalRecord mehrmals aufrufen kann. Die Bedingung für das Beenden der Schleife ist, dass der gelesene Datensatz „record_type==kFullType“ oder „record_type==kLastType“ ist.

5.1.1 Wenn der gelesene kBlockSize-last_record_offset_ <= kHeaderSize bedeutet, dass das Ende des Blocks gelesen wurde und er mit Daten gefüllt ist, überspringen Sie ihn.

5.1.2 Daten lesen, last_record_offset_, con_offset aktualisieren.

Das obige ist der detaillierte Inhalt vonPika: Ergänzen Sie anwendbare Szenarien für Redis-Speicher mit großer Kapazität. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:linuxprobe.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage