So verwenden Sie Redis in verteilten Golang-Anwendungen
Text
Redis ist eine leistungsstarke In-Memory-Datenbank, die häufig in verteilten Systemen verwendet wird. Neben der Funktion als verteilter Cache oder einer einfachen In-Memory-Datenbank gibt es in diesem Artikel einige spezielle Anwendungsszenarien wird in Verbindung mit Golang geschrieben Die entsprechende Middleware.
Verteilte Sperre
In einem Einzelmaschinensystem können wir sync.Mutex
verwenden, um kritische Ressourcen zu schützen. Auch in verteilten Systemen besteht ein solcher Bedarf, zusätzlich Die entsprechende „verteilte Sperre“. sync.Mutex
来保护临界资源,在分布式系统中同样有这样的需求,当多个主机抢占同一个资源,需要加对应的“分布式锁”。
在Redis中我们可以通过setnx
命令来实现
如果key不存在可以设置对应的值,设置成功则加锁成功,key不存在返回失败
释放锁可以通过
del
实现。
主要逻辑如下:
type RedisLock struct { client *redis.Client key string expiration time.Duration // 过期时间,防止宕机或者异常 } func NewLock(client *redis.Client, key string, expiration time.Duration) *RedisLock { return &RedisLock{ client: client, key: key, expiration: expiration, } } // 加锁将成功会将调用者id保存到redis中 func (l *RedisLock) Lock(id string) (bool, error) { return l.client.SetNX(context.TODO(), l.key, id, l.expiration).Result() } const unLockScript = ` if (redis.call("get", KEYS[1]) == KEYS[2]) then redis.call("del", KEYS[1]) return true end return false ` // 解锁通过lua脚本来保证原子性,只能解锁当前调用者加的锁 func (l *RedisLock) UnLock(id string) error { _, err := l.client.Eval(context.TODO(), unLockScript, []string{l.key, id}).Result() if err != nil && err != redis.Nil { return err } return nil }
为了防止系统宕机或异常请求导致的死锁,需要添加一个额外的超时时间,该超时时间应设为最大估计运行时间的两倍。
解锁时通过lua脚本来保证原子性,调用者只会解自己加的锁。避免由于超时造成的混乱,例如:进程A在时间t1获取了锁,但由于执行缓慢,在时间t2锁超时失效,进程B在t3获取了锁,这是如果进程A执行完去解锁会取消进程B的锁。
运行测试
func main() { client := redis.NewClient(&redis.Options{ Addr: "localhost:6379", Password: "123456", DB: 0, // use default DB }) lock := NewLock(client, "counter", 30*time.Second) counter := 0 worker := func(i int) { for { id := fmt.Sprintf("worker%d", i) ok, err := lock.Lock(id) log.Printf("worker %d attempt to obtain lock, ok: %v, err: %v", i, ok, err) if !ok { time.Sleep(100 * time.Millisecond) continue } defer lock.UnLock(id) counter++ log.Printf("worker %d, add counter %d", i, counter) break } } wg := sync.WaitGroup{} for i := 1; i <= 5; i++ { wg.Add(1) id := i go func() { defer wg.Done() worker(id) }() } wg.Wait() }
运行结果,可以看到与sync.Mutex
使用效果类似
2022/07/22 09:58:09 worker 5 attempt to obtain lock, ok: true, err:
2022/07/22 09:58:09 worker 5, add counter 1
2022/07/22 09:58:09 worker 4 attempt to obtain lock, ok: false, err:
2022/07/22 09:58:09 worker 1 attempt to obtain lock, ok: false, err:
2022/07/22 09:58:09 worker 2 attempt to obtain lock, ok: false, err:
2022/07/22 09:58:09 worker 3 attempt to obtain lock, ok: false, err:
2022/07/22 09:58:10 worker 3 attempt to obtain lock, ok: false, err:
2022/07/22 09:58:10 worker 1 attempt to obtain lock, ok: false, err:
2022/07/22 09:58:10 worker 2 attempt to obtain lock, ok: false, err:
2022/07/22 09:58:10 worker 4 attempt to obtain lock, ok: true, err:
2022/07/22 09:58:10 worker 4, add counter 2
2022/07/22 09:58:10 worker 1 attempt to obtain lock, ok: true, err:
2022/07/22 09:58:10 worker 1, add counter 3
2022/07/22 09:58:10 worker 3 attempt to obtain lock, ok: false, err:
2022/07/22 09:58:10 worker 2 attempt to obtain lock, ok: false, err:
2022/07/22 09:58:10 worker 2 attempt to obtain lock, ok: true, err:
2022/07/22 09:58:10 worker 2, add counter 4
2022/07/22 09:58:10 worker 3 attempt to obtain lock, ok: false, err:
2022/07/22 09:58:10 worker 3 attempt to obtain lock, ok: true, err:
2022/07/22 09:58:10 worker 3, add counter 5
特别注意的是,在分布式Redis集群中,如果发生异常时(主节点宕机),可能会降低分布式锁的可用性,可以通过强一致性的组件etcd、ZooKeeper等实现。
分布式过滤器
假设要开发一个爬虫服务,爬取百万级的网页,怎么判断某一个网页是否爬取过,除了借助数据库和HashMap,我们可以借助布隆过滤器来做。相对于其他方法,布隆过滤器占用空间非常少,且插入和查询时间非常快。
布隆过滤器用来判断某个元素是否在集合中,利用BitSet
插入数据时将值进行多次Hash,将BitSet对应位置1
查询时同样进行多次Hash对比所有位上是否为1,如是则存在。
布隆过滤器有一定的误判率,不适合精确查询的场景。另外也不支持删除元素。通常适用于URL去重、垃圾邮件过滤、防止缓存击穿等场景中。
在Redis中,我们可以使用自带的BitSet实现,同样也借助lua脚本的原子性来避免多次查询数据不一致。
const ( // 插入数据,调用setbit设置对应位 setScript = ` for _, offset in ipairs(ARGV) do redis.call("setbit", KEYS[1], offset, 1) end ` // 查询数据,如果所有位都为1返回true getScript = ` for _, offset in ipairs(ARGV) do if tonumber(redis.call("getbit", KEYS[1], offset)) == 0 then return false end end return true ` ) type BloomFilter struct { client *redis.Client key string // 存在redis中的key bits uint // BitSet的大小 maps uint // Hash的次数 } func NewBloomFilter(client *redis.Client, key string, bits, maps uint) *BloomFilter { client.Del(context.TODO(), key) if maps == 0 { maps = 14 } return &BloomFilter{ key: key, client: client, bits: bits, maps: maps, } } // 进行多次Hash, 得到位置列表 func (f *BloomFilter) getLocations(data []byte) []uint { locations := make([]uint, f.maps) for i := 0; i < int(f.maps); i++ { val := murmur3.Sum64(append(data, byte(i))) locations[i] = uint(val) % f.bits } return locations } func (f *BloomFilter) Add(data []byte) error { args := getArgs(f.getLocations(data)) _, err := f.client.Eval(context.TODO(), setScript, []string{f.key}, args).Result() if err != nil && err != redis.Nil { return err } return nil } func (f *BloomFilter) Exists(data []byte) (bool, error) { args := getArgs(f.getLocations(data)) resp, err := f.client.Eval(context.TODO(), getScript, []string{f.key}, args).Result() if err != nil { if err == redis.Nil { return false, nil } return false, err } exists, ok := resp.(int64) if !ok { return false, nil } return exists == 1, nil } func getArgs(locations []uint) []string { args := make([]string, 0) for _, l := range locations { args = append(args, strconv.FormatUint(uint64(l), 10)) } return args }
运行测试
func main() { bf := NewBloomFilter(client,"bf-test", 2^16, 14) exists, err := bf.Exists([]byte("test1")) log.Printf("exist %t, err %v", exists, err) if err := bf.Add([]byte("test1")); err != nil { log.Printf("add err: %v", err) } exists, err = bf.Exists([]byte("test1")) log.Printf("exist %t, err %v", exists, err) exists, err = bf.Exists([]byte("test2")) log.Printf("exist %t, err %v", exists, err) // output // 2022/07/22 10:05:58 exist false, err <nil> // 2022/07/22 10:05:58 exist true, err <nil> // 2022/07/22 10:05:58 exist false, err <nil> }
分布式限流器
在golang.org/x/time/rate
setnx
erreichen. - Wenn der Schlüssel nicht vorhanden ist, können Sie den entsprechenden Wert festlegen. Wenn die Einstellung erfolgreich ist Wenn der Schlüssel nicht vorhanden ist, wird ein Fehler zurückgegeben
- Freigabesperren können über
del
implementiert werden. - Die Hauptlogik lautet wie folgt: Um einen Deadlock durch Systemausfallzeiten oder abnormale Anforderungen zu verhindern, muss ein zusätzlicher Timeout hinzugefügt werden, der auf das Doppelte der maximal geschätzten Laufzeit eingestellt werden sollte. 🎜🎜Verwenden Sie das Lua-Skript, um beim Entsperren die Atomizität sicherzustellen. Der Anrufer entsperrt nur die von ihm hinzugefügte Sperre. Vermeiden Sie Verwirrung durch Zeitüberschreitung. Beispiel: Prozess A hat die Sperre zum Zeitpunkt t1 erhalten, aber aufgrund der langsamen Ausführung ist die Sperre zum Zeitpunkt t2 abgelaufen Vorgang wird die Sperre von B abgebrochen. 🎜
--- 相关Key --- limit rate key值,对应value为当前令牌数 local limit_key = KEYS[1] --- 输入参数 --[[ qps: 每秒请求数; burst: 令牌桶容量; now: 当前Timestamp; cost: 请求令牌数; max_wait: 最大等待时间 --]] local qps = tonumber(ARGV[1]) local burst = tonumber(ARGV[2]) local now = ARGV[3] local cost = tonumber(ARGV[4]) local max_wait = tonumber(ARGV[5]) --- 获取redis中的令牌数 local tokens = redis.call("hget", limit_key, "token") if not tokens then tokens = burst end --- 上次修改时间 local last_time = redis.call("hget", limit_key, "last_time") if not last_time then last_time = 0 end --- 最新等待时间 local last_event = redis.call("hget", limit_key, "last_event") if not last_event then last_event = 0 end --- 通过当前时间与上次修改时间的差值,qps计算出当前时间得令牌数 local delta = math.max(0, now-last_time) local new_tokens = math.min(burst, delta * qps + tokens) new_tokens = new_tokens - cost --- 最新令牌数,减少请求令牌 --- 如果最新令牌数小于0,计算需要等待的时间 local wait_period = 0 if new_tokens < 0 and qps > 0 then wait_period = wait_period - new_tokens / qps end wait_period = math.ceil(wait_period) local time_act = now + wait_period --- 满足等待间隔的时间戳 --- 允许请求有两种情况 --- 当请求令牌数小于burst, 等待时间不超过最大等待时间,可以通过补充令牌满足请求 --- qps为0时,只要最新令牌数不小于0即可 local ok = (cost <= burst and wait_period <= max_wait and qps > 0) or (qps == 0 and new_tokens >= 0) --- 设置对应值 if ok then redis.call("set", limit_key, new_tokens) redis.call("set", last_time_key, now) redis.call("set", last_event_key, time_act) end --- 返回列表,{是否允许, 等待时间} return {ok, wait_period}
Nach dem Login kopierenNach dem Login kopierenFühren Sie den Test aus
🎜Anhand des laufenden Ergebnisses können Sie sehen, dass der Effekt der Verwendung von// 调用lua脚本 func (lim *RedisLimiter) reserveN(now time.Time, n int, maxFutureReserveSecond int) (*Reservation, error) { // ... res, err := lim.rdb.Eval(context.TODO(), reserveNScript, []string{lim.limitKey}, lim.qps, lim.burst, now.Unix(), n, maxFutureReserveSecond).Result() if err != nil && err != redis.Nil { return nil, err } //... return &Reservation{ ok: allow == 1, lim: lim, tokens: n, timeToAct: now.Add(time.Duration(wait) * time.Second), }, nil }
Nach dem Login kopierenNach dem Login kopierensync.Mutex
ähnelt 🎜🎜22.07.2022 09 :58:09 Arbeiter 5 versucht, eine Sperre zu erhalten, ok: wahr, Fehler:
22.07.2022 09:58:09 Arbeiter 5, Zähler 1 hinzufügen
22.07.2022 09:58:09 Arbeiter 4 versucht, eine Sperre zu erhalten, ok: falsch, Fehler:
22.07.2022 09:58:09 Arbeiter 1 versucht, eine Sperre zu erhalten, ok: falsch, Fehler: < ;nil>
22.07.2022 09:58:09 Arbeiter 2 versucht, eine Sperre zu erhalten, ok: falsch, Fehler:
22.07.2022 09:58:09 Arbeiter 3 Versuch, eine Sperre zu erhalten, ok: falsch, Fehler:
22.07.2022 09:58:10 Arbeiter 3 versucht, eine Sperre zu erhalten, ok: falsch, Fehler:
22.07.2022 09:58:10 Arbeiter 1 Versuch, eine Sperre zu erhalten, ok: falsch, Fehler:
22.07.2022 09:58:10 Arbeiter 2 Versuch, eine Sperre zu erhalten, ok: falsch, Fehler:
22.07.2022 09:58:10 Arbeiter 4 versucht, eine Sperre zu erhalten, ok: wahr, Fehler:
22.07.2022 09: 58:10 Arbeiter 4, Zähler 2 hinzufügen
22.07.2022 09:58:10 Arbeiter 1 versucht, eine Sperre zu erhalten, ok: wahr, Fehler:
22.07.2022 09 :58:10 Arbeiter 1, Zähler 3 hinzufügen
22.07.2022 09:58:10 Arbeiter 3 versucht, eine Sperre zu erhalten, ok: falsch, Fehler:
22.07.2022 09:58:10 Arbeiter 2 versucht, eine Sperre zu erhalten, ok: falsch, Fehler:
22.07.2022 09:58:10 Arbeiter 2 versucht, eine Sperre zu erhalten, ok: wahr, Fehler: < ;nil>
22.07.2022 09:58:10 Arbeiter 2, Zähler 4 hinzufügen
22.07.2022 09:58:10 Arbeiter 3 versucht, eine Sperre zu erhalten, ok: falsch, Fehler:
22.07.2022 09:58:10 Arbeiter 3 versucht, eine Sperre zu erhalten, ok: wahr, Fehler:
22.07.2022 09:58:10 Arbeiter 3, Zähler 5 hinzufügen🎜< /blockquote>🎜Besondere Aufmerksamkeit gilt, dass in einem verteilten Redis-Cluster beim Auftreten einer Ausnahme (der Masterknoten ist ausgefallen) die Verfügbarkeit verteilter Sperren möglicherweise verringert ist, was durch starke Konsistenzkomponenten erreicht werden kann wie etcd und ZooKeeper. 🎜🎜Verteilter Filter🎜🎜Angenommen, wir möchten einen Crawler-Dienst entwickeln, um Millionen von Webseiten zu crawlen. Zusätzlich zur Verwendung der Datenbank und HashMap können wir dazu Bloom-Filter verwenden . Im Vergleich zu anderen Methoden nehmen Bloom-Filter sehr wenig Platz ein und haben sehr schnelle Einfüge- und Abfragezeiten. 🎜🎜Der Bloom-Filter wird verwendet, um zu bestimmen, ob sich ein Element im Satz befindet🎜🎜🎜🎜, der Wert wird mehrfach gehasht und die entsprechende Position von BitSet ist 1🎜🎜🎜🎜Beim Abfragen Der Wert wird mehrmals gehasht, um alle zu vergleichen. Ob das Bit 1 ist, wenn ja, existiert es. 🎜🎜🎜🎜 Der Bloom-Filter hat eine gewisse Fehleinschätzungsrate und ist nicht für präzise Abfrageszenarien geeignet. Darüber hinaus wird das Löschen von Elementen nicht unterstützt. Es wird normalerweise in Szenarien wie der URL-Deduplizierung, der Spam-Filterung und der Verhinderung von Cache-Ausfällen verwendet. 🎜🎜In Redis können wir die integrierte BitSet-Implementierung verwenden und auch die Atomizität von Lua-Skripten nutzen, um Inkonsistenzen bei mehreren Abfragedaten zu vermeiden. 🎜func main() { rdb := redis.NewClient(&redis.Options{ Addr: "localhost:6379", Password: "123456", DB: 0, // use default DB }) r, err := NewRedisLimiter(rdb, 1, 2, "testrate") if err != nil { log.Fatal(err) } r.Reset() for i := 0; i < 5; i++ { err := r.Wait(context.TODO()) log.Printf("worker %d allowed: %v", i, err) } } // output // 2022/07/22 12:50:31 worker 0 allowed: <nil> // 2022/07/22 12:50:31 worker 1 allowed: <nil> // 2022/07/22 12:50:32 worker 2 allowed: <nil> // 2022/07/22 12:50:33 worker 3 allowed: <nil> // 2022/07/22 12:50:34 worker 4 allowed: <nil>
Nach dem Login kopierenNach dem Login kopierenTest ausführen
rrreee🎜Distributed Rate Limiter🎜🎜 bietet einen Token-Bucket-basierten Ratenbegrenzer im Paketgolang.org/x/time/rate
, wenn Sie möchten Um die Strombegrenzung in einer verteilten Umgebung zu implementieren, können Sie sie basierend auf Redis Lua-Skripten implementieren. 🎜🎜Das Hauptprinzip des Token-Buckets lautet wie folgt: 🎜🎜🎜🎜 Angenommen, die Kapazität eines Token-Buckets ist geplatzt und Token werden mit einer QPS-Rate pro Sekunde darin platziert.🎜🎜🎜🎜Die Token werden zunächst gefüllt mit Token, und wenn das Token überläuft, wird es direkt gefüllt. Verwerfen. Wenn beim Anfordern eines Tokens genügend Token im Bucket vorhanden sind, wird es zugelassen, andernfalls wird es abgelehnt🎜🎜🎜🎜Wenn Burst == qps, Die Flussgrenze richtet sich strikt nach QPS. Wenn Burst> QPS ist, kann ein bestimmter Traffic-Burst zugelassen werden🎜
这里主要参考了官方rate
包的实现,将核心逻辑改为Lua实现。
--- 相关Key --- limit rate key值,对应value为当前令牌数 local limit_key = KEYS[1] --- 输入参数 --[[ qps: 每秒请求数; burst: 令牌桶容量; now: 当前Timestamp; cost: 请求令牌数; max_wait: 最大等待时间 --]] local qps = tonumber(ARGV[1]) local burst = tonumber(ARGV[2]) local now = ARGV[3] local cost = tonumber(ARGV[4]) local max_wait = tonumber(ARGV[5]) --- 获取redis中的令牌数 local tokens = redis.call("hget", limit_key, "token") if not tokens then tokens = burst end --- 上次修改时间 local last_time = redis.call("hget", limit_key, "last_time") if not last_time then last_time = 0 end --- 最新等待时间 local last_event = redis.call("hget", limit_key, "last_event") if not last_event then last_event = 0 end --- 通过当前时间与上次修改时间的差值,qps计算出当前时间得令牌数 local delta = math.max(0, now-last_time) local new_tokens = math.min(burst, delta * qps + tokens) new_tokens = new_tokens - cost --- 最新令牌数,减少请求令牌 --- 如果最新令牌数小于0,计算需要等待的时间 local wait_period = 0 if new_tokens < 0 and qps > 0 then wait_period = wait_period - new_tokens / qps end wait_period = math.ceil(wait_period) local time_act = now + wait_period --- 满足等待间隔的时间戳 --- 允许请求有两种情况 --- 当请求令牌数小于burst, 等待时间不超过最大等待时间,可以通过补充令牌满足请求 --- qps为0时,只要最新令牌数不小于0即可 local ok = (cost <= burst and wait_period <= max_wait and qps > 0) or (qps == 0 and new_tokens >= 0) --- 设置对应值 if ok then redis.call("set", limit_key, new_tokens) redis.call("set", last_time_key, now) redis.call("set", last_event_key, time_act) end --- 返回列表,{是否允许, 等待时间} return {ok, wait_period}
在Golang中的相关接口Allow、AllowN、Wait等都是通过调用reserveN实现
// 调用lua脚本 func (lim *RedisLimiter) reserveN(now time.Time, n int, maxFutureReserveSecond int) (*Reservation, error) { // ... res, err := lim.rdb.Eval(context.TODO(), reserveNScript, []string{lim.limitKey}, lim.qps, lim.burst, now.Unix(), n, maxFutureReserveSecond).Result() if err != nil && err != redis.Nil { return nil, err } //... return &Reservation{ ok: allow == 1, lim: lim, tokens: n, timeToAct: now.Add(time.Duration(wait) * time.Second), }, nil }
运行测试
func main() { rdb := redis.NewClient(&redis.Options{ Addr: "localhost:6379", Password: "123456", DB: 0, // use default DB }) r, err := NewRedisLimiter(rdb, 1, 2, "testrate") if err != nil { log.Fatal(err) } r.Reset() for i := 0; i < 5; i++ { err := r.Wait(context.TODO()) log.Printf("worker %d allowed: %v", i, err) } } // output // 2022/07/22 12:50:31 worker 0 allowed: <nil> // 2022/07/22 12:50:31 worker 1 allowed: <nil> // 2022/07/22 12:50:32 worker 2 allowed: <nil> // 2022/07/22 12:50:33 worker 3 allowed: <nil> // 2022/07/22 12:50:34 worker 4 allowed: <nil>
前两个请求在burst内,直接可以获得,后面的请求按照qps的速率生成。
其他
Redis还可用于全局计数、去重以及发布订阅等不同情境。参考Redis官方提供的模块,可以通过加载这些模块实现过滤、限流等特性。
Das obige ist der detaillierte Inhalt vonSo verwenden Sie Redis in verteilten Golang-Anwendungen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Der Redis -Cluster -Modus bietet Redis -Instanzen durch Sharding, die Skalierbarkeit und Verfügbarkeit verbessert. Die Bauschritte sind wie folgt: Erstellen Sie ungerade Redis -Instanzen mit verschiedenen Ports; Erstellen Sie 3 Sentinel -Instanzen, Monitor -Redis -Instanzen und Failover; Konfigurieren von Sentinel -Konfigurationsdateien, Informationen zur Überwachung von Redis -Instanzinformationen und Failover -Einstellungen hinzufügen. Konfigurieren von Redis -Instanzkonfigurationsdateien, aktivieren Sie den Cluster -Modus und geben Sie den Cluster -Informationsdateipfad an. Erstellen Sie die Datei nodes.conf, die Informationen zu jeder Redis -Instanz enthält. Starten Sie den Cluster, führen Sie den Befehl erstellen aus, um einen Cluster zu erstellen und die Anzahl der Replikate anzugeben. Melden Sie sich im Cluster an, um den Befehl cluster info auszuführen, um den Clusterstatus zu überprüfen. machen

So löschen Sie Redis -Daten: Verwenden Sie den Befehl Flushall, um alle Schlüsselwerte zu löschen. Verwenden Sie den Befehl flushdb, um den Schlüsselwert der aktuell ausgewählten Datenbank zu löschen. Verwenden Sie SELECT, um Datenbanken zu wechseln, und löschen Sie dann FlushDB, um mehrere Datenbanken zu löschen. Verwenden Sie den Befehl del, um einen bestimmten Schlüssel zu löschen. Verwenden Sie das Redis-Cli-Tool, um die Daten zu löschen.

Um eine Warteschlange aus Redis zu lesen, müssen Sie den Warteschlangenname erhalten, die Elemente mit dem Befehl LPOP lesen und die leere Warteschlange verarbeiten. Die spezifischen Schritte sind wie folgt: Holen Sie sich den Warteschlangenname: Nennen Sie ihn mit dem Präfix von "Warteschlange:" wie "Warteschlangen: My-Queue". Verwenden Sie den Befehl LPOP: Wischen Sie das Element aus dem Kopf der Warteschlange aus und geben Sie seinen Wert zurück, z. B. die LPOP-Warteschlange: my-queue. Verarbeitung leerer Warteschlangen: Wenn die Warteschlange leer ist, gibt LPOP NIL zurück, und Sie können überprüfen, ob die Warteschlange existiert, bevor Sie das Element lesen.

Verwenden Sie das Redis-Befehlszeilen-Tool (REDIS-CLI), um Redis in folgenden Schritten zu verwalten und zu betreiben: Stellen Sie die Adresse und den Port an, um die Adresse und den Port zu stellen. Senden Sie Befehle mit dem Befehlsnamen und den Parametern an den Server. Verwenden Sie den Befehl Hilfe, um Hilfeinformationen für einen bestimmten Befehl anzuzeigen. Verwenden Sie den Befehl zum Beenden, um das Befehlszeilenwerkzeug zu beenden.

Um die Leistung der PostgreSQL -Datenbank in Debian -Systemen zu verbessern, müssen Hardware, Konfiguration, Indexierung, Abfrage und andere Aspekte umfassend berücksichtigt werden. Die folgenden Strategien können die Datenbankleistung effektiv optimieren: 1. Hardware -Ressourcenoptimierungsspeichererweiterung: Angemessener Speicher ist für Cache -Daten und -Indexes von entscheidender Bedeutung. Hochgeschwindigkeitsspeicher: Die Verwendung von SSD-SSD-Laufwerken kann die E/A-Leistung erheblich verbessern. Multi-Core-Prozessor: Nutzen Sie die Verarbeitung von Multi-Core-Prozessoren voll und ganz, um eine parallele Abfrageverarbeitung zu implementieren. 2. Datenbankparameter-Tuning Shared_Buffers: Gemäß der Einstellung der Systemspeichergröße wird empfohlen, sie auf 25% -40% des Systemspeichers einzustellen. Work_Mem: steuert den Speicher von Sortier- und Hashing -Operationen, normalerweise auf 64 MB auf 256 m eingestellt

C eignet sich besser für Szenarien, in denen eine direkte Kontrolle der Hardware -Ressourcen und hohe Leistungsoptimierung erforderlich ist, während Golang besser für Szenarien geeignet ist, in denen eine schnelle Entwicklung und eine hohe Parallelitätsverarbeitung erforderlich sind. 1.Cs Vorteil liegt in den nahezu Hardware-Eigenschaften und hohen Optimierungsfunktionen, die für leistungsstarke Bedürfnisse wie die Spieleentwicklung geeignet sind. 2. Golangs Vorteil liegt in seiner präzisen Syntax und der natürlichen Unterstützung, die für die Entwicklung einer hohen Parallelitätsdienste geeignet ist.

Es gibt zwei Arten von RETIS-Datenverlaufstrategien: regelmäßige Löschung: periodischer Scan zum Löschen des abgelaufenen Schlüssels, der über abgelaufene Cap-Remove-Count- und Ablauf-Cap-Remove-Delay-Parameter festgelegt werden kann. LAZY LELETION: Überprüfen Sie nur, ob abgelaufene Schlüsseln gelöscht werden, wenn Tasten gelesen oder geschrieben werden. Sie können durch LazyFree-Lazy-Eviction, LazyFree-Lazy-Expire, LazyFree-Lazy-User-Del-Parameter eingestellt werden.

GoimpactsDevelopmentPositivyThroughSpeed, Effizienz und DiasMlitication.1) Geschwindigkeit: Gocompilesquickandrunseffiction, idealforlargeProjects
