Zum Beispiel hat meine erste Zugriffsanfrage json zurückgegeben: {"n": 1}
Meine 100. Zugriffsanfrage gibt json zurück: {"n": 100}
Die herkömmliche Methode, in die Datenbank zu schreiben und dann die Datenbank zu überprüfen, um die Ergebnisse zurückzugeben, scheint nicht garantiert zu sein, wenn die Parallelität groß ist. Was soll ich tun? Dies sollte die einfachste Frage sein
Zum Beispiel hat meine erste Zugriffsanfrage json zurückgegeben: {"n": 1}
Meine 100. Zugriffsanfrage gibt json zurück: {"n": 100}
Die herkömmliche Methode, in die Datenbank zu schreiben und dann die Datenbank zu überprüfen, um die Ergebnisse zurückzugeben, scheint nicht garantiert zu sein, wenn die Parallelität groß ist. Was soll ich tun? Dies sollte die einfachste Frage sein
Die einfachste Methode besteht darin, eine MySQL-Tabelle mit einem automatisch inkrementierten Primärschlüssel der ID zu erstellen, dann für jede Anfrage einen Datensatz einzufügen und dann den Datensatz zu lesen. Die gelesene ID ist der gewünschte Wert.
Dann können Sie Szenarien mit hoher Parallelität basierend auf dem ID-Wert problemlos bewältigen. Beispielsweise kann [Instant Kill] die Regel verwenden, dass die ID kleiner als 300 und durch 6 teilbar ist, um den Instant Kill als erfolgreich zu betrachten. kann die Regel verwenden, dass die ID kleiner als 300 ist und durch 6 teilbar ist, um den sofortigen Kill als erfolgreich zu betrachten;
Wenn Sie es selbst implementieren, ist es nichts weiter als eine Single-Threaded-Endlosschleife, die Socket-Anfragen verarbeitet und eine globale Variable verwaltet. Es ist nicht so bequem und zuverlässig wie die Verwendung von vorgefertigtem MySQL.
Wenn es java
ist, kann ein globaler AtomicLong
Ihre Anforderungen erfüllen, getAndIncrement
atomare Operation plus volatile
Modifikation. Wenn es sich um andere Sprachen handelt, ist es ähnlich
Mit setnx(id) in Redis garantiert der einzelne Thread jedes Mal eine Inkrementierung um 1, und es handelt sich außerdem um eine In-Memory-Datenbank, die superschnell ist.
Lesevorgang: Cache verwenden
Schreibvorgang: asynchrones Schreiben mithilfe der Warteschlange
In reinem Java können Sie das Zählerobjekt zu einem Singleton machen und alle Anfragen abfangen, den Rechner bis filter
um 1 zu erhöhen (erfordert Synchronisierung). Ich weiß nicht, was Sie mit Datenbank meinen. {n : 100}
, n
stammen aus der Datenbank?
Eigentlich möchten Sie eine speicherresidente Warteschlange erstellen, die entsprechend der Anforderung in die Warteschlange gestellt wird.
Auf einem einzelnen Computer können Sie versuchen, SQLite in /dev/shm in der Linux-Speicherdatei zu lesen und zu schreiben System (tmpfs).
Das Lesen von Dateien erfordert nicht den Umweg über das Netzwerk, und es besteht keine Notwendigkeit, speicherresidente, Sperren, automatische Inkrementierung und eindeutige Einschränkungen zu implementieren
<code><?php header('Content-Type: text/plain; charset=utf-8'); // sudo mkdir -m 777 /dev/shm/app $file = '/dev/shm/app/data.db3'; $ddl = " BEGIN; CREATE TABLE IF NOT EXISTS queue ( id INTEGER PRIMARY KEY AUTOINCREMENT, user_id INTEGER ); CREATE UNIQUE INDEX IF NOT EXISTS queue_user_id_idx ON queue(user_id); COMMIT; "; if(!file_exists($file)) { //多核下多进程并发时可能都会进入到这个判断分支,所以DDL中要用IF NOT EXISTS $db = new PDO('sqlite:'.$file); $db->exec($ddl); // pdo_sqlite 的 query 和 prepare 不支持一次执行多条SQL语句 } else { $db = new PDO('sqlite:'.$file); } $stmt = $db->prepare('INSERT INTO queue(user_id) VALUES(?)'); $stmt->execute(array(time())); //time()换成你的用户ID echo $stmt->rowCount()."\n"; //查询中受影响(改动)的行数,插入失败时为0 echo $db->lastInsertId(); //插入的自增ID,插入失败时为0 // php -S 127.0.0.1:8080 -t /home/eechen/www >/dev/null 2>&1 & // ab -c100 -n1000 http://127.0.0.1:8080/</code>
Am einfachsten ist es, das Zset von Redis für die automatische Inkrementierung zu verwenden, was effizient und einfach ist. Wenn Sie eine einzelne Maschine verwenden, können Sie auch die Verwendung von atomiclong in Betracht ziehen (es wird nach dem Herunterfahren und Neustarten ungültig)