Angenommen, Sie erstellen eine API zur Bereitstellung einiger Daten und stellen fest, dass GET-Antworten recht langsam sind. Sie haben versucht, Ihre Abfragen zu optimieren und Ihre Datenbanktabellen nach häufig abgefragten Spalten zu indizieren, erhalten aber immer noch nicht die gewünschten Antwortzeiten. Der nächste Schritt besteht darin, eine Caching-Ebene für Ihre API zu schreiben. „Caching-Schicht“ ist hier nur ein schicker Begriff für eine Middleware, die erfolgreiche Antworten in einem schnell abrufbaren Speicher speichert. z.B. Redis, Memcached usw., dann prüft jede weitere Anfrage an die API, ob die Daten im Store verfügbar sind und stellt die Antwort bereit.
Ich gehe davon aus, dass Sie, wenn Sie hier angekommen sind, wissen, wie man eine Laravel-App erstellt. Sie sollten außerdem entweder über eine lokale oder eine Cloud-Redis-Instanz verfügen, mit der Sie eine Verbindung herstellen können. Wenn Sie Docker lokal haben, können Sie meine Compose-Datei hier kopieren. Eine Anleitung zum Herstellen einer Verbindung zum Redis-Cache-Treiber finden Sie hier.
Damit wir sehen können, dass unsere Caching-Ebene wie erwartet funktioniert. Natürlich benötigen wir einige Daten. Nehmen wir an, wir haben ein Modell namens Post. Deshalb werde ich einige Beiträge erstellen und auch einige komplexe Filter hinzufügen, die datenbankintensiv sein können, und dann können wir sie durch Zwischenspeichern optimieren.
Jetzt beginnen wir mit dem Schreiben unserer Middleware:
Wir erstellen unser Middleware-Skelett durch Ausführen
php artisan make:middleware CacheLayer
Dann registrieren Sie es in Ihrer app/Http/Kernel.php unter der API-Middleware-Gruppe wie folgt:
protected $middlewareGroups = [ 'api' => [ CacheLayer::class, ], ];
Aber wenn Sie Laravel 11 ausführen, registrieren Sie es in Ihrer Bootstrap/app.php
->withMiddleware(function (Middleware $middleware) { $middleware->api(append: [ \App\Http\Middleware\CacheLayer::class, ]); })
Cache-Treiber sind also ein Schlüsselwertspeicher. Sie haben also einen Schlüssel, dann ist der Wert Ihr JSON. Sie benötigen also einen eindeutigen Cache-Schlüssel, um Ressourcen zu identifizieren. Ein eindeutiger Cache-Schlüssel hilft auch bei der Cache-Ungültigmachung, d. h. dem Entfernen von Cache-Elementen, wenn eine neue Ressource erstellt/aktualisiert wird. Mein Ansatz zur Cache-Schlüsselgenerierung besteht darin, die Anforderungs-URL, die Abfrageparameter und den Text in ein Objekt umzuwandeln. Dann serialisieren Sie es in einen String. Fügen Sie dies Ihrer Cache-Middleware hinzu:
class CacheLayer { public function handle(Request $request, Closure $next): Response { } private function getCacheKey(Request $request): string { $routeParameters = ! empty($request->route()->parameters) ? $request->route()->parameters : [auth()->user()->id]; $allParameters = array_merge($request->all(), $routeParameters); $this->recursiveSort($allParameters); return $request->url() . json_encode($allParameters); } private function recursiveSort(&$array): void { foreach ($array as &$value) { if (is_array($value)) { $this->recursiveSort($value); } } ksort($array); } }
Lassen Sie uns den Code Zeile für Zeile durchgehen.
Abhängig von der Art der Anwendung, die Sie erstellen. Es wird einige GET-Routen geben, die Sie nicht zwischenspeichern möchten. Deshalb erstellen wir eine Konstante mit der Regex, die diesen Routen entspricht. Das sieht so aus:
private const EXCLUDED_URLS = [ '~^api/v1/posts/[0-9a-zA-Z]+/comments(\?.*)?$~i' ' ];
In diesem Fall stimmt dieser reguläre Ausdruck mit allen Kommentaren eines Beitrags überein.
Fügen Sie dazu einfach diesen Eintrag zu Ihrer config/cache.php hinzu
'ttl' => now()->addMinutes(5),
Jetzt haben wir alle vorbereitenden Schritte festgelegt und können unseren Middleware-Code schreiben:
public function handle(Request $request, Closure $next): Response { if ('GET' !== $method) { return $next($request); } foreach (self::EXCLUDED_URLS as $pattern) { if (preg_match($pattern, $request->getRequestUri())) { return $next($request); } } $cacheKey = $this->getCacheKey($request); $exception = null; $response = cache() ->tags([$request->url()]) ->remember( key: $cacheKey, ttl: config('cache.ttl'), callback: function () use ($next, $request, &$exception) { $res = $next($request); if (property_exists($res, 'exception') && null !== $res->exception) { $exception = $res; return null; } return $res; } ); return $exception ?? $response; }
When new resources are created/updated, we have to clear the cache, so users can see new data. and to do this we will tweak our middleware code a bit. so in the part where we check the request method we add this:
if ('GET' !== $method) { $response = $next($request); if ($response->isSuccessful()) { $tag = $request->url(); if ('PATCH' === $method || 'DELETE' === $method) { $tag = mb_substr($tag, 0, mb_strrpos($tag, '/')); } cache()->tags([$tag])->flush(); } return $response; }
So what this code is doing is flushing the cache for non-GET requests. Then for PATCH and Delete requests we are stripping the {id}. so for example if the request url is PATCH /users/1/posts/2 . We are stripping the last id leaving /users/1/posts. this way when we update a post, we clear the cache of all a users posts. so the user can see fresh data.
Now with this we are done with the CacheLayer implementation. Lets test it
Let's say we want to retrieve all a users posts, that has links, media and sort it by likes and recently created. the url for that kind of request according to the json:api spec will look like: /posts?filter[links]=1&filter[media]=1&sort=-created_at,-likes. on a posts table of 1.2 million records the response time is: ~800ms
and after adding our cache middleware we get a response time of 41ms
Great success!
Another optional step is to compress the json payload we store on redis. JSON is not the most memory-efficient format, so what we can do is use zlib compression to compress the json before storing and decompress before sending to the client.
the code for that will look like:
$response = cache() ->tags([$request->url()]) ->remember( key: $cacheKey, ttl: config('cache.ttl'), callback: function () use ($next, $request, &$exception) { $res = $next($request); if (property_exists($res, 'exception') && null !== $res->exception) { $exception = $res; return null; } return gzcompress($res->getContent()); } ); return $exception ?? response(gzuncompress($response));
The full code for this looks like:
getMethod(); if ('GET' !== $method) { $response = $next($request); if ($response->isSuccessful()) { $tag = $request->url(); if ('PATCH' === $method || 'DELETE' === $method) { $tag = mb_substr($tag, 0, mb_strrpos($tag, '/')); } cache()->tags([$tag])->flush(); } return $response; } foreach (self::EXCLUDED_URLS as $pattern) { if (preg_match($pattern, $request->getRequestUri())) { return $next($request); } } $cacheKey = $this->getCacheKey($request); $exception = null; $response = cache() ->tags([$request->url()]) ->remember( key: $cacheKey, ttl: config('cache.ttl'), callback: function () use ($next, $request, &$exception) { $res = $next($request); if (property_exists($res, 'exception') && null !== $res->exception) { $exception = $res; return null; } return gzcompress($res->getContent()); } ); return $exception ?? response(gzuncompress($response)); } private function getCacheKey(Request $request): string { $routeParameters = ! empty($request->route()->parameters) ? $request->route()->parameters : [auth()->user()->id]; $allParameters = array_merge($request->all(), $routeParameters); $this->recursiveSort($allParameters); return $request->url() . json_encode($allParameters); } private function recursiveSort(&$array): void { foreach ($array as &$value) { if (is_array($value)) { $this->recursiveSort($value); } } ksort($array); } }
This is all I have for you today on caching, Happy building and drop any questions, commments and improvements in the comments!
Das obige ist der detaillierte Inhalt vonSo erstellen Sie eine Caching-Ebene für Ihre Laravel-API. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!