1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
r->keepalive = 0;
ngx_http_free_request(r, 0);
c->data = hc;
//设置定时器
ngx_add_timer(rev, clcf->keepalive_timeout);
//然后设置可读事件
if (ngx_handle_read_event(rev, 0) != NGX_OK) {
ngx_http_close_connection(c);
return ;
}
wev = c->write;
wev->handler = ngx_http_empty_handler;
|
12 34
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
if (b->pos < b->last) {
ngx_log_debug0(NGX_LOG_DEBUG_HTTP, c-> log ,
0, "pipelined request" );
#if (NGX_STAT_STUB)
( void ) ngx_atomic_fetch_add(ngx_stat_reading,
1);
#endif
//设置标记。
hc->pipeline = 1;
c-> log ->action =
"reading client pipelined request line" ;
//然后扔进post queue,继续进行处理.
rev->handler = ngx_http_init_request;
ngx_post_event(rev, &ngx_posted_events);
return ;
}
|
56789 10 1112131415 r->keepalive = 0; ngx_http_free_request(r, 0); c->data = hc; //Stellen Sie den Timer ein ngx_add_timer(rev, clcf ->keepalive_timeout); //Dann das lesbare Ereignis festlegen if (ngx_handle_read_event(rev, 0) != NGX_OK) { ngx_http_close_connection(c); return ; wev = c->write; wev->handler = ngx_http_empty_handler; Dann Der nächste Teil ist die Verarbeitung der Pipeline.
12 3456789101112131415 |
if (b->pos < b->last) { ngx_log_debug0( NGX_LOG_DEBUG_HTTP, c-> log ,
0, "pipelined request" ); #if (NGX_STAT_STUB) ( void ) ngx_atomic_fetch_add(ngx_stat_reading,
1); #endif //Tag festlegen. hc->pipeline = 1; c-> log ->action =
"reading client Pipelined Request Line" ; //Wirf es dann in die Post-Warteschlange und fahre mit der Verarbeitung fort. Code >rev->handler = ngx_http_init_request; ngx_post_event(rev, &ngx_posted_events); return ; Wenn den unteren Rand erreicht, bedeutet dies, dass es sich nicht um eine Pipeline-Anfrage handelt. Daher beginnen wir mit der Bereinigung der Anfrage und der http_connection.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
|
if (ngx_pfree(c->pool, r) == NGX_OK) {
hc->request = NULL;
}
b = c->buffer;
if (ngx_pfree(c->pool, b->start) == NGX_OK) {
/*
* the special note for ngx_http_keepalive_handler() that
* c->buffer's memory was freed
*/
b->pos = NULL;
}
else {
b->pos = b->start;
b->last = b->start;
}
.....................................................................
if (hc->busy) {
for (i = 0; i < hc->nbusy; i++) {
ngx_pfree(c->pool, hc->busy[i]->start);
hc->busy[i] = NULL;
}
hc->nbusy = 0;
}
|
12 34
1
2
3
4
5
6
7
8
9
|
//后面会详细分析这个函数
rev->handler = ngx_http_keepalive_handler;
if (wev->active && (ngx_event_flags & NGX_USE_LEVEL_EVENT)) {
if (ngx_del_event(wev, NGX_WRITE_EVENT, 0) != NGX_OK) {
ngx_http_close_connection(c);
return ;
}
}
|
567891011121314151617181920212223 24252627282930
|
if (ngx_pfree(c->pool, r) == NGX_OK) { hc->request = NULL; } b = c->buffer; if (ngx_pfree (c->pool, b->start) == NGX_OK) { /* * der besondere Hinweis für ngx_http_keepalive_handler(), dass * der Speicher des C->-Puffers freigegeben wurde code> code><code> */ b->pos = NULL; code><code> }
else { b->pos = b->start; code>else code><code> b->last = b->start; ....................... ......... ................................ if (hc->busy) { for code>(i = 0; i < hc->nbusy; i++) { ngx_pfree(c->pool, hc->busy[i] ->start); hc->busy[i] = NULL; } hc->nbusy = 0; <code>}
|
Legen Sie den Keepalive-Handler fest.
12 3456789 |
//Diese Funktion wird später im Detail analysiert rev->handler = ngx_http_keepalive_handler ; if (wev->active && (ngx_event_flags & NGX_USE_LEVEL_EVENT)) { if (ngx_del_event(wev, NGX_WRITE_EVENT, 0) != NGX_OK) { code><code>ngx_http_close_connection(c); return ; } }
|
Der letzte Schritt ist die Verarbeitung von TCP-Push. Ich werde ihn hier vorerst nicht vorstellen. Als nächstes werde ich einen speziellen Blog erstellen, um die Funktionsweise von Nginx für TCP-Push vorzustellen. Dann schauen wir uns die Funktion ngx_http_keepalive_handler an. Diese Funktion verarbeitet die Keepalive-Verbindung. Dieser Handler wird aufgerufen, wenn es wieder lesbare Ereignisse auf der Verbindung gibt. Dieser Handler ist relativ einfach, er erstellt lediglich einen neuen Puffer und startet dann die Ausführung einer http-Anfrage neu (Aufruf von ngx_http_init_request).
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
|
b = c->buffer;
size = b->end - b->start;
if (b->pos == NULL) {
/*
* The c->buffer's memory was freed by ngx_http_set_keepalive().
* However, the c->buffer->start and c->buffer->end were not changed
* to keep the buffer size.
*/
//重新分配buf
b->pos = ngx_palloc(c->pool, size);
if (b->pos == NULL) {
ngx_http_close_connection(c);
return ;
}
b->start = b->pos;
b->last = b->pos;
b->end = b->pos + size;
}
|
12 34
1
2
3
4
5
6
7
8
9
|
n = c->recv(c, b->last, size);
c->log_error = NGX_ERROR_INFO;
if (n == NGX_AGAIN) {
if (ngx_handle_read_event(rev, 0) != NGX_OK) {
ngx_http_close_connection(c);
}
return ;
}
|
567
1 |
ngx_http_init_request(rev);
|
89101112131415161718192021
|
b = c->buffer; size = b->end - b->start; code><code> code> if (b->pos == NULL) { /* * Der Speicher des C->-Puffers wurde durch ngx_http_set_keepalive() freigegeben.<code> * Allerdings wurden c->buffer->start und c->buffer->end nicht geändert code> // BUF b- & gt; pos = ngx_palloc (c- & gt; Pool, Größe) neu leiten ; if (b->pos == NULL) { ngx_http_close_connection(c); } b->start = b->pos; >pos + size; } |
Versuchen Sie dann, die Daten zu lesen. Wenn keine lesbaren Daten vorhanden sind, wird das Handle erneut zum lesbaren Ereignis hinzugefügt 1234 56789 |
n = c->recv(c, b->last, size) ; c->log_error = NGX_ERROR_INFO; if (n == NGX_AGAIN) { if (ngx_handle_read_event(rev, 0 ) != NGX_OK) { ngx_http_close_connection(c); } <code>return ; }
|
Wenn die Daten schließlich gelesen wurden, wird die Anfrageverarbeitung eingegeben.
1 |
ngx_http_init_request(rev);
|
Schließlich schauen wir uns die Funktion ngx_http_init_request an. Dieses Mal schauen wir uns hauptsächlich an, wie Nginx die Anfrage wiederverwendet, wenn die Pipeline angefordert wird. Achten Sie hier auf hc->busy[0] Wir wissen bereits, dass wir den Anforderungsheader_in speichern, der zuvor nicht analysiert wurde. Dies liegt daran, dass wir möglicherweise den zweiten Header gelesen haben der Pipeline-Anfrage. Einige Header für die Anfrage.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
|
//取得request,这里我们知道,在pipeline请求中,我们会保存前一个request.
r = hc->request;
if (r) {
//如果存在,则我们重用前一个request.
ngx_memzero(r,
sizeof (ngx_http_request_t));
r->pipeline = hc->pipeline;
//如果nbusy存在
if (hc->nbusy) {
//则保存这个header_in,然后下面直接解析。
r->header_in = hc->busy[0];
}
}
else {
r = ngx_pcalloc(c->pool,
sizeof (ngx_http_request_t));
if (r == NULL) {
ngx_http_close_connection(c);
return ;
}
hc->request = r;
}
//保存请求
c->data = r;
|
12 34567891011121314151617181920212223 2425
|
//Holen Sie sich die Anfrage, hier wissen wir, dass wir in der Pipeline-Anfrage die vorherige Anfrage speichern werden.<code> r = hc->request; if code ><code>(r) { //Wenn vorhanden, verwenden wir die vorherige Anfrage erneut. ngx_memzero(r,
sizeof (ngx_http_request_t)); r->pipeline = hc-> Pipeline; //Wenn nbusy existiert if (hc ->nbusy) { //Speichern Sie diesen Header_in und analysieren Sie ihn dann direkt darunter. r->header_in = hc->busy[0]; code> code><code>} }
else { r = ngx_pcalloc(c->pool,
sizeof (ngx_http_request_t)); if (r == NULL) { ngx_http_close_connection(c); return ; } hc->request = r; } //Anfrage speichern c->data = r; |
Aus dem obigen Code und in Kombination mit meinem vorherigen Blog wissen wir, dass große Header hauptsächlich für die Pipeline gedacht sind, denn in der Pipeline gibt es einige Header, wenn die vorherige Anfrage mehr liest als die nächste Anfrage Beim nächsten Parsen kann es sein, dass die ursprünglich zugewiesene client_header_buffer_size überschritten wird. Zu diesem Zeitpunkt müssen wir einen Header neu zuweisen, bei dem es sich um einen großen Header handelt. Daher ist die httpconnection hier hauptsächlich für die Pipeline-Situation gedacht, und wenn es sich um eine Keepalive-Verbindung handelt keine Pipeline-Anfrage, um Speicher zu sparen, wird die vorherige Anfrage freigegeben
Das Obige stellt die Analyse der Keepalive- und Pipeline-Anforderungsverarbeitung durch Nginx vor, einschließlich der relevanten Aspekte. Ich hoffe, dass es für Freunde hilfreich sein wird, die sich für PHP-Tutorials interessieren.
|
|
|