php_http_parser は、node.js http-parser に基づく PHP 拡張機能であり、純粋に非同期の PHP プログラムを実装するために使用できます
libcurl は、次の 2 つのスタイルの非同期呼び出しメソッドを提供します:
ONE MULTI HANDLE MANY簡単なハンドル: 複数の簡単なハンドルを追加した後、curl_multi_perform メソッドを実行します。このメソッドには、PHP CURL 拡張機能に対応する実装があります。ただし、最後のステップcurl_multi_performがブロックされています。
MULTI_SOCKET、これは本当にノンブロッキングなメソッドですが、イベントループを自分で実装する必要があり、カプセル化が難しいのが現状です。調査の結果、curl_multi_socket_action を PHP カーネルと統合するのは非常に困難であることがわかりました。
それ以外には、基本的に、非同期 http リクエストを実装する実際の php 拡張機能はありません。現在、純粋な PHP で実装されているバージョンは、tsf での http クライアント実装など、一部のバージョンのみです。 純粋な PHP を使用する場合の問題は、主に http 解析のパフォーマンスによって制限されます。したがって、このモジュールを拡張された方法で実装することを検討してください。 node.js http-parser は、C 言語の優れた http 解析ライブラリです。 php_http_parser はそれをカプセル化したもので、対応するインターフェイスを php で公開します。
真のノンブロッキングリクエストを実現するには、やはりイベントループを自分で実装する必要があります。パフォーマンスを向上させるために、現時点では swoole と組み合わせて使用することをお勧めします。
$buffs = array("HTTP/1.1 301 Moved Permanently\r\n","Location: http://www.google.com/\r\n","Content-Type: text/html; charset=UTF-8\r\n","Date: Sun, 26 Apr 2009 11:11:49 GMT\r\n","Expires: Tue, 26 May 2009 11:11:49 GMT\r\n","Cache-Control: public, max-age=2592000\r\n","Server: gws\r\n","Content-Length: 193\r\n","\r\n","<HTML><HEAD><meta http-equiv=\"content-type\" content=\"text/html;charset=utf-8\">\n","<TITLE>301 Moved</TITLE></HEAD><BODY>\n","<H1>301 Moved</H1>\n","The document has moved\n","<A HREF=\"http://www.google.com/\">here</A>.\r\n" ,"<A HREF=\"http://www.google.com/\">here</A>.\r\n" ,"<A HREF=\"http://www.google.com/\">here</A>.\r\n" ,"<A HREF=\"http://www.google.com/\">here</A>.\r\n" ,"<A HREF=\"http://www.google.com/\">here</A>.\r\n","</BODY></HTML>\r\n");$hp = new HttpParser();foreach($buffs as $buff){ $ret = $hp->execute($buff); if($ret !== false){ echo $ret; break; }}
http リクエストは別々のパッケージで送信される場合がありますが、HttpParser はすべてのパッケージをマージし、body イベントをトリガーし、対応するコールバック メソッドを呼び出します。 ヘッダー コールバックなど、現在は実装されていません。さらに、ここでタイムアウト ロジックを自分で実装する必要があります。
サンプルコードは、swoole_clientとswPromiseフレームワークを組み合わせて実装された非同期httpクライアントです。 このようにして、真にノンブロッキングの PHP プログラムを実現できます。
class HttpClientFuture implements FutureIntf { protected $url = null; protected $post = null; protected $proxy = false; public function __construct($url, $post = array(), $proxy = array()) { $this->url = $url; $this->post = $post; if($proxy){ $this->proxy = $proxy; } } public function run(Promise &$promise) { $cli = new \swoole_client ( SWOOLE_TCP, SWOOLE_SOCK_ASYNC ); $urlInfo = parse_url ( $this->url ); if(!isset($urlInfo ['port']))$urlInfo ['port'] = 80; $httpParser = new \HttpParser(); $cli->on ( "connect", function ($cli)use($urlInfo){ $host = $urlInfo['host']; if($urlInfo['port'])$host .= ':'.$urlInfo['port']; $req = array(); $req[] = "GET {$this->url} HTTP/1.1\r\n"; $req[] = "User-Agent: PHP swAsync\r\n"; $req[] = "Host:{$host}\r\n"; $req[] = "Connection:close\r\n"; $req[] = "\r\n"; $req = implode('', $req); $cli->send ( $req ); } ); $cli->on ( "receive", function ($cli, $data = "") use(&$httpParser, &$promise) { $ret = $httpParser->execute($data); if($ret !== false){ $cli->close(); $promise->accept(['http_data'=>$ret]); } } ); $cli->on ( "error", function ($cli) use(&$promise) { $promise->reject (); } ); $cli->on ( "close", function ($cli) { } ); if($this->proxy){ $cli->connect ( $this->proxy['host'], $this->proxy ['port'], 1 ); }else{ $cli->connect ( $urlInfo ['host'], $urlInfo ['port'], 1 ); } }}
[web@gz-web01 php_http_parser]$ time /data/server/php/bin/php http_parser.php 2000000real 0m11.489suser 0m11.435ssys 0m0.017s
1 ワーカー プロセス
./http_load -fetches 20000 -parallel 100 9502.listasync 20000 fetches, 100 max parallel, 2.02e+06 bytes, in 5.94536 seconds101 mean bytes/connection3363.97 fetches/sec, 339761 bytes/secmsecs/connect: 0.0473873 mean, 1.155 max, 0.019 minmsecs/first-response: 29.6366 mean, 51.736 max, 15.22 minHTTP response codes:code 200 -- 20000-bash: history: write error: Success
2 ワーカー プロセス
./http_load -fetches 20000 -parallel 100 9502.listasync 20000 fetches, 100 max parallel, 2.02e+06 bytes, in 3.17119 seconds101 mean bytes/connection6306.77 fetches/sec, 636984 bytes/secmsecs/connect: 0.0643583 mean, 1.211 max, 0.023 minmsecs/first-response: 15.7489 mean, 32.425 max, 3.242 minHTTP response codes:code 200 -- 20000-bash: history: write error: Success
4 ワーカー プロセス
./http_load -fetches 20000 -parallel 100 9502.listasync 20000 fetches, 100 max parallel, 2.02e+06 bytes, in 1.57194 seconds101 mean bytes/connection12723.2 fetches/sec, 1.28504e+06 bytes/secmsecs/connect: 0.0815263 mean, 1.349 max, 0.02 minmsecs/first-response: 7.65904 mean, 22.568 max, 1.221 minHTTP response codes:code 200 -- 20000-bash: history: write error: Success
8 ワーカー プロセス
./http_load -fetches 20000 -parallel 100 9502.listasync 20000 fetches, 100 max parallel, 2.02e+06 bytes, in 1.02967 seconds101 mean bytes/connection19423.8 fetches/sec, 1.9618e+06 bytes/secmsecs/connect: 0.147502 mean, 1.575 max, 0.014 minmsecs/first-response: 3.17218 mean, 22.566 max, 0.339 minHTTP response codes:code 200 -- 20000-bash: history: write error: Success
公式 Web サイト: http://www.open-open/ view/home/1451808838620