実際のアプリケーションでは、ニュースや天気予報などが必要になるなど、特殊な状況に遭遇することがよくあります。しかし、個人サイトや小規模サイトでは、これらのことを行うためにそれほど多くの人的資源、物的資源、資金的リソースを確保することはできません。どうすればいいですか?
幸いなことに、インターネットはリソースを共有しているため、プログラムを使用して他のサイトからページを自動的にキャプチャし、使用するために処理することができます。
何を使えばいいでしょうか? 実は、PHP には、curl ライブラリを使用する機能があります。以下のコードを見てください。
$ch =curl_init ("http://dailynews.sina.com.cn");
$fp = fopen ("php_homepage.txt", "w");
curl_setopt ($ch、CURLOPT_FILE、$fp);
curl_setopt ($ch, CURLOPT_HEADER, 0);
カール_exec ($ch);
カール_クローズ ($ch);
fclose ($fp);
?>
ただし、時々エラーが表示されることがありますが、実際にはダウンロードが完了しています。外国人に聞いても答えてくれなかったので、$txt で適切な解析を行えば、関数の前に◎を付ければOKです。新浪ニュースをこっそり入手できます!ただし、使わないほうがいいですよ!法的紛争を避けるために、Php は非常に強力であることだけをお伝えしたいと思います。できることはたくさんあります!
[この記事の著作権は著者とOso.comが共有しています。転載する場合は著者と出典を明記してください]
上記では、他のサイトのページをクロスサイトクロールする方法の補足を、関連するコンテンツも含めて紹介しています。PHP チュートリアルに興味のある友人に役立つことを願っています。