在實際的應用中,經常會遇到一些特殊的情況,比如需要新聞,天氣預報,等等,但是作為個人站點或者實力小的站點我們不可能有那麼多的人力物力財力去做這些事情,怎麼辦呢?
還好網路是 資源共享的,我們可以利用程式 自動的把別的網站的頁面抓取回來經過處理後被我們所利用。
用什麼呢,那個戰友給的是不行的,其實在php有這個功能,那就是用curl函式庫。請看下面的程式碼!
$ch = curl_init ("http://dailynews.sina.com.cn");
$fp = fopen ("php_homepage.txt", "w");
curl_setopt ($ch, CURLOPT_FILE, $fp);
curl_setopt ($ch, CURLOPT_HEADER, 0);
curl_exec ($ch);
curl_close ($ch);
fclose ($fp);
?>
但有時會出現一些錯誤,但實際上已經下載完了!我問了老外,他們沒有給我一個答复,我想實在不行,就在函數前面加個◎;這樣我們只要對$txt進行適當的分析後,我們就可以偷偷的抓取sina的新聞!不過,還是不用的為好!以免發生法律糾紛,這裡只是想告訴你Php的功能非常的強大!你可以做許多事情!
【本文版權歸作者與奧索網共同擁有,如需轉載,請註明作者及出處】
以上就介紹如何跨站抓取別的網站的頁面的補充,包括了方面的內容,希望對PHP教程有興趣的朋友有所幫助。