搜尋引擎蜘蛛是指:網路爬蟲。網路爬蟲是一種依照一定的規則,自動地抓取萬維網資訊的程式或腳本。每個搜尋引擎都有自己的蜘蛛,搜尋引擎蜘蛛也叫搜尋引擎爬蟲、搜尋引擎robot。
什麼是搜尋引擎蜘蛛?
搜尋引擎蜘蛛簡稱網路爬蟲(webcrawler),網路爬蟲(又被稱為網頁蜘蛛,網路機器人,在FOAF社群中間,更經常的稱為網頁追逐者),是一種依照一定的規則,自動地抓取萬維網資訊的程式或腳本。
我們可以將網路理解成一張巨大的“蜘蛛網”,而搜尋引擎蜘蛛是類似實質的“機器人”。蜘蛛的主要任務就是在巨大的蜘蛛網(互聯網)中瀏覽信息,然後把這些信息都抓取到搜索引擎的伺服器上,然後建立索引庫。就好比機器人瀏覽我們的網站,然後把內容存到自己的電腦上。
每個搜尋引擎都有自己的蜘蛛,搜尋引擎蜘蛛也叫搜尋引擎爬蟲、搜尋引擎robot。
國內各大搜尋引擎蜘蛛名稱:
百度:百度spider
Google:googlebot
搜狗: sogou spider
搜搜:Sosospider
#360搜尋:360Spider
#有道:YodaoBot
Yahoo Slurp
#必應:msnbot
Msn:msnbot
以上是什麼是搜尋引擎蜘蛛的詳細內容。更多資訊請關注PHP中文網其他相關文章!