首頁 > 專題 > SEO > 主體

什麼是搜尋引擎蜘蛛

青灯夜游
發布: 2020-09-18 10:57:56
原創
15643 人瀏覽過

搜尋引擎蜘蛛是指:網路爬蟲。網路爬蟲是一種依照一定的規則,自動地抓取萬維網資訊的程式或腳本。每個搜尋引擎都有自己的蜘蛛,搜尋引擎蜘蛛也叫搜尋引擎爬蟲、搜尋引擎robot。

什麼是搜尋引擎蜘蛛

什麼是搜尋引擎蜘蛛?

搜尋引擎蜘蛛簡稱網路爬蟲(webcrawler),網路爬蟲(又被稱為網頁蜘蛛,網路機器人,在FOAF社群中間,更經常的稱為網頁追逐者),是一種依照一定的規則,自動地抓取萬維網資訊的程式或腳本。

我們可以將網路理解成一張巨大的“蜘蛛網”,而搜尋引擎蜘蛛是類似實質的“機器人”。蜘蛛的主要任務就是在巨大的蜘蛛網(互聯網)中瀏覽信息,然後把這些信息都抓取到搜索引擎的伺服器上,然後建立索引庫。就好比機器人瀏覽我們的網站,然後把內容存到自己的電腦上。

每個搜尋引擎都有自己的蜘蛛,搜尋引擎蜘蛛也叫搜尋引擎爬蟲、搜尋引擎robot。

國內各大搜尋引擎蜘蛛名稱:

百度:百度spider

Google:googlebot

搜狗: sogou spider

搜搜:Sosospider

#360搜尋:360Spider

#有道:YodaoBot

Yahoo Slurp

#必應:msnbot

Msn:msnbot

以上是什麼是搜尋引擎蜘蛛的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:php.cn
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!