python - 禁止自己的网站被爬虫爬去?
大家讲道理
大家讲道理 2017-04-17 17:33:35
0
13
1132

禁止自己的网站被爬虫爬去?有什么方法啊

大家讲道理
大家讲道理

光阴似箭催人老,日月如移越少年。

全員に返信(13)
黄舟

標的型クローラから防御する場合は、アクセス頻度などのアクセス制限を設定したり、確認コードを追加したりできます。

いいねを押す +0
阿神
  1. 重要なコンテンツは js を使用して動的に追加されます

  2. http_referer を制限する

  3. 異なるインターフェースは異なるテンプレートを考慮することができますが、これは一連の正規表現が完全に一致できない種類のものです

  4. クロールされる可能性のあるコンテンツに著作権情報をランダムに追加します

  5. にログインした後でのみアクセスできます

  6. アクセスログを記録する

私が思いつくのはこれだけですが、本当に捕まえたい場合は、これらは少し難しくするだけです

いいねを押す +0
小葫芦

検索エンジンのクロールを無効にするには、robots.txt を変更します。
個人のクロールを無効にするのは少し難しく、より複雑な確認コード、アクセス頻度、通常のスタイル/データを追加するなど、難易度を高めるしかありません。形式の変更など

いいねを押す +0
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート