禁止自己的网站被爬虫爬去?有什么方法啊
光阴似箭催人老,日月如移越少年。
標的型クローラから防御する場合は、アクセス頻度などのアクセス制限を設定したり、確認コードを追加したりできます。
重要なコンテンツは js を使用して動的に追加されます
http_referer を制限する
異なるインターフェースは異なるテンプレートを考慮することができますが、これは一連の正規表現が完全に一致できない種類のものです
クロールされる可能性のあるコンテンツに著作権情報をランダムに追加します
にログインした後でのみアクセスできます
アクセスログを記録する
私が思いつくのはこれだけですが、本当に捕まえたい場合は、これらは少し難しくするだけです
検索エンジンのクロールを無効にするには、robots.txt を変更します。個人のクロールを無効にするのは少し難しく、より複雑な確認コード、アクセス頻度、通常のスタイル/データを追加するなど、難易度を高めるしかありません。形式の変更など
標的型クローラから防御する場合は、アクセス頻度などのアクセス制限を設定したり、確認コードを追加したりできます。
重要なコンテンツは js を使用して動的に追加されます
http_referer を制限する
異なるインターフェースは異なるテンプレートを考慮することができますが、これは一連の正規表現が完全に一致できない種類のものです
クロールされる可能性のあるコンテンツに著作権情報をランダムに追加します
にログインした後でのみアクセスできます
アクセスログを記録する
私が思いつくのはこれだけですが、本当に捕まえたい場合は、これらは少し難しくするだけです
検索エンジンのクロールを無効にするには、robots.txt を変更します。
個人のクロールを無効にするのは少し難しく、より複雑な確認コード、アクセス頻度、通常のスタイル/データを追加するなど、難易度を高めるしかありません。形式の変更など