SEO に少し関わりのあるウェブマスターの友人は、ロボット プロトコル (クローラー プロトコル、クローラー ルール、ロボット プロトコルなどとも呼ばれる) について知っているはずです。 Web サイトのルート ディレクトリに追加される .txt ファイルの機能は、どのページがクロール可能でどのページがクロールできないかを検索エンジンに伝え、それによって Web サイトの包含結果と重みを最適化することです。
推奨チュートリアル: wordpress チュートリアル
## Web サイトのルート ディレクトリにまだ robots.txt がない場合は、次のように作成できます。 it 一、具体的な書き方については百度百科を参照してください。以下は、WordPress の基本的なロボット プロトコルです。User-agent: * Disallow: /feed/ Disallow: /trackback/ Disallow: /wp-admin/ Disallow: /wp-content/ Disallow: /wp-includes/ Disallow: /xmlrpc.php Disallow: /wp- Allow: /wp-content/uploads/ Sitemap: http://example.com/sitemap.xml
functions.php に追加します。
/** * 为你的 WordPress 站点添加 robots.txt * https://www.wpdaxue.com/add-robots-txt.html */add_filter( 'robots_txt', 'robots_mod', 10, 2 );function robots_mod( $output, $public ) { $output .= "Disallow: /user/"; // 禁止收录链接中包含 /user/ 的页面 return $output;}
注: さらにルールを追加したい場合は、コピーしてください。上記のコードの 7 行目を変更してください。
http://ドメイン名/robots.txt にアクセスすると、次の内容が表示されます。User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /user/
以上がWordpressのマルチサイトでロボットを使用する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。