SEO와 조금 접촉한 웹마스터 친구들은 일반적으로 루트 디렉토리에 추가되는 robots.txt 파일인 로봇 프로토콜(크롤러 프로토콜, 크롤러 규칙, 로봇 프로토콜 등이라고도 함)을 알아야 합니다. 웹사이트의 기능은 크롤링할 수 있는 페이지와 크롤링할 수 없는 페이지를 검색 엔진에 알려주어 웹사이트의 포함 결과와 가중치를 최적화하는 것입니다.
추천 튜토리얼: wordpress 튜토리얼
웹사이트 루트 디렉토리에 아직 robots.txt가 없다면, 구체적인 작성 방법은 Baidu Encyclopedia를 참조하세요. 다음은 워드프레스의 기본 로봇 프로토콜입니다.
User-agent: * Disallow: /feed/ Disallow: /trackback/ Disallow: /wp-admin/ Disallow: /wp-content/ Disallow: /wp-includes/ Disallow: /xmlrpc.php Disallow: /wp- Allow: /wp-content/uploads/ Sitemap: http://example.com/sitemap.xml
다음은 가상 robots.txt를 자동으로 생성하는 워드프레스의 기능을 주로 소개합니다. 실제 robots.txt가 웹 사이트의 루트 디렉터리에 존재하지 않는 경우 WordPress에서 자동으로 가상 robots.txt를 생성하도록 할 수 있습니다. (이 파일은 실제로 존재하지 않지만 http://도메인 이름에 액세스하면 정상적으로 표시될 수 있습니다. /robots.txt)
테마의 functions.php
에 다음 코드를 추가하면 됩니다:
/** * 为你的 WordPress 站点添加 robots.txt * https://www.wpdaxue.com/add-robots-txt.html */add_filter( 'robots_txt', 'robots_mod', 10, 2 );function robots_mod( $output, $public ) { $output .= "Disallow: /user/"; // 禁止收录链接中包含 /user/ 的页面 return $output;}
참고: 규칙을 더 추가하려면 위 코드의 7번째 줄을 복사하여 수정하세요.
http://domain name/robots.txt를 방문하면 다음 내용을 볼 수 있습니다.
User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /user/
즉, WordPress에서는 기본적으로 처음 3줄의 규칙을 추가했습니다.
Robots.txt에는 웹사이트가 포함되어 있으므로 작성 방법을 이해하고 모든 규칙이 올바른지 확인하세요!
위 내용은 WordPress 다중 사이트에 로봇을 사용하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!