WordPress 다중 사이트에 로봇을 사용하는 방법

angryTom
풀어 주다: 2019-08-10 15:41:54
원래의
2362명이 탐색했습니다.

WordPress 다중 사이트에 로봇을 사용하는 방법

SEO와 조금 접촉한 웹마스터 친구들은 일반적으로 루트 디렉토리에 추가되는 robots.txt 파일인 로봇 프로토콜(크롤러 프로토콜, 크롤러 규칙, 로봇 프로토콜 등이라고도 함)을 알아야 합니다. 웹사이트의 기능은 크롤링할 수 있는 페이지와 크롤링할 수 없는 페이지를 검색 엔진에 알려주어 웹사이트의 포함 결과와 가중치를 최적화하는 것입니다.

추천 튜토리얼: wordpress 튜토리얼

웹사이트 루트 디렉토리에 아직 robots.txt가 없다면, 구체적인 작성 방법은 Baidu Encyclopedia를 참조하세요. 다음은 워드프레스의 기본 로봇 프로토콜입니다.

User-agent: *
Disallow: /feed/
Disallow: /trackback/
Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-
Allow: /wp-content/uploads/
Sitemap: http://example.com/sitemap.xml
로그인 후 복사

다음은 가상 robots.txt를 자동으로 생성하는 워드프레스의 기능을 주로 소개합니다. 실제 robots.txt가 웹 사이트의 루트 디렉터리에 존재하지 않는 경우 WordPress에서 자동으로 가상 robots.txt를 생성하도록 할 수 있습니다. (이 파일은 실제로 존재하지 않지만 http://도메인 이름에 액세스하면 정상적으로 표시될 수 있습니다. /robots.txt)

 테마의 functions.php 에 다음 코드를 추가하면 됩니다:

/**
 * 为你的 WordPress 站点添加 robots.txt
 * https://www.wpdaxue.com/add-robots-txt.html
 */add_filter( 'robots_txt', 'robots_mod', 10, 2 );function robots_mod( $output, $public ) {
	$output .= "Disallow: /user/"; // 禁止收录链接中包含 /user/ 的页面
	return $output;}
로그인 후 복사

 참고: 규칙을 더 추가하려면 위 코드의 7번째 줄을 복사하여 수정하세요.

 http://domain name/robots.txt를 방문하면 다음 내용을 볼 수 있습니다.

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /user/
로그인 후 복사

 즉, WordPress에서는 기본적으로 처음 3줄의 규칙을 추가했습니다.

  Robots.txt에는 웹사이트가 포함되어 있으므로 작성 방법을 이해하고 모든 규칙이 올바른지 확인하세요!

위 내용은 WordPress 다중 사이트에 로봇을 사용하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

관련 라벨:
원천:php.cn
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿