요청 라이브러리의 기본 사용
1. response.content和response.text的区别
response.content是编码后的byte类型(“str”数据类型),response.text是unicode类型。这两种方法的使用要视情况而定。注意:unicode -> str 是编码过程(encode()); str -> unicode 是解码过程(decode())。示例如下:
# --coding:utf-8-- # import requests response = requests.get("https://baidu.com/") print response.url print type(response.content) with open("C:\\Users\\Administrator\\Desktop\\content.html", "w") as f: f.write(response.content) print "content保存成功" print type(response.text) with open("C:\\Users\\Administrator\\Desktop\\text.html", "w") as f: # 返回url的编码方式 print response.encoding f.write(response.text.encode("ISO-8859-1")) print "text保存成功"
2. 发送get请求,直接调用“resquests.get" 就可以了。response的一些属性:response.text; response.content; response.url; response.encoding; response.status_code
# --coding:utf-8-- # import requests params = { "wd": "中国" } headers = { "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36" } response = requests.get("https://baidu.com/s", params=params, headers=headers) print response.url with open("C:\\Users\\Administrator\\Desktop\\get.html", "w") as f: f.write(response.content) print "保存成功"
3. 发送post请求:传入data信息。注意get请求传入的是params信息。示例如下:
# --coding:utf-8-- # import requests data = { "first": "true", "pn": "1", "wd": "python" } headers = { "Referer": "https://www.lagou.com/jobs/list_python?labelWords=&fromSearch=true&suginput=", "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36" } response = requests.post("https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false", data=data, headers=headers) print response.encoding print type(response.content) with open("C:\\Users\\Administrator\\Desktop\\post.html", "w") as f: f.write(response.content) print "保存成功"
4. 使用代理。在get方法中增加proxy参数即可。示例代码如下:
# --coding:utf-8-- # import requests proxy = { "http": "124.42.7.103" } response = requests.get("http://httpbin.org/ip", proxies=proxy) print response.content
5. requests处理cookies信息。使用requests.Session()方法即可。示例代码如下:
# --coding:utf-8-- # import requests url = "http://www.renren.com/PLogin.do" # url = "http://www.renren.com/SysHome.do" data = {"email": "账号", "password": "密码"} headers = { "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36" } session = requests.Session() session.post(url, data=data, headers=headers) response = session.get("http://www.renren.com/543484094/profile") with open("C:\\Users\\Administrator\\Desktop\\Liwei.html", "w") as fp: fp.write(response.content) print "保存成功"
6. 处理不信任的SSL证书。与上面的代码相比,多了一个verify=False参数,为了处理SSL证书不受信用的问题。
示例代码如下:
response = session.get("http://www.renren.com/543484094/profile", verify=False)
以上就是关于requests库的基本使用。
本文讲解了requests库的基本使用 ,更多相关内容请关注php中文网。
相关推荐:
위 내용은 요청 라이브러리의 기본 사용의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











컬과 Pythonrequests는 모두 HTTP 요청을 보내는 강력한 도구입니다. 컬은 터미널에서 직접 요청을 보낼 수 있는 명령줄 도구인 반면, Python의 요청 라이브러리는 Python 코드에서 요청을 보내는 보다 프로그래밍적인 방법을 제공합니다. 컬을 Pythonrequestscurl 명령으로 변환하는 기본 구문은 다음과 같습니다. 컬[OPTIONS]URL 컬 명령을 Python 요청으로 변환할 때 옵션과 URL을 Python 코드로 변환해야 합니다. 다음은 컬POST 명령의 예입니다: 컬-XPOST https://example.com/api

1. 요청 라이브러리를 설치합니다. 학습 과정에서는 Python 언어를 사용하기 때문에 Python 3.8을 미리 설치해야 합니다. Python --version 명령을 실행하여 설치한 Python 버전을 확인할 수 있습니다. Python 3.X 이상을 설치하려면 Python을 설치한 후 다음 명령을 통해 요청 라이브러리를 직접 설치할 수 있습니다. pipinstallrequestsPs: Alibaba, Douban 등 국내 pip 소스로 전환할 수 있는데, 그 기능을 시연하기 위해 간단한 웹사이트를 시뮬레이션하기 위해 nginx를 사용했습니다. 다운로드 후 루트 디렉터리에서 nginx.exe 프로그램을 실행하면 됩니다.

요청은 urllib2의 모든 기능을 상속합니다. Requests는 HTTP 연결 지속성 및 연결 풀링을 지원하고, 쿠키를 사용하여 세션을 유지하도록 지원하고, 파일 업로드를 지원하고, 응답 콘텐츠의 인코딩 자동 결정을 지원하고, 국제화된 URL 및 POST 데이터의 자동 인코딩을 지원합니다. 설치 방법은 pip를 사용하여 설치 $pipinstallrequestsGET 요청 기본 GET 요청(헤더 매개 변수 및 parmas 매개 변수) 1. 가장 기본적인 GET 요청은 get 메서드 'response=requests.get("http://www.baidu.com/)을 직접 사용할 수 있습니다. "

Python은 게시물 요청을 보내는 브라우저를 시뮬레이션합니다. importrequests 형식 request.postrequest.post(url,data,json,kwargs)#post 요청 형식 request.get(url,params,kwargs)#get 요청과 비교하여 게시물 요청 보내기 매개변수는 다음과 같이 나뉩니다. form( x-www-form-urlencoded) json(application/json) 데이터 매개변수는 사전 형식과 문자열 형식을 지원합니다. 사전 형식은 json.dumps() 메서드를 사용하여 데이터를 합법적인 json 형식 문자열로 변환합니다.

Request 및 BeautifulSoup는 모든 파일이나 PDF를 온라인으로 다운로드할 수 있는 Python 라이브러리입니다. 요청 라이브러리는 HTTP 요청을 보내고 응답을 받는 데 사용됩니다. BeautifulSoup 라이브러리는 응답으로 수신된 HTML을 구문 분석하고 다운로드 가능한 PDF 링크를 얻는 데 사용됩니다. 이 기사에서는 Python에서 Request 및 BeautifulSoup을 사용하여 PDF를 다운로드하는 방법을 알아봅니다. 종속성 설치 Python에서 BeautifulSoup 및 Request 라이브러리를 사용하기 전에 pip 명령을 사용하여 시스템에 이러한 라이브러리를 설치해야 합니다. 요청과 BeautifulSoup 및 요청 라이브러리를 설치하려면,

Requests는 다양한 HTTP 요청을 보내는 데 사용할 수 있는 Python 모듈입니다. URL의 매개변수 전달부터 사용자 정의 헤더 전송 및 SSL 확인에 이르기까지 다양한 기능을 갖춘 사용하기 쉬운 라이브러리입니다. 이 튜토리얼에서는 이 라이브러리를 사용하여 Python에서 간단한 HTTP 요청을 보내는 방법을 배웁니다. Python 버전 2.6~2.7 및 3.3~3.6에서 요청을 사용할 수 있습니다. 계속하기 전에 Requests가 외부 모듈이라는 점을 알아야 하므로 이 튜토리얼의 예제를 시도하기 전에 이를 설치해야 합니다. 터미널에서 다음 명령을 실행하여 설치할 수 있습니다. pipinstallrequests 모듈이 설치되면 다음 명령을 사용하여 가져올 수 있습니다.

1. 준비 작업 먼저 요청 라이브러리가 설치되어 있는지 확인해야 합니다. 설치되어 있지 않은 경우 아래 단계에 따라 라이브러리를 설치하십시오. pip 설치 Windows, Linux 또는 Mac이든 pip 패키지 관리 도구를 통해 설치할 수 있습니다. 명령줄에서 다음 명령을 실행하여 요청 라이브러리 설치를 완료합니다. pip3installrequests 이는 가장 간단한 설치 방법이며 권장됩니다. 설치 확인 라이브러리가 성공적으로 설치되었는지 확인하려면 명령줄에서 테스트할 수 있습니다: importrequestsres=requests.get('https://www.baidu

1. 소개 웹 크롤러의 구현 원리는 다음 단계로 요약할 수 있습니다. HTTP 요청 보내기: 웹 크롤러는 대상 웹 사이트에 HTTP 요청(일반적으로 GET 요청)을 보내 웹 콘텐츠를 얻습니다. Python에서는 요청 라이브러리를 사용하여 HTTP 요청을 보낼 수 있습니다. HTML 구문 분석: 대상 웹사이트로부터 응답을 받은 후 크롤러는 유용한 정보를 추출하기 위해 HTML 콘텐츠를 구문 분석해야 합니다. HTML은 웹페이지의 구조를 설명하는 데 사용되는 마크업 언어입니다. 이는 일련의 중첩된 태그로 구성됩니다. 크롤러는 이러한 태그와 속성을 기반으로 필요한 데이터를 찾고 추출할 수 있습니다. Python에서는 BeautifulSoup 및 lxml과 같은 라이브러리를 사용하여 HTML을 구문 분석할 수 있습니다. 데이터 추출: HTML을 파싱한 후,
