ホームページ > バックエンド開発 > Python チュートリアル > Python で Requests ライブラリを使用する方法

Python で Requests ライブラリを使用する方法

巴扎黑
リリース: 2017-03-18 09:48:00
オリジナル
1467 人が閲覧しました

Pythonのurllibライブラリの使い方と方法、Pythonのネットワークデータ収集Urllibライブラリの基本的な使い方、Pythonのurllibの高度な使い方についてお話しました。

今日は、Python で Requests ライブラリを使用する方法を学びます。

Requests ライブラリのインストール

pip パッケージ (Python パッケージ管理ツール。Baidu を使用できるかどうかはわかりません) をインストールしている場合、または Python (x) などの統合環境をインストールしている場合は、pip を使用してインストールします。 、y) または anaconda の場合、pip を直接使用して Python ライブラリをインストールできます。

$ pip install requests
ログイン後にコピー

インストールが完了したら、基本的なメソッドを見てみましょう:

    #get请求方法
    >>> r = requests.get('https://api.github.com/user', auth=('user', 'pass'))
#打印get请求的状态码
    >>> r.status_code
200
#查看请求的数据类型,可以看到是json格式,utf-8编码
    >>> r.headers['content-type']
'application/json; charset=utf8'
    >>> r.encoding
'utf-8'
#打印请求到的内容
    >>> r.text
u'{"type":"User"...'
#输出json格式数据
    >>> r.json()
    {u'private_gists': 419, u'total_private_repos': 77, ...}
ログイン後にコピー

小さな栗を見てみましょう:

#小例子
import requests

r = requests.get('http://www.baidu.com')
print type(r)
print r.status_code
print r.encoding
print r.text
print r.cookies
'''请求了百度的网址,然后打印出了返回结果的类型,状态码,编码方式,Cookies等内容
输出:'''
<class &#39;requests.models.Response&#39;>
200
UTF-8
<RequestsCookieJar[]>
ログイン後にコピー

http 基本リクエスト

requests ライブラリは、http のすべての基本的なリクエスト メソッドを提供します。例:

r = requests.post("http://httpbin.org/post")
r = requests.put("http://httpbin.org/put")
r = requests.delete("http://httpbin.org/delete")
r = requests.head("http://httpbin.org/get")
r = requests.options("http://httpbin.org/get")
ログイン後にコピー

基本的な GET リクエスト

r = requests.get("http://httpbin.org/get")
#如果想要加参数,可以利用 params 参数:
import requests
payload = {&#39;key1&#39;: &#39;value1&#39;, &#39;key2&#39;: &#39;value2&#39;}
r = requests.get("http://httpbin.org/get", params=payload)
print r.url

#输出:http://httpbin.org/get?key2=value2&key1=value1
ログイン後にコピー

JSON ファイルをリクエストする場合は、json() メソッドを使用して解析できます。たとえば、次の内容を含む a.json という名前の JSON ファイルを作成します。

["foo", "bar", {
"foo": "bar"
}]
#利用如下程序请求并解析:
import requests
r = requests.get("a.json")
print r.text
print r.json()
&#39;&#39;&#39;运行结果如下,其中一个是直接输出内容,另外一个方法是利用 json() 方法
解析,感受下它们的不同:&#39;&#39;&#39;
["foo", "bar", {
"foo": "bar"
}]
[u&#39;foo&#39;, u&#39;bar&#39;, {u&#39;foo&#39;: u&#39;bar&#39;}]
ログイン後にコピー

サーバーのSocketレスポンスから元データを取得したい場合は、r.rawを取得できます。 ただし、最初のリクエストでは stream=True を設定する必要があります。

r = requests.get(&#39;https://github.com/timeline.json&#39;, stream=True)
r.raw
#输出
<requests.packages.urllib3.response.HTTPResponse object at 0x101194810>
r.raw.read(10)
&#39;\x1f\x8b\x08\x00\x00\x00\x00\x00\x00\x03&#39;
ログイン後にコピー

このようにして、Web ページの元のソケットのコンテンツが取得されます。

ヘッダーを追加したい場合は、headers パラメータを渡すことができます:

import requests

payload = {&#39;key1&#39;: &#39;value1&#39;, &#39;key2&#39;: &#39;value2&#39;}
headers = {&#39;content-type&#39;: &#39;application/json&#39;}
r = requests.get("http://httpbin.org/get", params=payload, headers=headers)
print r.url
#通过headers参数可以增加请求头中的headers信息
ログイン後にコピー

基本的な POST リクエスト

POST リクエストの場合、通常、いくつかのパラメータを追加する必要があります。次に、パラメータを渡す最も基本的な方法として、data パラメータを使用できます。

import requests

payload = {&#39;key1&#39;: &#39;value1&#39;, &#39;key2&#39;: &#39;value2&#39;}
r = requests.post("http://httpbin.org/post", data=payload)
print r.text
#运行结果如下:
{
"args": {}, 
"data": "", 
"files": {}, 
"form": {
"key1": "value1", 
"key2": "value2"
}, 
"headers": {
"Accept": "*/*", 
"Accept-Encoding": "gzip, deflate", 
"Content-Length": "23", 
"Content-Type": "application/x-www-form-urlencoded", 
"Host": "http://httpbin.org", 
"User-Agent": "python-requests/2.9.1"
}, 
"json": null, 
"url": "http://httpbin.org/post"
}
ログイン後にコピー

パラメータが正常に渡され、サーバーが渡したデータを返したことがわかります。

送信する必要がある情報がフォームの形式ではない場合があり、データを JSON 形式で送信する必要があるため、json.dumps() メソッドを使用してフォーム データをシリアル化できます。

import json
import requests

url = &#39;http://httpbin.org/post&#39;
payload = {&#39;some&#39;: &#39;data&#39;}
r = requests.post(url, data=json.dumps(payload))
print r.text

#运行结果:
{
"args": {}, 
"data": "{\"some\": \"data\"}", 
"files": {}, 
"form": {}, 
"headers": {
"Accept": "*/*", 
"Accept-Encoding": "gzip, deflate", 
"Content-Length": "16", 
"Host": "http://httpbin.org", 
"User-Agent": "python-requests/2.9.1"
}, 
"json": {
"some": "data"
}, 
"url": "http://httpbin.org/post"
}
ログイン後にコピー

上記のメソッドを通じて、JSON 形式でデータを POST することができます

ファイルをアップロードしたい場合は、file パラメーターを直接使用するだけです:

#新建一个 test.txt 的文件,内容写上 Hello World!
import requests

url = &#39;http://httpbin.org/post&#39;
files = {&#39;file&#39;: open(&#39;test.txt&#39;, &#39;rb&#39;)}
r = requests.post(url, files=files)
print r.text

{
"args": {}, 
"data": "", 
"files": {
"file": "Hello World!"
}, 
"form": {}, 
"headers": {
"Accept": "*/*", 
"Accept-Encoding": "gzip, deflate", 
"Content-Length": "156", 
"Content-Type": "multipart/form-data; boundary=7d8eb5ff99a04c11bb3e862ce78d7000", 
"Host": "http://httpbin.org", 
"User-Agent": "python-requests/2.9.1"
}, 
"json": null, 
"url": "http://httpbin.org/post"
}
ログイン後にコピー

このようにして、ファイルのアップロードが正常に完了しました。

リクエストはストリーミング アップロードをサポートしているため、最初にメモリに読み込まずに大きなデータ ストリームやファイルを送信できます。ストリーミング アップロードを使用するには、リクエスト本文にファイルのようなオブジェクトを指定するだけで済みます。これは非常に便利です:

with open(&#39;massive-body&#39;) as f:
requests.post(&#39;http://some.url/streamed&#39;, data=f)
ログイン後にコピー

Cookies

応答に Cookie が含まれている場合は、Cookie 変数を使用してそれを取得できます:

import requests

url = &#39;Example Domain&#39;
r = requests.get(url)
print r.cookies
print r.cookies[&#39;example_cookie_name&#39;]
ログイン後にコピー

上記のプログラムは単なるサンプルであり、cookie 変数を使用してサイトの cookie を取得できます

さらに、cookie 変数を使用して cookie 情報をサーバーに送信することもできます:

import requests

url = &#39;http://httpbin.org/cookies&#39;
cookies = dict(cookies_are=&#39;working&#39;)
r = requests.get(url, cookies=cookies)
print r.text
#输出:
&#39;{"cookies": {"cookies_are": "working"}}&#39;
ログイン後にコピー

タイムアウト設定

タイムアウト変数を使用して最大リクエスト時間を設定します

requests.get(‘Build software better, together’, timeout=0.001)
ログイン後にコピー

注: タイムアウトは接続プロセスに対してのみ有効であり、応答本文のダウンロードとは関係ありません。

つまり、今回は要求された時間のみを制限します。返されるレスポンスに大量のコンテンツが含まれている場合でも、ダウンロードには時間がかかります。

Session オブジェクト

上記のリクエストでは、各リクエストは実際には新しいリクエストを開始することと同じです。これは、異なるブラウザを使用して各リクエストを個別に開くことと同じです。つまり、同じ URL が要求された場合でも、セッションは参照されません。例:

import requests

requests.get(&#39;http://httpbin.org/cookies/set/sessioncookie/123456789&#39;)
r = requests.get("http://httpbin.org/cookies")
print(r.text)
#结果是:
{
"cookies": {}
}
ログイン後にコピー

明らかに、これはセッション内ではないため、Cookie を取得できません。では、一部のサイトで永続的なセッションを維持する必要がある場合はどうすればよいでしょうか。ブラウザを使用して Taobao を閲覧するのと同じように、異なるタブ間を移動すると、実際には長期間のセッションが作成されます。

解決策は次のとおりです:

import requests

s = requests.Session()
s.get(&#39;http://httpbin.org/cookies/set/sessioncookie/123456789&#39;)
r = s.get("http://httpbin.org/cookies")
print(r.text)
#在这里我们请求了两次,一次是设置 cookies,一次是获得 cookies
{
"cookies": {
"sessioncookie": "123456789"
}
}
ログイン後にコピー

は Cookie を正常に取得できることがわかり、これによりセッションが確立されます。

セッションはグローバル変数なので、間違いなくグローバル設定に使用できます。

import requests

s = requests.Session()
s.headers.update({&#39;x-test&#39;: &#39;true&#39;})
r = s.get(&#39;http://httpbin.org/headers&#39;, headers={&#39;x-test2&#39;: &#39;true&#39;})
print r.text
&#39;&#39;&#39;通过 s.headers.update 方法设置了 headers 的变量。然后我们又在请求中
设置了一个 headers,那么会出现什么结果?很简单,两个变量都传送过去了。
运行结果:&#39;&#39;&#39;
{
"headers": {
"Accept": "*/*", 
"Accept-Encoding": "gzip, deflate", 
"Host": "http://httpbin.org", 
"User-Agent": "python-requests/2.9.1", 
"X-Test": "true", 
"X-Test2": "true"
}
}
ログイン後にコピー

get メソッドで渡されたヘッダーも x-test だったらどうなるでしょうか?

r = s.get(&#39;http://httpbin.org/headers&#39;, headers={&#39;x-test&#39;: &#39;true&#39;})

#它会覆盖掉全局的配置:
{
"headers": {
"Accept": "*/*", 
"Accept-Encoding": "gzip, deflate", 
"Host": "http://httpbin.org", 
"User-Agent": "python-requests/2.9.1", 
"X-Test": "true"
}
}
ログイン後にコピー

グローバル設定に変数を入れたくない場合はどうすればよいですか?簡単です。「なし」に設定するだけです。

r = s.get(&#39;http://httpbin.org/headers&#39;, headers={&#39;x-test&#39;: None})
{
"headers": {
"Accept": "*/*", 
"Accept-Encoding": "gzip, deflate", 
"Host": "http://httpbin.org", 
"User-Agent": "python-requests/2.9.1"
}
}
ログイン後にコピー

以上がセッション session の基本的な使い方です。

SSL 証明書の検証

https で始まる Web サイトのどこでも利用できるようになりました。リクエストは、Web ブラウザと同じように、HTTPS リクエストの SSL 証明書を検証できます。特定のホストの SSL 証明書を確認するには、verify パラメーターを使用できます。12306 証明書は以前は無効ではなかったので、テストしてみましょう:

import requests

r = requests.get(&#39;https://kyfw.12306.cn/otn/&#39;, verify=True)
print r.text
#结果:
requests.exceptions.SSLError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:590)
ログイン後にコピー

github を試してみましょう:

import requests

r = requests.get(&#39;Build software better, together&#39;, verify=True)
print r.text
ログイン後にコピー

これは通常のリクエストです。内容も同様です。さらにある場合は、出力を貼り付けません。

先ほどの 12306 の証明書検証をスキップしたい場合は、verify を False に設定してください:

import requests

r = requests.get(&#39;https://kyfw.12306.cn/otn/&#39;, verify=False)
print r.text
ログイン後にコピー
判明したら通常どおりリクエストできます。デフォルトでは verify は True なので、必要に応じてこの変数を手動で設定する必要があります。

プロキシ

プロキシを使用する必要がある場合は、任意のリクエスト メソッドに proxies パラメータを指定することで、個別のリクエストを構成できます。

りー





以上がPython で Requests ライブラリを使用する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:php.cn
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート