ホームページ バックエンド開発 Python チュートリアル Python リクエストのクイックスタート入門

Python リクエストのクイックスタート入門

Sep 02, 2017 pm 01:18 PM
python requests 導入

この記事では、Pythonリクエストを使用するためのクイックスタートチュートリアルを中心に紹介します。具体的な操作方法については、この記事を参照してください

。待ってませんか?このページでは、リクエストの使用を開始する方法についての優れたガイドを提供します。 Requests がインストールされていることを前提としています。まだ行っていない場合は、インストールセクションに移動して見てください。
まず、次のことを確認してください:

Requests がインストールされていること

Requests が最新であること

いくつかの簡単な例から始めましょう。

リクエストの送信

リクエストを使用すると、ネットワークリクエストの送信は非常に簡単です。 まず Requests モジュールをインポートします:

>>> import requests
ログイン後にコピー

次に、Web ページを取得してみます。この例では、Github のパブリック タイムラインを取得しましょう:


>>> r = requests.get('https://github.com/timeline.json')
ログイン後にコピー

これで、r という名前の Response オブジェクトができました。このオブジェクトから必要な情報はすべて取得できます。


リクエスト シンプル API は、すべての HTTP リクエスト タイプが明らかであることを意味します。たとえば、次のような HTTP POST リクエストを送信できます:

>>> r = requests.post(http://httpbin.org/post)
ログイン後にコピー

素敵ですね?他の HTTP リクエスト タイプ (PUT、DELETE、HEAD、OPTIONS) についてはどうですか?どれも同じようにシンプルです:


>>> r = requests.put("http://httpbin.org/put")
>>> r = requests.delete("http://httpbin.org/delete")
>>> r = requests.head("http://httpbin.org/get")
>>> r = requests.options(http://httpbin.org/get)
ログイン後にコピー

どれも良いものですが、これはリクエストの氷山の一角にすぎません。


URL パラメータの受け渡し

URL のクエリ文字列として何らかの種類のデータを渡したい場合がよくあります。 URL を手動で構築する場合、データはキーと値のペアとして URL に配置され、その後に疑問符が続きます。たとえば、httpbin.org/get?key=val です。リクエストでは、params キーワード引数を使用して、これらのパラメータを文字列の辞書として提供できます。たとえば、key1=value1 と key2=value2 を httpbin.org/get に渡したい場合は、次のコードを使用できます:

>>> payload = {'key1': 'value1', 'key2': 'value2'}
>>> r = requests.get("http://httpbin.org/get", params=payload)
ログイン後にコピー

URL を出力すると、URL がエンコードされていることがわかります。正しくは:


>>> print(r.url)
http://httpbin.org/get?key2=value2&key1=value1
ログイン後にコピー

辞書内の値が None のキーは URL のクエリ文字列に追加されないことに注意してください。


値としてリストを渡すこともできます:

>>> payload = {'key1': 'value1', 'key2': ['value2', 'value3']}
>>> r = requests.get('http://httpbin.org/get', params=payload)
>>> print(r.url)
http://httpbin.org/get?key1=value1&key2=value2&key2=value3
ログイン後にコピー


Response content

サーバー応答の内容を読み取ることができます。 GitHub タイムラインを例として再度使用します。

>>> import requests
>>> r = requests.get('https://github.com/timeline.json')
>>> r.text
u'[{"repository":{"open_issues":0,"url":"https://github.com/...
ログイン後にコピー

リクエストは、サーバーからのコンテンツを自動的にデコードします。ほとんどの Unicode 文字セットはシームレスにデコードできます。


リクエストが送信されると、リクエストは HTTP ヘッダーに基づいて応答のエンコーディングを経験に基づいた推測を行います。 r.text にアクセスすると、Requests は推論されたテキスト エンコーディングを使用します。リクエストが使用しているエンコーディングを確認し、r.encoding プロパティを使用して変更できます:

>>> r.encoding
'utf-8'
>>> r.encoding = 'ISO-8859-1'
ログイン後にコピー

エンコーディングを変更すると、r.text にアクセスするたびに、リクエストは r.encoding の新しい値を使用します。 。テキストのエンコードを計算するために特別なロジックが使用されている場合は、エンコードを変更することができます。たとえば、HTTP と XML はエンコード自体を指定できます。この場合、r.content を使用してエンコードを検索し、r.encoding を対応するエンコードに設定する必要があります。これにより、正しいエンコーディングを使用して r.text を解析できるようになります。


必要に応じて、リクエストでカスタム エンコードを使用することもできます。独自のエンコーディングを作成して codecs モジュールに登録すると、デコーダー名を r.encoding の値として簡単に使用でき、Requests にエンコーディングを処理させることができます。

バイナリ応答コンテンツ

非テキストリクエストの場合、リクエストの応答本文にバイト単位でアクセスすることもできます。

>>> r.content
b'[{"repository":{"open_issues":0,"url":"https://github.com/...
ログイン後にコピー

リクエストは自動的に gzip をデコードし、転送エンコードされた応答データを圧縮します。


たとえば、リクエストによって返されたバイナリ データから画像を作成するには、次のコードを使用できます:

>>> from PIL import Image
>>> from io import BytesIO
>>> i = Image.open(BytesIO(r.content))
ログイン後にコピー


JSON 応答コンテンツ

Requests には組み込みの JSON デコーダもあります。 JSON データの処理に役立ちます:

>>> import requests
>>> r = requests.get('https://github.com/timeline.json')
>>> r.json()
[{u'repository': {u'open_issues': 0, u'url': 'https://github.com/...
ログイン後にコピー

JSON デコードが失敗した場合、r.json() は例外をスローします。たとえば、応答が 401 (Unauthorized) の場合、r.json() にアクセスしようとすると、「ValueError: No JSON object would be decoded」例外がスローされます。


r.json() の呼び出しが成功しても、応答が成功したことを意味するわけではないことに注意してください。一部のサーバーでは、失敗応答に JSON オブジェクト (HTTP 500 エラーの詳細など) が含まれています。この JSON はデコードされて返されます。リクエストが成功したかどうかを確認するには、r.raise_for_status() を使用するか、r.status_code が期待どおりであるかどうかを確認します。

元の応答コンテンツ

在罕见的情况下,你可能想获取来自服务器的原始套接字响应,那么你可以访问 r.raw。 如果你确实想这么干,那请你确保在初始请求中设置了 stream=True。具体你可以这么做:


>>> r = requests.get('https://github.com/timeline.json', stream=True)
>>> r.raw
<requests.packages.urllib3.response.HTTPResponse object at 0x101194810>
>>> r.raw.read(10)
&#39;\x1f\x8b\x08\x00\x00\x00\x00\x00\x00\x03&#39;
ログイン後にコピー

但一般情况下,你应该以下面的模式将文本流保存到文件:


with open(filename, &#39;wb&#39;) as fd:
 for chunk in r.iter_content(chunk_size):
  fd.write(chunk)
ログイン後にコピー

使用 Response.iter_content 将会处理大量你直接使用 Response.raw 不得不处理的。 当流下载时,上面是优先推荐的获取内容方式。 Note that chunk_size can be freely adjusted to a number that may better fit your use cases.

定制请求头

如果你想为请求添加 HTTP 头部,只要简单地传递一个 dict 给 headers 参数就可以了。

例如,在前一个示例中我们没有指定 content-type:

>>> url = 'https://api.github.com/some/endpoint'
>>> headers = {'user-agent': 'my-app/0.0.1'}
>>> r = requests.get(url, headers=headers)

注意: 定制 header 的优先级低于某些特定的信息源,例如:

如果在 .netrc 中设置了用户认证信息,使用 headers= 设置的授权就不会生效。而如果设置了auth= 参数,``.netrc`` 的设置就无效了。

如果被重定向到别的主机,授权 header 就会被删除。

代理授权 header 会被 URL 中提供的代理身份覆盖掉。

在我们能判断内容长度的情况下,header 的 Content-Length 会被改写。

更进一步讲,Requests 不会基于定制 header 的具体情况改变自己的行为。只不过在最后的请求中,所有的 header 信息都会被传递进去。

注意: 所有的 header 值必须是 string、bytestring 或者 unicode。尽管传递 unicode header 也是允许的,但不建议这样做。

更加复杂的 POST 请求

通常,你想要发送一些编码为表单形式的数据——非常像一个 HTML 表单。要实现这个,只需简单地传递一个字典给 data 参数。你的数据字典在发出请求时会自动编码为表单形式:

>>> payload = {'key1': 'value1', 'key2': 'value2'}

>>> r = requests.post("http://httpbin.org/post", data=payload)
>>> print(r.text)
{
...
"form": {
"key2": "value2",
"key1": "value1"
},
...
}

你还可以为 data 参数传入一个元组列表。在表单中多个元素使用同一 key 的时候,这种方式尤其有效:

>>> payload = (('key1', 'value1'), ('key1', 'value2'))
>>> r = requests.post('http://httpbin.org/post', data=payload)
>>> print(r.text)
{
...
"form": {
"key1": [
"value1",
"value2"
]
},
...
}

很多时候你想要发送的数据并非编码为表单形式的。如果你传递一个 string 而不是一个 dict,那么数据会被直接发布出去。

例如,Github API v3 接受编码为 JSON 的 POST/PATCH 数据:

>>> import json
>>> url = 'https://api.github.com/some/endpoint'
>>> payload = {'some': 'data'}
>>> r = requests.post(url, data=json.dumps(payload))

此处除了可以自行对 dict 进行编码,你还可以使用 json 参数直接传递,然后它就会被自动编码。这是 2.4.2 版的新加功能:

>>> url = 'https://api.github.com/some/endpoint'
>>> payload = {'some': 'data'}
>>> r = requests.post(url, json=payload)

POST一个多部分编码(Multipart-Encoded)的文件

Requests 使得上传多部分编码文件变得很简单:

>>> url = 'http://httpbin.org/post'
>>> files = {'file': open('report.xls', 'rb')}
>>> r = requests.post(url, files=files)
>>> r.text
{
...
"files": {
"file": ""
},
...
}

你可以显式地设置文件名,文件类型和请求头:

>>> URL = 'http://httpbin.org/post'
>>> ファイル = {'file': ('report.xls', open('report.xls', ' rb'), 'application/vnd.ms-excel', {'Expires': '0'})}
>>> r = request.post(url, files=files)
>>> ; r.text
{
...
"files": {
"file": "<検閲済み...バイナリ...データ>"
},
...
}

必要に応じて、ファイルとして受信する文字列を送信することもできます:

>>> url = 'http://httpbin.org/post'
>>> files = {'file': ('レポート .csv', 'some,data,to,sendnanother,row,to,sendn')}

>>> r = request.post(url, files=files)
>>> . text
{
...
"ファイル": {
"ファイル": "some,data,to,send\nanother,row,to,send\n"
},
...
}

If非常に大きなファイルをマルチパート/フォームデータリクエストとして送信するには、リクエストをストリーミングすることができます。デフォルトでは、リクエストはサポートされていませんが、それをサポートするサードパーティ パッケージのrequests-toolbeltがあります。ツールベルトの使用方法については、ツールベルトのドキュメントを参照してください。

1 つのリクエストで複数のファイル参照を送信する 高度な使用法セクション。

警告

ファイルをバイナリ モードで開くことを強くお勧めします。これは、リクエストが Content-Length ヘッダーを提供しようとする場合があり、その場合、この値はファイル内のバイト数に設定されるためです。ファイルをテキスト モードで開くと、エラーが発生する可能性があります。

レスポンス ステータス コード

レスポンス ステータス コードは次のように検出できます。 status_code

200


簡単に参照できるように、リクエストには組み込みのステータス コード クエリ オブジェクトも付属しています:

>>> r.status_code ==requests.codes.ok

True

エラー リクエスト ( 4XX クライアント エラー、または 5XX サーバー エラー応答)、Response.raise_for_status() を通じて例外をスローできます:

>>> )

>>> bad_r.status_code

404

>>> bad_r.raise_for_status()
トレースバック (最新の呼び出し):
ファイル "requests/models.py"、raise_for_status の 832 行目Raise http_error
requests.Exceptions.HTTPError: 404 Client Error

ただし、この例の r の status_code は 200 なので、raise_for_status() を呼び出すと、次のようになります。

>>>

なし

すべてが非常に調和しています。


応答ヘッダー

Python 辞書の形式で表示されるサーバー応答ヘッダーを表示できます:

>>> r.headers

{

'content-encoding': 'gzip',

'transfer-エンコーディング' : 'チャンク'、

'接続': '閉じる'、
'サーバー': 'nginx/1.0.4'、
'x-runtime': '148ms'、
'etag': '"e1ca502697e5c9317743dc078f67693f"' ,
'content-type': 'application/json'
}

しかし、この辞書は特別で、HTTP ヘッダーのみを対象としています。 RFC 2616 によれば、HTTP ヘッダーは大文字と小文字を区別しません。

したがって、任意の大文字を使用してこれらの応答ヘッダー フィールドにアクセスできます:

>>> r.headers['Content-Type']

'application/json'

>>> ヘッダー。 get('content-type')

'application/json'


これには特別な点もあります。つまり、サーバーは毎回異なる値を使用して同じヘッダーを複数回受け入れることができます。ただし、リクエストはマッピングで表現できるようにそれらを結合します。RFC 7230 を参照してください:

受信者は、セマンティクスを変更せずに、同じフィールド名の複数のヘッダー フィールドを 1 つの「フィールド名:フィールド値」ペアに結合してもよい(MAY)結合されたフィールド値に後続の各フィールド値をコンマで区切って順番に追加することで、メッセージのメッセージを作成します。

受信者は、同じ名前の複数のヘッダー フィールドをマージし、1 つの "フィールド名" : フィールド値に結合できます。 " のペアリングでは、後続の各フィールド値をマージされたフィールド値にカンマで区切って順番に追加します。これによって情報のセマンティクスは変更されません。

Cookie

応答にCookieが含まれている場合は、すぐにアクセスできます:

>>> url = 'http://example.com/some/cookie/setting/url'
>>> r = requests.get(url)
>>> r.cookies['example_cookie_name']
'example_cookie_value'
要想发送你的cookies到服务器,可以使用 cookies 参数:

>>> url = 'http://httpbin.org/cookies'
>>> cookies = dict(cookies_are='working')

>>> r = requests.get(url, cookies=cookies)
>>> r.text
'{"cookies": {"cookies_are": "working"}}'

Cookie 的返回对象为 RequestsCookieJar,它的行为和字典类似,但界面更为完整,适合跨域名跨路径使用。你还可以把 Cookie Jar 传到 Requests 中:


>>> jar = requests.cookies.RequestsCookieJar()
>>> jar.set(&#39;tasty_cookie&#39;, &#39;yum&#39;, domain=&#39;httpbin.org&#39;, path=&#39;/cookies&#39;)
>>> jar.set(&#39;gross_cookie&#39;, &#39;blech&#39;, domain=&#39;httpbin.org&#39;, path=&#39;/elsewhere&#39;)
>>> url = &#39;http://httpbin.org/cookies&#39;
>>> r = requests.get(url, cookies=jar)
>>> r.text
&#39;{"cookies": {"tasty_cookie": "yum"}}&#39;
ログイン後にコピー

重定向与请求历史

默认情况下,除了 HEAD, Requests 会自动处理所有重定向。

可以使用响应对象的 history 方法来追踪重定向。

Response.history 是一个 Response 对象的列表,为了完成请求而创建了这些对象。这个对象列表按照从最老到最近的请求进行排序。

例如,Github 将所有的 HTTP 请求重定向到 HTTPS:


>>> r = requests.get(&#39;http://github.com&#39;)
>>> r.url
&#39;https://github.com/&#39;
>>> r.status_code
200
>>> r.history
[<Response [301]>]
ログイン後にコピー

如果你使用的是GET、OPTIONS、POST、PUT、PATCH 或者 DELETE,那么你可以通过 allow_redirects 参数禁用重定向处理:


>>> r = requests.get(&#39;http://github.com&#39;, allow_redirects=False)
>>> r.status_code
301
>>> r.history
[]
ログイン後にコピー

如果你使用了 HEAD,你也可以启用重定向:


>>> r = requests.head(&#39;http://github.com&#39;, allow_redirects=True)
>>> r.url
&#39;https://github.com/&#39;
>>> r.history
[<Response [301]>]
ログイン後にコピー

超时

你可以告诉 requests 在经过以 timeout 参数设定的秒数时间之后停止等待响应。基本上所有的生产代码都应该使用这一参数。如果不使用,你的程序可能会永远失去响应:


>>> requests.get(&#39;http://github.com&#39;, timeout=0.001)
Traceback (most recent call last):
 File "<stdin>", line 1, in <module>
requests.exceptions.Timeout: HTTPConnectionPool(host=&#39;github.com&#39;, port=80): Request timed out. (timeout=0.001)
ログイン後にコピー

注意

timeout 仅对连接过程有效,与响应体的下载无关。 timeout 并不是整个下载响应的时间限制,而是如果服务器在 timeout 秒内没有应答,将会引发一个异常(更精确地说,是在timeout 秒内没有从基础套接字上接收到任何字节的数据时)If no timeout is specified explicitly, requests do not time out.

错误与异常

遇到网络问题(如:DNS 查询失败、拒绝连接等)时,Requests 会抛出一个 ConnectionError 异常。

如果 HTTP 请求返回了不成功的状态码, Response.raise_for_status() 会抛出一个 HTTPError 异常。

若请求超时,则抛出一个 Timeout 异常。

若请求超过了设定的最大重定向次数,则会抛出一个 TooManyRedirects 异常。

所有Requests显式抛出的异常都继承自 requests.exceptions.RequestException 。

以上がPython リクエストのクイックスタート入門の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

ランプアーキテクチャの下でnode.jsまたはPythonサービスを効率的に統合する方法は? ランプアーキテクチャの下でnode.jsまたはPythonサービスを効率的に統合する方法は? Apr 01, 2025 pm 02:48 PM

多くのウェブサイト開発者は、ランプアーキテクチャの下でnode.jsまたはPythonサービスを統合する問題に直面しています:既存のランプ(Linux Apache MySQL PHP)アーキテクチャWebサイトのニーズ...

LinuxターミナルでPythonバージョンを表示するときに発生する権限の問題を解決する方法は? LinuxターミナルでPythonバージョンを表示するときに発生する権限の問題を解決する方法は? Apr 01, 2025 pm 05:09 PM

LinuxターミナルでPythonバージョンを表示する際の許可の問題の解決策PythonターミナルでPythonバージョンを表示しようとするとき、Pythonを入力してください...

Scapy Crawlerを使用するときにパイプラインの永続的なストレージファイルを書き込めない理由は何ですか? Scapy Crawlerを使用するときにパイプラインの永続的なストレージファイルを書き込めない理由は何ですか? Apr 01, 2025 pm 04:03 PM

Scapy Crawlerを使用する場合、パイプラインの永続的なストレージファイルを書くことができない理由は?ディスカッションデータクローラーにScapy Crawlerを使用することを学ぶとき、あなたはしばしば...

Python hourglassグラフ図面:可変未定義エラーを避ける方法は? Python hourglassグラフ図面:可変未定義エラーを避ける方法は? Apr 01, 2025 pm 06:27 PM

Python:Hourglassグラフィック図面と入力検証この記事では、Python NoviceがHourglass Graphic Drawingプログラムで遭遇する可変定義の問題を解決します。コード...

PythonプロセスプールがTCPリクエストを同時に処理し、クライアントが立ち往生する理由は何ですか? PythonプロセスプールがTCPリクエストを同時に処理し、クライアントが立ち往生する理由は何ですか? Apr 01, 2025 pm 04:09 PM

Python Process Poolは、クライアントが立ち往生する原因となる同時TCP要求を処理します。ネットワークプログラミングにPythonを使用する場合、同時のTCP要求を効率的に処理することが重要です。 ...

Python functools.partialオブジェクトによって内部的にカプセル化された元の関数を表示する方法は? Python functools.partialオブジェクトによって内部的にカプセル化された元の関数を表示する方法は? Apr 01, 2025 pm 04:15 PM

python functools.partialオブジェクトのpython functools.partialを使用してPythonを使用する視聴方法を深く探索します。

Pythonクロスプラットフォームデスクトップアプリケーション開発:どのGUIライブラリが最適ですか? Pythonクロスプラットフォームデスクトップアプリケーション開発:どのGUIライブラリが最適ですか? Apr 01, 2025 pm 05:24 PM

Pythonクロスプラットフォームデスクトップアプリケーション開発ライブラリの選択多くのPython開発者は、WindowsシステムとLinuxシステムの両方で実行できるデスクトップアプリケーションを開発したいと考えています...

あるデータフレームの列全体を、Python内の異なる構造を持つ別のデータフレームに効率的にコピーする方法は? あるデータフレームの列全体を、Python内の異なる構造を持つ別のデータフレームに効率的にコピーする方法は? Apr 01, 2025 pm 11:15 PM

PythonのPandasライブラリを使用する場合、異なる構造を持つ2つのデータフレーム間で列全体をコピーする方法は一般的な問題です。 2つのデータがあるとします...

See all articles