リクエストライブラリの基本的な使い方
1. response.content和response.text的区别
response.content是编码后的byte类型(“str”数据类型),response.text是unicode类型。这两种方法的使用要视情况而定。注意:unicode -> str 是编码过程(encode()); str -> unicode 是解码过程(decode())。示例如下:
# --coding:utf-8-- # import requests response = requests.get("https://baidu.com/") print response.url print type(response.content) with open("C:\\Users\\Administrator\\Desktop\\content.html", "w") as f: f.write(response.content) print "content保存成功" print type(response.text) with open("C:\\Users\\Administrator\\Desktop\\text.html", "w") as f: # 返回url的编码方式 print response.encoding f.write(response.text.encode("ISO-8859-1")) print "text保存成功"
2. 发送get请求,直接调用“resquests.get" 就可以了。response的一些属性:response.text; response.content; response.url; response.encoding; response.status_code
# --coding:utf-8-- # import requests params = { "wd": "中国" } headers = { "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36" } response = requests.get("https://baidu.com/s", params=params, headers=headers) print response.url with open("C:\\Users\\Administrator\\Desktop\\get.html", "w") as f: f.write(response.content) print "保存成功"
3. 发送post请求:传入data信息。注意get请求传入的是params信息。示例如下:
# --coding:utf-8-- # import requests data = { "first": "true", "pn": "1", "wd": "python" } headers = { "Referer": "https://www.lagou.com/jobs/list_python?labelWords=&fromSearch=true&suginput=", "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36" } response = requests.post("https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false", data=data, headers=headers) print response.encoding print type(response.content) with open("C:\\Users\\Administrator\\Desktop\\post.html", "w") as f: f.write(response.content) print "保存成功"
4. 使用代理。在get方法中增加proxy参数即可。示例代码如下:
# --coding:utf-8-- # import requests proxy = { "http": "124.42.7.103" } response = requests.get("http://httpbin.org/ip", proxies=proxy) print response.content
5. requests处理cookies信息。使用requests.Session()方法即可。示例代码如下:
# --coding:utf-8-- # import requests url = "http://www.renren.com/PLogin.do" # url = "http://www.renren.com/SysHome.do" data = {"email": "账号", "password": "密码"} headers = { "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36" } session = requests.Session() session.post(url, data=data, headers=headers) response = session.get("http://www.renren.com/543484094/profile") with open("C:\\Users\\Administrator\\Desktop\\Liwei.html", "w") as fp: fp.write(response.content) print "保存成功"
6. 处理不信任的SSL证书。与上面的代码相比,多了一个verify=False参数,为了处理SSL证书不受信用的问题。
示例代码如下:
response = session.get("http://www.renren.com/543484094/profile", verify=False)
以上就是关于requests库的基本使用。
本文讲解了requests库的基本使用 ,更多相关内容请关注php中文网。
相关推荐:
以上がリクエストライブラリの基本的な使い方の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









curl と Pythonrequests は両方とも、HTTP リクエストを送信するための強力なツールです。 curl はターミナルから直接リクエストを送信できるコマンドライン ツールですが、Python のリクエスト ライブラリは、Python コードからリクエストを送信するためのよりプログラム的な方法を提供します。 curl を Pythonrequestscurl コマンドに変換するための基本的な構文は次のとおりです。curl[OPTIONS]URLcurl コマンドを Python リクエストに変換する場合、オプションと URL を Python コードに変換する必要があります。これは、curlPOST コマンドの例です:curl-XPOST https://example.com/api

1. リクエスト ライブラリをインストールします。学習プロセスでは Python 言語を使用するため、Python を事前にインストールする必要があります。私は Python 3.8 をインストールしました。インストールした Python のバージョンは、コマンド python --version を実行することで確認できます。 Python 3.X 以降をインストールします。 Python をインストールした後、次のコマンドを使用してリクエスト ライブラリを直接インストールできます。 pipinstallrequestsPs: Alibaba や Douban などの国内の pip ソースに切り替えることができ、高速です。機能を実証するために、nginx を使用して簡単な Web サイトをシミュレートしました。ダウンロード後、ルート ディレクトリで nginx.exe プログラムを実行するだけです。

リクエストは urllib2 のすべての機能を継承します。リクエストは、HTTP 接続の永続性と接続プーリング、セッションを維持するための Cookie の使用、ファイルのアップロード、応答コンテンツのエンコードの自動決定、国際化された URL と POST データの自動エンコードをサポートします。インストール方法は、pip を使用してインストールします。 $pipinstallrequestsGET リクエスト 基本的な GET リクエスト (ヘッダー パラメーターとパラメータ パラメーター) 1. 最も基本的な GET リクエストは、get メソッド 'response=requests.get("http://www.baidu.com/ "

Python はブラウザーによるポスト リクエストの送信をシミュレートします importrequests 形式 request.postrequest.post(url,data,json,kwargs)#ポスト リクエストの形式 request.get(url,params,kwargs)#get リクエストと比較して、ポスト リクエストの送信パラメータは次のように分割されますForms ( x-www-form-urlencoded) json (application/json) データ パラメーターは、辞書形式と文字列形式をサポートしています。辞書形式は、 json.dumps() メソッドを使用して、データを有効な JSON 形式の文字列に変換します。このメソッドには、次のものが必要です

Request と BeautifulSoup は、オンラインで任意のファイルまたは PDF をダウンロードできる Python ライブラリです。リクエスト ライブラリは、HTTP リクエストの送信と応答の受信に使用されます。 BeautifulSoup ライブラリは、応答で受け取った HTML を解析し、ダウンロード可能な PDF リンクを取得するために使用されます。この記事では、Python で Request と BeautifulSoup を使用して PDF をダウンロードする方法を学びます。依存関係のインストール Python で BeautifulSoup ライブラリと Request ライブラリを使用する前に、pip コマンドを使用してこれらのライブラリをシステムにインストールする必要があります。 request と BeautifulSoup および Request ライブラリをインストールするには、

Requests は、さまざまな HTTP リクエストの送信に使用できる Python モジュールです。これは、URL でのパラメーターの受け渡しからカスタム ヘッダーの送信や SSL 検証まで、多くの機能を備えた使いやすいライブラリです。このチュートリアルでは、このライブラリを使用して Python で単純な HTTP リクエストを送信する方法を学習します。リクエストは Python バージョン 2.6 ~ 2.7 および 3.3 ~ 3.6 で使用できます。続行する前に、Requests は外部モジュールであるため、このチュートリアルの例を試す前にそれをインストールする必要があることを知っておく必要があります。ターミナルで次のコマンドを実行してインストールできます: pipinstallrequests モジュールがインストールされたら、次のコマンドを使用してインポートできます。

1. 準備作業 まず、requests ライブラリがインストールされていることを確認し、インストールされていない場合は、以下の手順でライブラリをインストールします。 pip のインストール Windows、Linux、Mac のいずれであっても、pip パッケージ管理ツールを通じてインストールできます。コマンド ラインで次のコマンドを実行して、リクエスト ライブラリのインストールを完了します。 pip3installrequests これは最も簡単なインストール方法であり、推奨されます。インストールの確認 ライブラリが正常にインストールされたかどうかを確認するには、コマンド ラインでテストできます: importrequestsres=requests.get('https://www.baidu

1. はじめに Web クローラーの実装原理は、次のステップに要約できます。 HTTP リクエストの送信: Web クローラーは、HTTP リクエスト (通常は GET リクエスト) をターゲット Web サイトに送信することによって、Web ページのコンテンツを取得します。 Python では、リクエスト ライブラリを使用して HTTP リクエストを送信できます。 HTML の解析: ターゲット Web サイトから応答を受信した後、クローラーは HTML コンテンツを解析して有用な情報を抽出する必要があります。 HTML は Web ページの構造を記述するために使用されるマークアップ言語であり、一連のネストされたタグで構成されます。クローラーは、これらのタグと属性に基づいて必要なデータを見つけて抽出できます。 Python では、BeautifulSoup や lxml などのライブラリを使用して HTML を解析できます。データ抽出: HTML を解析した後、
