ホームページ ウェブフロントエンド フロントエンドQ&A リクエストライブラリの基本的な使い方

リクエストライブラリの基本的な使い方

Jun 11, 2018 pm 10:55 PM
requests

1. response.content和response.text的区别

response.content是编码后的byte类型(“str”数据类型),response.text是unicode类型。这两种方法的使用要视情况而定。注意:unicode -> str 是编码过程(encode()); str -> unicode 是解码过程(decode())。示例如下:

# --coding:utf-8-- #
import requests
response = requests.get("https://baidu.com/")
print response.url
print type(response.content)
with open("C:\\Users\\Administrator\\Desktop\\content.html", "w") as f:
    f.write(response.content)
    print "content保存成功"
print type(response.text)
with open("C:\\Users\\Administrator\\Desktop\\text.html", "w") as f:
    # 返回url的编码方式
    print response.encoding
    f.write(response.text.encode("ISO-8859-1"))
    print "text保存成功"
ログイン後にコピー

2. 发送get请求,直接调用“resquests.get" 就可以了。response的一些属性:response.text; response.content; response.url; response.encoding; response.status_code

# --coding:utf-8-- #
import requests
params = {
    "wd": "中国"
}
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36"
}
response = requests.get("https://baidu.com/s", params=params, headers=headers)
print response.url
with open("C:\\Users\\Administrator\\Desktop\\get.html", "w") as f:
    f.write(response.content)
    print "保存成功"
ログイン後にコピー

3. 发送post请求:传入data信息。注意get请求传入的是params信息。示例如下:

# --coding:utf-8-- #
import requests
data = {
    "first": "true",
    "pn": "1",
    "wd": "python"
}
headers = {
    "Referer": "https://www.lagou.com/jobs/list_python?labelWords=&fromSearch=true&suginput=",
    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36"
}
response = requests.post("https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false", data=data, headers=headers)
print response.encoding
print type(response.content)
with open("C:\\Users\\Administrator\\Desktop\\post.html", "w") as f:
    f.write(response.content)
    print "保存成功"
ログイン後にコピー

4. 使用代理。在get方法中增加proxy参数即可。示例代码如下:

# --coding:utf-8-- #
import requests
proxy = {
    "http": "124.42.7.103"
}
response = requests.get("http://httpbin.org/ip", proxies=proxy)
print response.content
ログイン後にコピー

5. requests处理cookies信息。使用requests.Session()方法即可。示例代码如下:

# --coding:utf-8-- #
import requests
url = "http://www.renren.com/PLogin.do"
# url = "http://www.renren.com/SysHome.do"
data = {"email": "账号", "password": "密码"}
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36"
}
session = requests.Session()
session.post(url, data=data, headers=headers)
response = session.get("http://www.renren.com/543484094/profile")
with open("C:\\Users\\Administrator\\Desktop\\Liwei.html", "w") as fp:
    fp.write(response.content)
    print "保存成功"
ログイン後にコピー

6. 处理不信任的SSL证书。与上面的代码相比,多了一个verify=False参数,为了处理SSL证书不受信用的问题。

示例代码如下:

response = session.get("http://www.renren.com/543484094/profile", verify=False)
ログイン後にコピー

以上就是关于requests库的基本使用。

本文讲解了requests库的基本使用 ,更多相关内容请关注php中文网。

相关推荐:

前端调用微信支付接口

jQuery对象与DOM对象

jQuery插件开发标准写法

以上がリクエストライブラリの基本的な使い方の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

PythonでCURLリクエストとPythonリクエストの相互変換を実現する方法 PythonでCURLリクエストとPythonリクエストの相互変換を実現する方法 May 03, 2023 pm 12:49 PM

curl と Pythonrequests は両方とも、HTTP リクエストを送信するための強力なツールです。 curl はターミナルから直接リクエストを送信できるコマンドライン ツールですが、Python のリクエスト ライブラリは、Python コードからリクエストを送信するためのよりプログラム的な方法を提供します。 curl を Pythonrequestscurl コマンドに変換するための基本的な構文は次のとおりです。curl[OPTIONS]URLcurl コマンドを Python リクエストに変換する場合、オプションと URL を Python コードに変換する必要があります。これは、curlPOST コマンドの例です:curl-XPOST https://example.com/api

Python クローラーのリクエスト ライブラリの使用方法 Python クローラーのリクエスト ライブラリの使用方法 May 16, 2023 am 11:46 AM

1. リクエスト ライブラリをインストールします。学習プロセスでは Python 言語を使用するため、Python を事前にインストールする必要があります。私は Python 3.8 をインストールしました。インストールした Python のバージョンは、コマンド python --version を実行することで確認できます。 Python 3.X 以降をインストールします。 Python をインストールした後、次のコマンドを使用してリクエスト ライブラリを直接インストールできます。 pipinstallrequestsPs: Alibaba や Douban などの国内の pip ソースに切り替えることができ、高速です。機能を実証するために、nginx を使用して簡単な Web サイトをシミュレートしました。ダウンロード後、ルート ディレクトリで nginx.exe プログラムを実行するだけです。

Python がリクエストを使用して Web ページをリクエストする方法 Python がリクエストを使用して Web ページをリクエストする方法 Apr 25, 2023 am 09:29 AM

リクエストは urllib2 のすべての機能を継承します。リクエストは、HTTP 接続の永続性と接続プーリング、セッションを維持するための Cookie の使用、ファイルのアップロード、応答コンテンツのエンコードの自動決定、国際化された URL と POST データの自動エンコードをサポートします。インストール方法は、pip を使用してインストールします。 $pipinstallrequestsGET リクエスト 基本的な GET リクエスト (ヘッダー パラメーターとパラメータ パラメーター) 1. 最も基本的な GET リクエストは、get メソッド 'response=requests.get("http://www.baidu.com/ "

Pythonリクエストポストの使い方 Pythonリクエストポストの使い方 Apr 29, 2023 pm 04:52 PM

Python はブラウザーによるポスト リクエストの送信をシミュレートします importrequests 形式 request.postrequest.post(url,data,json,kwargs)#ポスト リクエストの形式 request.get(url,params,kwargs)#get リクエストと比較して、ポスト リクエストの送信パラメータは次のように分割されますForms ( x-www-form-urlencoded) json (application/json) データ パラメーターは、辞書形式と文字列形式をサポートしています。辞書形式は、 json.dumps() メソッドを使用して、データを有効な JSON 形式の文字列に変換します。このメソッドには、次のものが必要です

Python のリクエストと BeautifulSoup を使用して PDF ファイルをダウンロードする Python のリクエストと BeautifulSoup を使用して PDF ファイルをダウンロードする Aug 30, 2023 pm 03:25 PM

Request と BeautifulSoup は、オンラインで任意のファイルまたは PDF をダウンロードできる Python ライブラリです。リクエスト ライブラリは、HTTP リクエストの送信と応答の受信に使用されます。 BeautifulSoup ライブラリは、応答で受け取った HTML を解析し、ダウンロード可能な PDF リンクを取得するために使用されます。この記事では、Python で Request と BeautifulSoup を使用して PDF をダウンロードする方法を学びます。依存関係のインストール Python で BeautifulSoup ライブラリと Request ライブラリを使用する前に、pip コマンドを使用してこれらのライブラリをシステムにインストールする必要があります。 request と BeautifulSoup および Request ライブラリをインストールするには、

Python での Requests モジュールの使用 Python での Requests モジュールの使用 Sep 02, 2023 am 10:21 AM

Requests は、さまざまな HTTP リクエストの送信に使用できる Python モジュールです。これは、URL でのパラメーターの受け渡しからカスタム ヘッダーの送信や SSL 検証まで、多くの機能を備えた使いやすいライブラリです。このチュートリアルでは、このライブラリを使用して Python で単純な HTTP リクエストを送信する方法を学習します。リクエストは Python バージョン 2.6 ~ 2.7 および 3.3 ~ 3.6 で使用できます。続行する前に、Requests は外部モジュールであるため、このチュートリアルの例を試す前にそれをインストールする必要があることを知っておく必要があります。ターミナルで次のコマンドを実行してインストールできます: pipinstallrequests モジュールがインストールされたら、次のコマンドを使用してインポートできます。

Python リクエストをインストールして使用する方法 Python リクエストをインストールして使用する方法 May 18, 2023 pm 07:49 PM

1. 準備作業 まず、requests ライブラリがインストールされていることを確認し、インストールされていない場合は、以下の手順でライブラリをインストールします。 pip のインストール Windows、Linux、Mac のいずれであっても、pip パッケージ管理ツールを通じてインストールできます。コマンド ラインで次のコマンドを実行して、リクエスト ライブラリのインストールを完了します。 pip3installrequests これは最も簡単なインストール方法であり、推奨されます。インストールの確認 ライブラリが正常にインストールされたかどうかを確認するには、コマンド ラインでテストできます: importrequestsres=requests.get('https://www.baidu

BeautifulSoup と Requests を使用して Python クローラーを使用して Web ページ データをクロールする方法 BeautifulSoup と Requests を使用して Python クローラーを使用して Web ページ データをクロールする方法 Apr 29, 2023 pm 12:52 PM

1. はじめに Web クローラーの実装原理は、次のステップに要約できます。 HTTP リクエストの送信: Web クローラーは、HTTP リクエスト (通常は GET リクエスト) をターゲット Web サイトに送信することによって、Web ページのコンテンツを取得します。 Python では、リクエスト ライブラリを使用して HTTP リクエストを送信できます。 HTML の解析: ターゲット Web サイトから応答を受信した後、クローラーは HTML コンテンツを解析して有用な情報を抽出する必要があります。 HTML は Web ページの構造を記述するために使用されるマークアップ言語であり、一連のネストされたタグで構成されます。クローラーは、これらのタグと属性に基づいて必要なデータを見つけて抽出できます。 Python では、BeautifulSoup や lxml などのライブラリを使用して HTML を解析できます。データ抽出: HTML を解析した後、

See all articles