Python3使用requests发闪存的方法

Jun 10, 2016 pm 03:04 PM
python3 requests

requests是一个python 轻量的http客户端库,相比python的标准库要优雅很多。接下来通过本文给大家介绍Python3使用requests发闪存的方法,一起学习吧。

使用以下命令安装requests

复制代码 代码如下:

pip install requests

抓包工具中看到的http头和cookies会多很多项,其中一些是可以省略掉的。比如我省略掉了Content-Length。

import requests
url='http://ing.cnblogs.com/ajax/ing/Publish'
head={'Accept':'application/json, text/javascript, */*; q=0.01',
'Origin':'http://ing.cnblogs.com',
'X-Requested-With':'XMLHttpRequest',
'Content-Type':'application/json; charset=UTF-8',
'DNT':1,
'Referer':'http://ing.cnblogs.com/',
'Accept-Encoding':'gzip, deflate',
'Accept-Language':'zh-CN,zh;q=0.8,en;q=0.6',
}
#session 通过抓包工具,或者cookies工具可以得到.
cookies={'.CNBlogsCookie':'67834BD16E61A87726AF2203F849339E8DEFF67BC4A453FDG830AC373CAC83BAAF2312B975279092095A0E143400E82BBEE189BD5CB8826CA6A6E836F69EC5783C410C2B815A833D5816CEB5B457B159A38F'}#←_←填你自己的session
data={"content":"[天上的星星不说话]python大法好{}","publicFlag":1}
s=requests.Session()
for r in range(1,122):
data['content']="[天上的星星不说话]python大法好{}".format(r)
post=s.post(url,data,cookies=cookies)
print(post.text)
ログイン後にコピー

以下代码用于删除闪存

import requests
import re
def timeit(fn):
import time
def v():
start=time.clock()
fn()
end=time.clock()-start
print(fn.__name__,"运行耗时:",end)
return v
url='http://ing.cnblogs.com/ajax/ing/GetIngList?IngListType=my&PageIndex=1&PageSize=30'
head={'Accept':'application/json, text/javascript, */*; q=0.01',
'Origin':'http://ing.cnblogs.com',
'X-Requested-With':'XMLHttpRequest',
'Content-Type':'application/json; charset=UTF-8',
'DNT':1,
'Referer':'http://ing.cnblogs.com/mobile/',
'Accept-Encoding':'gzip, deflate',
'Accept-Language':'zh-CN,zh;q=0.8,en;q=0.6',
}
cookies={'.CNBlogsCookie':'989A8F9SF9SF989S982938492849823498239489284989SDF89S89F8E98F9S88E9R89WER898R989R23423J4K2529R8FS7R2K48978S7DF8'}
s=requests.Session()
@timeit
def geting():
data={'ingId':'878581'}
r=s.get(url,cookies=cookies)
text=r.text
ingid=re.findall('''feed_content_(\d+)(.+?天上的星星不说话.+?DelIng)''',text,re.DOTALL)
#ingid=re.findall('''feed_content_(\d+)''',text)
#print(ingid) 
notlucky=[a for a,b in ingid if 'ing_icon_lucky' not in b]
for x in notlucky:
data['ingId']=x
try:
sdel=s.post("http://ing.cnblogs.com/ajax/ing/del",cookies=cookies,data=data)
print(sdel.text)
except:
pass
for xxx in range(18):
geting()
ログイン後にコピー

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

PythonでCURLリクエストとPythonリクエストの相互変換を実現する方法 PythonでCURLリクエストとPythonリクエストの相互変換を実現する方法 May 03, 2023 pm 12:49 PM

curl と Pythonrequests は両方とも、HTTP リクエストを送信するための強力なツールです。 curl はターミナルから直接リクエストを送信できるコマンドライン ツールですが、Python のリクエスト ライブラリは、Python コードからリクエストを送信するためのよりプログラム的な方法を提供します。 curl を Pythonrequestscurl コマンドに変換するための基本的な構文は次のとおりです。curl[OPTIONS]URLcurl コマンドを Python リクエストに変換する場合、オプションと URL を Python コードに変換する必要があります。これは、curlPOST コマンドの例です:curl-XPOST https://example.com/api

Python クローラーのリクエスト ライブラリの使用方法 Python クローラーのリクエスト ライブラリの使用方法 May 16, 2023 am 11:46 AM

1. リクエスト ライブラリをインストールします。学習プロセスでは Python 言語を使用するため、Python を事前にインストールする必要があります。私は Python 3.8 をインストールしました。インストールした Python のバージョンは、コマンド python --version を実行することで確認できます。 Python 3.X 以降をインストールします。 Python をインストールした後、次のコマンドを使用してリクエスト ライブラリを直接インストールできます。 pipinstallrequestsPs: Alibaba や Douban などの国内の pip ソースに切り替えることができ、高速です。機能を実証するために、nginx を使用して簡単な Web サイトをシミュレートしました。ダウンロード後、ルート ディレクトリで nginx.exe プログラムを実行するだけです。

Python がリクエストを使用して Web ページをリクエストする方法 Python がリクエストを使用して Web ページをリクエストする方法 Apr 25, 2023 am 09:29 AM

リクエストは urllib2 のすべての機能を継承します。リクエストは、HTTP 接続の永続性と接続プーリング、セッションを維持するための Cookie の使用、ファイルのアップロード、応答コンテンツのエンコードの自動決定、国際化された URL と POST データの自動エンコードをサポートします。インストール方法は、pip を使用してインストールします。 $pipinstallrequestsGET リクエスト 基本的な GET リクエスト (ヘッダー パラメーターとパラメータ パラメーター) 1. 最も基本的な GET リクエストは、get メソッド 'response=requests.get("http://www.baidu.com/ "

Pythonリクエストポストの使い方 Pythonリクエストポストの使い方 Apr 29, 2023 pm 04:52 PM

Python はブラウザーによるポスト リクエストの送信をシミュレートします importrequests 形式 request.postrequest.post(url,data,json,kwargs)#ポスト リクエストの形式 request.get(url,params,kwargs)#get リクエストと比較して、ポスト リクエストの送信パラメータは次のように分割されますForms ( x-www-form-urlencoded) json (application/json) データ パラメーターは、辞書形式と文字列形式をサポートしています。辞書形式は、 json.dumps() メソッドを使用して、データを有効な JSON 形式の文字列に変換します。このメソッドには、次のものが必要です

Python のリクエストと BeautifulSoup を使用して PDF ファイルをダウンロードする Python のリクエストと BeautifulSoup を使用して PDF ファイルをダウンロードする Aug 30, 2023 pm 03:25 PM

Request と BeautifulSoup は、オンラインで任意のファイルまたは PDF をダウンロードできる Python ライブラリです。リクエスト ライブラリは、HTTP リクエストの送信と応答の受信に使用されます。 BeautifulSoup ライブラリは、応答で受け取った HTML を解析し、ダウンロード可能な PDF リンクを取得するために使用されます。この記事では、Python で Request と BeautifulSoup を使用して PDF をダウンロードする方法を学びます。依存関係のインストール Python で BeautifulSoup ライブラリと Request ライブラリを使用する前に、pip コマンドを使用してこれらのライブラリをシステムにインストールする必要があります。 request と BeautifulSoup および Request ライブラリをインストールするには、

Python での Requests モジュールの使用 Python での Requests モジュールの使用 Sep 02, 2023 am 10:21 AM

Requests は、さまざまな HTTP リクエストの送信に使用できる Python モジュールです。これは、URL でのパラメーターの受け渡しからカスタム ヘッダーの送信や SSL 検証まで、多くの機能を備えた使いやすいライブラリです。このチュートリアルでは、このライブラリを使用して Python で単純な HTTP リクエストを送信する方法を学習します。リクエストは Python バージョン 2.6 ~ 2.7 および 3.3 ~ 3.6 で使用できます。続行する前に、Requests は外部モジュールであるため、このチュートリアルの例を試す前にそれをインストールする必要があることを知っておく必要があります。ターミナルで次のコマンドを実行してインストールできます: pipinstallrequests モジュールがインストールされたら、次のコマンドを使用してインポートできます。

Python リクエストをインストールして使用する方法 Python リクエストをインストールして使用する方法 May 18, 2023 pm 07:49 PM

1. 準備作業 まず、requests ライブラリがインストールされていることを確認し、インストールされていない場合は、以下の手順でライブラリをインストールします。 pip のインストール Windows、Linux、Mac のいずれであっても、pip パッケージ管理ツールを通じてインストールできます。コマンド ラインで次のコマンドを実行して、リクエスト ライブラリのインストールを完了します。 pip3installrequests これは最も簡単なインストール方法であり、推奨されます。インストールの確認 ライブラリが正常にインストールされたかどうかを確認するには、コマンド ラインでテストできます: importrequestsres=requests.get('https://www.baidu

BeautifulSoup と Requests を使用して Python クローラーを使用して Web ページ データをクロールする方法 BeautifulSoup と Requests を使用して Python クローラーを使用して Web ページ データをクロールする方法 Apr 29, 2023 pm 12:52 PM

1. はじめに Web クローラーの実装原理は、次のステップに要約できます。 HTTP リクエストの送信: Web クローラーは、HTTP リクエスト (通常は GET リクエスト) をターゲット Web サイトに送信することによって、Web ページのコンテンツを取得します。 Python では、リクエスト ライブラリを使用して HTTP リクエストを送信できます。 HTML の解析: ターゲット Web サイトから応答を受信した後、クローラーは HTML コンテンツを解析して有用な情報を抽出する必要があります。 HTML は Web ページの構造を記述するために使用されるマークアップ言語であり、一連のネストされたタグで構成されます。クローラーは、これらのタグと属性に基づいて必要なデータを見つけて抽出できます。 Python では、BeautifulSoup や lxml などのライブラリを使用して HTML を解析できます。データ抽出: HTML を解析した後、

See all articles