Python3使用requests发闪存的方法
requests是一个python 轻量的http客户端库,相比python的标准库要优雅很多。接下来通过本文给大家介绍Python3使用requests发闪存的方法,一起学习吧。
使用以下命令安装requests
pip install requests
抓包工具中看到的http头和cookies会多很多项,其中一些是可以省略掉的。比如我省略掉了Content-Length。
import requests url='http://ing.cnblogs.com/ajax/ing/Publish' head={'Accept':'application/json, text/javascript, */*; q=0.01', 'Origin':'http://ing.cnblogs.com', 'X-Requested-With':'XMLHttpRequest', 'Content-Type':'application/json; charset=UTF-8', 'DNT':1, 'Referer':'http://ing.cnblogs.com/', 'Accept-Encoding':'gzip, deflate', 'Accept-Language':'zh-CN,zh;q=0.8,en;q=0.6', } #session 通过抓包工具,或者cookies工具可以得到. cookies={'.CNBlogsCookie':'67834BD16E61A87726AF2203F849339E8DEFF67BC4A453FDG830AC373CAC83BAAF2312B975279092095A0E143400E82BBEE189BD5CB8826CA6A6E836F69EC5783C410C2B815A833D5816CEB5B457B159A38F'}#←_←填你自己的session data={"content":"[天上的星星不说话]python大法好{}","publicFlag":1} s=requests.Session() for r in range(1,122): data['content']="[天上的星星不说话]python大法好{}".format(r) post=s.post(url,data,cookies=cookies) print(post.text)
以下代码用于删除闪存
import requests import re def timeit(fn): import time def v(): start=time.clock() fn() end=time.clock()-start print(fn.__name__,"运行耗时:",end) return v url='http://ing.cnblogs.com/ajax/ing/GetIngList?IngListType=my&PageIndex=1&PageSize=30' head={'Accept':'application/json, text/javascript, */*; q=0.01', 'Origin':'http://ing.cnblogs.com', 'X-Requested-With':'XMLHttpRequest', 'Content-Type':'application/json; charset=UTF-8', 'DNT':1, 'Referer':'http://ing.cnblogs.com/mobile/', 'Accept-Encoding':'gzip, deflate', 'Accept-Language':'zh-CN,zh;q=0.8,en;q=0.6', } cookies={'.CNBlogsCookie':'989A8F9SF9SF989S982938492849823498239489284989SDF89S89F8E98F9S88E9R89WER898R989R23423J4K2529R8FS7R2K48978S7DF8'} s=requests.Session() @timeit def geting(): data={'ingId':'878581'} r=s.get(url,cookies=cookies) text=r.text ingid=re.findall('''feed_content_(\d+)(.+?天上的星星不说话.+?DelIng)''',text,re.DOTALL) #ingid=re.findall('''feed_content_(\d+)''',text) #print(ingid) notlucky=[a for a,b in ingid if 'ing_icon_lucky' not in b] for x in notlucky: data['ingId']=x try: sdel=s.post("http://ing.cnblogs.com/ajax/ing/del",cookies=cookies,data=data) print(sdel.text) except: pass for xxx in range(18): geting()

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









curl と Pythonrequests は両方とも、HTTP リクエストを送信するための強力なツールです。 curl はターミナルから直接リクエストを送信できるコマンドライン ツールですが、Python のリクエスト ライブラリは、Python コードからリクエストを送信するためのよりプログラム的な方法を提供します。 curl を Pythonrequestscurl コマンドに変換するための基本的な構文は次のとおりです。curl[OPTIONS]URLcurl コマンドを Python リクエストに変換する場合、オプションと URL を Python コードに変換する必要があります。これは、curlPOST コマンドの例です:curl-XPOST https://example.com/api

1. リクエスト ライブラリをインストールします。学習プロセスでは Python 言語を使用するため、Python を事前にインストールする必要があります。私は Python 3.8 をインストールしました。インストールした Python のバージョンは、コマンド python --version を実行することで確認できます。 Python 3.X 以降をインストールします。 Python をインストールした後、次のコマンドを使用してリクエスト ライブラリを直接インストールできます。 pipinstallrequestsPs: Alibaba や Douban などの国内の pip ソースに切り替えることができ、高速です。機能を実証するために、nginx を使用して簡単な Web サイトをシミュレートしました。ダウンロード後、ルート ディレクトリで nginx.exe プログラムを実行するだけです。

リクエストは urllib2 のすべての機能を継承します。リクエストは、HTTP 接続の永続性と接続プーリング、セッションを維持するための Cookie の使用、ファイルのアップロード、応答コンテンツのエンコードの自動決定、国際化された URL と POST データの自動エンコードをサポートします。インストール方法は、pip を使用してインストールします。 $pipinstallrequestsGET リクエスト 基本的な GET リクエスト (ヘッダー パラメーターとパラメータ パラメーター) 1. 最も基本的な GET リクエストは、get メソッド 'response=requests.get("http://www.baidu.com/ "

Python はブラウザーによるポスト リクエストの送信をシミュレートします importrequests 形式 request.postrequest.post(url,data,json,kwargs)#ポスト リクエストの形式 request.get(url,params,kwargs)#get リクエストと比較して、ポスト リクエストの送信パラメータは次のように分割されますForms ( x-www-form-urlencoded) json (application/json) データ パラメーターは、辞書形式と文字列形式をサポートしています。辞書形式は、 json.dumps() メソッドを使用して、データを有効な JSON 形式の文字列に変換します。このメソッドには、次のものが必要です

Request と BeautifulSoup は、オンラインで任意のファイルまたは PDF をダウンロードできる Python ライブラリです。リクエスト ライブラリは、HTTP リクエストの送信と応答の受信に使用されます。 BeautifulSoup ライブラリは、応答で受け取った HTML を解析し、ダウンロード可能な PDF リンクを取得するために使用されます。この記事では、Python で Request と BeautifulSoup を使用して PDF をダウンロードする方法を学びます。依存関係のインストール Python で BeautifulSoup ライブラリと Request ライブラリを使用する前に、pip コマンドを使用してこれらのライブラリをシステムにインストールする必要があります。 request と BeautifulSoup および Request ライブラリをインストールするには、

Requests は、さまざまな HTTP リクエストの送信に使用できる Python モジュールです。これは、URL でのパラメーターの受け渡しからカスタム ヘッダーの送信や SSL 検証まで、多くの機能を備えた使いやすいライブラリです。このチュートリアルでは、このライブラリを使用して Python で単純な HTTP リクエストを送信する方法を学習します。リクエストは Python バージョン 2.6 ~ 2.7 および 3.3 ~ 3.6 で使用できます。続行する前に、Requests は外部モジュールであるため、このチュートリアルの例を試す前にそれをインストールする必要があることを知っておく必要があります。ターミナルで次のコマンドを実行してインストールできます: pipinstallrequests モジュールがインストールされたら、次のコマンドを使用してインポートできます。

1. 準備作業 まず、requests ライブラリがインストールされていることを確認し、インストールされていない場合は、以下の手順でライブラリをインストールします。 pip のインストール Windows、Linux、Mac のいずれであっても、pip パッケージ管理ツールを通じてインストールできます。コマンド ラインで次のコマンドを実行して、リクエスト ライブラリのインストールを完了します。 pip3installrequests これは最も簡単なインストール方法であり、推奨されます。インストールの確認 ライブラリが正常にインストールされたかどうかを確認するには、コマンド ラインでテストできます: importrequestsres=requests.get('https://www.baidu

1. はじめに Web クローラーの実装原理は、次のステップに要約できます。 HTTP リクエストの送信: Web クローラーは、HTTP リクエスト (通常は GET リクエスト) をターゲット Web サイトに送信することによって、Web ページのコンテンツを取得します。 Python では、リクエスト ライブラリを使用して HTTP リクエストを送信できます。 HTML の解析: ターゲット Web サイトから応答を受信した後、クローラーは HTML コンテンツを解析して有用な情報を抽出する必要があります。 HTML は Web ページの構造を記述するために使用されるマークアップ言語であり、一連のネストされたタグで構成されます。クローラーは、これらのタグと属性に基づいて必要なデータを見つけて抽出できます。 Python では、BeautifulSoup や lxml などのライブラリを使用して HTML を解析できます。データ抽出: HTML を解析した後、
