Python3使用requests发闪存的方法
requests是一个python 轻量的http客户端库,相比python的标准库要优雅很多。接下来通过本文给大家介绍Python3使用requests发闪存的方法,一起学习吧。
使用以下命令安装requests
pip install requests
抓包工具中看到的http头和cookies会多很多项,其中一些是可以省略掉的。比如我省略掉了Content-Length。
import requests url='http://ing.cnblogs.com/ajax/ing/Publish' head={'Accept':'application/json, text/javascript, */*; q=0.01', 'Origin':'http://ing.cnblogs.com', 'X-Requested-With':'XMLHttpRequest', 'Content-Type':'application/json; charset=UTF-8', 'DNT':1, 'Referer':'http://ing.cnblogs.com/', 'Accept-Encoding':'gzip, deflate', 'Accept-Language':'zh-CN,zh;q=0.8,en;q=0.6', } #session 通过抓包工具,或者cookies工具可以得到. cookies={'.CNBlogsCookie':'67834BD16E61A87726AF2203F849339E8DEFF67BC4A453FDG830AC373CAC83BAAF2312B975279092095A0E143400E82BBEE189BD5CB8826CA6A6E836F69EC5783C410C2B815A833D5816CEB5B457B159A38F'}#←_←填你自己的session data={"content":"[天上的星星不说话]python大法好{}","publicFlag":1} s=requests.Session() for r in range(1,122): data['content']="[天上的星星不说话]python大法好{}".format(r) post=s.post(url,data,cookies=cookies) print(post.text)
以下代码用于删除闪存
import requests import re def timeit(fn): import time def v(): start=time.clock() fn() end=time.clock()-start print(fn.__name__,"运行耗时:",end) return v url='http://ing.cnblogs.com/ajax/ing/GetIngList?IngListType=my&PageIndex=1&PageSize=30' head={'Accept':'application/json, text/javascript, */*; q=0.01', 'Origin':'http://ing.cnblogs.com', 'X-Requested-With':'XMLHttpRequest', 'Content-Type':'application/json; charset=UTF-8', 'DNT':1, 'Referer':'http://ing.cnblogs.com/mobile/', 'Accept-Encoding':'gzip, deflate', 'Accept-Language':'zh-CN,zh;q=0.8,en;q=0.6', } cookies={'.CNBlogsCookie':'989A8F9SF9SF989S982938492849823498239489284989SDF89S89F8E98F9S88E9R89WER898R989R23423J4K2529R8FS7R2K48978S7DF8'} s=requests.Session() @timeit def geting(): data={'ingId':'878581'} r=s.get(url,cookies=cookies) text=r.text ingid=re.findall('''feed_content_(\d+)(.+?天上的星星不说话.+?DelIng)''',text,re.DOTALL) #ingid=re.findall('''feed_content_(\d+)''',text) #print(ingid) notlucky=[a for a,b in ingid if 'ing_icon_lucky' not in b] for x in notlucky: data['ingId']=x try: sdel=s.post("http://ing.cnblogs.com/ajax/ing/del",cookies=cookies,data=data) print(sdel.text) except: pass for xxx in range(18): geting()

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











컬과 Pythonrequests는 모두 HTTP 요청을 보내는 강력한 도구입니다. 컬은 터미널에서 직접 요청을 보낼 수 있는 명령줄 도구인 반면, Python의 요청 라이브러리는 Python 코드에서 요청을 보내는 보다 프로그래밍적인 방법을 제공합니다. 컬을 Pythonrequestscurl 명령으로 변환하는 기본 구문은 다음과 같습니다. 컬[OPTIONS]URL 컬 명령을 Python 요청으로 변환할 때 옵션과 URL을 Python 코드로 변환해야 합니다. 다음은 컬POST 명령의 예입니다: 컬-XPOST https://example.com/api

1. 요청 라이브러리를 설치합니다. 학습 과정에서는 Python 언어를 사용하기 때문에 Python 3.8을 미리 설치해야 합니다. Python --version 명령을 실행하여 설치한 Python 버전을 확인할 수 있습니다. Python 3.X 이상을 설치하려면 Python을 설치한 후 다음 명령을 통해 요청 라이브러리를 직접 설치할 수 있습니다. pipinstallrequestsPs: Alibaba, Douban 등 국내 pip 소스로 전환할 수 있는데, 그 기능을 시연하기 위해 간단한 웹사이트를 시뮬레이션하기 위해 nginx를 사용했습니다. 다운로드 후 루트 디렉터리에서 nginx.exe 프로그램을 실행하면 됩니다.

요청은 urllib2의 모든 기능을 상속합니다. Requests는 HTTP 연결 지속성 및 연결 풀링을 지원하고, 쿠키를 사용하여 세션을 유지하도록 지원하고, 파일 업로드를 지원하고, 응답 콘텐츠의 인코딩 자동 결정을 지원하고, 국제화된 URL 및 POST 데이터의 자동 인코딩을 지원합니다. 설치 방법은 pip를 사용하여 설치 $pipinstallrequestsGET 요청 기본 GET 요청(헤더 매개 변수 및 parmas 매개 변수) 1. 가장 기본적인 GET 요청은 get 메서드 'response=requests.get("http://www.baidu.com/)을 직접 사용할 수 있습니다. "

Python은 게시물 요청을 보내는 브라우저를 시뮬레이션합니다. importrequests 형식 request.postrequest.post(url,data,json,kwargs)#post 요청 형식 request.get(url,params,kwargs)#get 요청과 비교하여 게시물 요청 보내기 매개변수는 다음과 같이 나뉩니다. form( x-www-form-urlencoded) json(application/json) 데이터 매개변수는 사전 형식과 문자열 형식을 지원합니다. 사전 형식은 json.dumps() 메서드를 사용하여 데이터를 합법적인 json 형식 문자열로 변환합니다.

Request 및 BeautifulSoup는 모든 파일이나 PDF를 온라인으로 다운로드할 수 있는 Python 라이브러리입니다. 요청 라이브러리는 HTTP 요청을 보내고 응답을 받는 데 사용됩니다. BeautifulSoup 라이브러리는 응답으로 수신된 HTML을 구문 분석하고 다운로드 가능한 PDF 링크를 얻는 데 사용됩니다. 이 기사에서는 Python에서 Request 및 BeautifulSoup을 사용하여 PDF를 다운로드하는 방법을 알아봅니다. 종속성 설치 Python에서 BeautifulSoup 및 Request 라이브러리를 사용하기 전에 pip 명령을 사용하여 시스템에 이러한 라이브러리를 설치해야 합니다. 요청과 BeautifulSoup 및 요청 라이브러리를 설치하려면,

Requests는 다양한 HTTP 요청을 보내는 데 사용할 수 있는 Python 모듈입니다. URL의 매개변수 전달부터 사용자 정의 헤더 전송 및 SSL 확인에 이르기까지 다양한 기능을 갖춘 사용하기 쉬운 라이브러리입니다. 이 튜토리얼에서는 이 라이브러리를 사용하여 Python에서 간단한 HTTP 요청을 보내는 방법을 배웁니다. Python 버전 2.6~2.7 및 3.3~3.6에서 요청을 사용할 수 있습니다. 계속하기 전에 Requests가 외부 모듈이라는 점을 알아야 하므로 이 튜토리얼의 예제를 시도하기 전에 이를 설치해야 합니다. 터미널에서 다음 명령을 실행하여 설치할 수 있습니다. pipinstallrequests 모듈이 설치되면 다음 명령을 사용하여 가져올 수 있습니다.

1. 준비 작업 먼저 요청 라이브러리가 설치되어 있는지 확인해야 합니다. 설치되어 있지 않은 경우 아래 단계에 따라 라이브러리를 설치하십시오. pip 설치 Windows, Linux 또는 Mac이든 pip 패키지 관리 도구를 통해 설치할 수 있습니다. 명령줄에서 다음 명령을 실행하여 요청 라이브러리 설치를 완료합니다. pip3installrequests 이는 가장 간단한 설치 방법이며 권장됩니다. 설치 확인 라이브러리가 성공적으로 설치되었는지 확인하려면 명령줄에서 테스트할 수 있습니다: importrequestsres=requests.get('https://www.baidu

1. 소개 웹 크롤러의 구현 원리는 다음 단계로 요약할 수 있습니다. HTTP 요청 보내기: 웹 크롤러는 대상 웹 사이트에 HTTP 요청(일반적으로 GET 요청)을 보내 웹 콘텐츠를 얻습니다. Python에서는 요청 라이브러리를 사용하여 HTTP 요청을 보낼 수 있습니다. HTML 구문 분석: 대상 웹사이트로부터 응답을 받은 후 크롤러는 유용한 정보를 추출하기 위해 HTML 콘텐츠를 구문 분석해야 합니다. HTML은 웹페이지의 구조를 설명하는 데 사용되는 마크업 언어입니다. 이는 일련의 중첩된 태그로 구성됩니다. 크롤러는 이러한 태그와 속성을 기반으로 필요한 데이터를 찾고 추출할 수 있습니다. Python에서는 BeautifulSoup 및 lxml과 같은 라이브러리를 사용하여 HTML을 구문 분석할 수 있습니다. 데이터 추출: HTML을 파싱한 후,
