如何评价可以自动更换 User-Agent 的爬虫设计?
我写了个爬虫爬了一个网站一堆数据,自动换UA的,感觉很赞
不过很怕被目标网站给封了,
各位大神给些更好的策略吧~
回复内容:
爬虫自动换User-Agent在代码实现上只需要一句就够了,并不是什么高难度的技术活。爬虫为什么要换不同的User-Agent呢,无非就是为了模拟浏览器,让服务器不容易识别出自己是爬虫。对于爬虫,其实上上策是爬网站之前先去读一下网站的『robots.txt』文件,看看网站开发者(或网站主人)允许你爬什么不允许你爬什么,然后按照主人的意愿,别做出格的事情。这着实是一种情怀。
当然,其实大部分情况下我们还是希望可以不论网站主人答不答应都爬下我们需要的内容,这就需要用到一些反反爬虫的机制了。题主提到的换U-A其实就是一种方法,当然仅仅换U-A对于大部分有反爬虫机制的网站是不够的。
以下是几种简单常见的反爬虫机制和解决办法。
最简单的自然就是什么也不做,这样的网站爬起来就非常简单了,不赘述。
稍微拦一下的,可能就会校验下User-Agent了,U-A的作用就是标识你是什么浏览器/Client等等。一般编程语言内置的网络库或者第三方网络库,会将U-A设置成自己的标识,对于这样的情况网站开发者就能够很容易拦截了。于是就有了题主所说的换U-A,其实就是将库默认的U-A替换为常用浏览器的U-A,以达到干扰服务器识别的作用。
再复杂一点的,可能就不只是通过浏览器标识来识别了,访问者的IP也是标识之一。这样的反爬虫机制有一个问题就是,如果从同一个IP出去的真实请求很多,比较容易误判为爬虫。一般服务器会根据IP+Cookie来识别每个用户。要爬取这样的网站,一个比较简单且有效的方案是换代理。很多网站提供免费代理,抓下它们,然后在发请求通过代理(最好是高匿代理),就可以搞定大部分网站了。值得注意的是代理的有效时间一般比较短,所以爬代理之后应该有一个有效的机制校验已有代理的有效性。
更复杂的网站,就可能会通过账号来限制了。这样的网站一般在注册账号登录之前并不能完整浏览需要的资讯,必须要注册并登录后才能看到。这样的网站就需要注册一批账号了,在一个账号不可用之后更换新的账号。可以写一个脚本来批量注册账号。当然注册的时候一般会伴随验证码,对于简单的验证码可以Google以下OCR找找资料,复杂的验证码就手输或者购买人肉打码服务吧。
更加复杂的,就是一些社交网站了。社交网站大多非常封闭,拿新浪微博为例,微博在登录时需要提交很多参数,登录后请求的页面也不是最终的源码,还需要自己解析一遍。对于有大量js渲染的网页,一般复杂但是容易(是的,这两个词不矛盾)的,可以自己解析,复杂但是不容易的就通过一些库去做吧(比如Python的selenium等)。
........
中间还有很多就不总结了,最后讲一种情况。大概这属于爬虫界的无解难题了,就是请求所有的资源都需要付费。是的,这类网站你需要在你的账户里充值,然后每次请求都是付费的,他们才不关心你是机器还是人,反正收费嘛。
大概就是这样,时间比较紧,总结中很多漏洞,请见谅。 。。换了UA有啥用。。又不是识别不出你来。。就好像你在超市领赠品,每人只能领一次,你换个衣服再去。。。人家不但认得出来,还觉得你滑稽 感觉LZ这个防反爬策略太low...
这种防反爬的策略我还没毕业就用了,对一些大的网站根本没用,没几分钟就被抓出来禁了。
频繁换IP兴许还有点用,毕竟一般的大站不会封一大段,排除一些疯了的会封整个A段或者整个B段导致整个一片都没有数据。
还有你拿下来的数据可能是XX宽带缓存的,你看下以前有个提问,是调过最难调的BUG,里面就是这样的,XX宽带会缓存目标网站URL的动态数据,蛋疼得不得了,所以你拿的数据有可能一点用处都没有,早就过期了。
你最好再想想别的,从其他角度欺骗一下服务器,没事多看看别人的东西怎么爬的。
你这样随便一个人都能写的,github上很多的,自己去搜搜看。 至少换个 ip 吧。。。 自动换user-agent不是标配么。。。。 今天发现一个爬虫不停变着 UA 在爬我们,然后我把它 IP 封了,感觉很赞 就凭你问这个问题,换ip、换电脑、搞高仿模拟,等等等等都没用的。 用代理IP要比这个策略好 你以为换个马甲服务器就不认识你了 换UA 无聊 又 2B

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

本教程演示如何使用Python处理Zipf定律这一统计概念,并展示Python在处理该定律时读取和排序大型文本文件的效率。 您可能想知道Zipf分布这个术语是什么意思。要理解这个术语,我们首先需要定义Zipf定律。别担心,我会尽量简化说明。 Zipf定律 Zipf定律简单来说就是:在一个大型自然语言语料库中,最频繁出现的词的出现频率大约是第二频繁词的两倍,是第三频繁词的三倍,是第四频繁词的四倍,以此类推。 让我们来看一个例子。如果您查看美国英语的Brown语料库,您会注意到最频繁出现的词是“th

处理嘈杂的图像是一个常见的问题,尤其是手机或低分辨率摄像头照片。 本教程使用OpenCV探索Python中的图像过滤技术来解决此问题。 图像过滤:功能强大的工具 图像过滤器

本文解释了如何使用美丽的汤库来解析html。 它详细介绍了常见方法,例如find(),find_all(),select()和get_text(),以用于数据提取,处理不同的HTML结构和错误以及替代方案(SEL)

Python是数据科学和处理的最爱,为高性能计算提供了丰富的生态系统。但是,Python中的并行编程提出了独特的挑战。本教程探讨了这些挑战,重点是全球解释

本文比较了Tensorflow和Pytorch的深度学习。 它详细介绍了所涉及的步骤:数据准备,模型构建,培训,评估和部署。 框架之间的关键差异,特别是关于计算刻度的

本教程演示了在Python 3中创建自定义管道数据结构,利用类和操作员超载以增强功能。 管道的灵活性在于它能够将一系列函数应用于数据集的能力,GE

Python 对象的序列化和反序列化是任何非平凡程序的关键方面。如果您将某些内容保存到 Python 文件中,如果您读取配置文件,或者如果您响应 HTTP 请求,您都会进行对象序列化和反序列化。 从某种意义上说,序列化和反序列化是世界上最无聊的事情。谁会在乎所有这些格式和协议?您想持久化或流式传输一些 Python 对象,并在以后完整地取回它们。 这是一种在概念层面上看待世界的好方法。但是,在实际层面上,您选择的序列化方案、格式或协议可能会决定程序运行的速度、安全性、维护状态的自由度以及与其他系

Python的statistics模块提供强大的数据统计分析功能,帮助我们快速理解数据整体特征,例如生物统计学和商业分析等领域。无需逐个查看数据点,只需查看均值或方差等统计量,即可发现原始数据中可能被忽略的趋势和特征,并更轻松、有效地比较大型数据集。 本教程将介绍如何计算平均值和衡量数据集的离散程度。除非另有说明,本模块中的所有函数都支持使用mean()函数计算平均值,而非简单的求和平均。 也可使用浮点数。 import random import statistics from fracti
