84669 人學習
152542 人學習
20005 人學習
5487 人學習
7821 人學習
359900 人學習
3350 人學習
180660 人學習
48569 人學習
18603 人學習
40936 人學習
1549 人學習
1183 人學習
32909 人學習
我现在需要对一个网站的文章列表和列表里面的实际内容进行自动化数据采集,列表里面能够取得每个文章的id,而每个文章又是通过一个统一的接口(参数带上那个文章id即可获取到对应的json)里面又有一部分数据需要采集然后进行数据分析。
目前有什么比较成熟的框架或者轮子能够实现我的需求吗?(要多线程,而且可以7x24小时稳定运行,因为采集数量巨大)
另外问一下,采集到的内容如何存储(百万到千万),数据里面有一些数字数据,需要进行统计分析,用mysql可以吗?或者说还有其他更加成熟简便的轮子可以用吗?
闭关修行中......
如果是数据分析。map-reduce 做日志分析Dpark 可以解决PV和UV的分析Spark也是不错的哦。生产数据报表后可以用Pandas进行分析和展示。。
如果是数据采集。工具就很多了。
我怎么觉得你是要搞搜索引擎呀。。。量比较大。建议分布式的东西。用MYSQL不太现实。。。
少年, 你这不就是个爬虫的需求么?
爬虫框架: scrapy
数据库选取: 你这个量级用MySQL做好索引完全可以再战五百年
也可以尝试用MongoDB
如果是数据分析。
map-reduce 做日志分析
Dpark 可以解决PV和UV的分析
Spark也是不错的哦。
生产数据报表后可以用Pandas进行分析和展示。。
如果是数据采集。工具就很多了。
我怎么觉得你是要搞搜索引擎呀。。。量比较大。建议分布式的东西。用MYSQL不太现实。。。
少年, 你这不就是个爬虫的需求么?
爬虫框架: scrapy
数据库选取: 你这个量级用MySQL做好索引完全可以再战五百年
也可以尝试用MongoDB