hadoop - 使用python hdfs模块或者其他类似模块过滤HDFS上的日志日志内容
淡淡烟草味
淡淡烟草味 2017-06-13 09:24:45
0
1
1039

目前公司使用HDFS存储各个节点服务器上传的日志。因为历史遗留问题,所以日志比较混杂。就是各种数据都会存入日志中。一个日志文件200mb左右。有时候要过滤一些内容,则需要根据时间戳,然后使用hdfs 的cat命令,之后再grep关键字。再通过stdin输入到一个python脚本中,把相关的数据做一些处理。
现在我想把他做成输入要查询的时间、节点、关键字以及匹配模型,然后一条龙完成这个任务。这样就可以把这个小工具推向所有需求数据的人,而不是每次让运维来查询。
于是开始研究python的相关模块,这个hdfs可以上传下载,查询目录文件内容。但是到读这块,就比较麻烦了。
with client.read(hdfs_path=.....,其他参数)as reader:

content = reader.read()
然后再对content处理

这种方式并不可行,因为一次要匹配的内容实在太多,大概有几gb的数据,根本不可能全部读出来然后再做处理。肯定得在读的过程就进行筛选和处理

我尝试了for line in content,也匹配不出内容。
应该如何解决这个问题呢?难道用python把符合条件的文件路径记录下来,然后再执行HDFS命令,再把匹配的数据传入python?那样也显得太麻烦了,而且稳定性肯定不好

后来我看了一下,hdfs这个模块,创建客户端的时候,连的是hadoop 50070这个web管理页面,想了下是不是这个模块本身就不是为了做数据分析用的?希望各位能给点帮助

淡淡烟草味
淡淡烟草味

全部回复(1)
曾经蜡笔没有小新

多线程呢,并行计算呢?你这样一次性读几个Gb自然慢。既然是hadoop框架,用好mapreduce应该就行了吧。这玩意应该就不是为了快速而设计的。

热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板