网页爬虫 - python中使用lxml解析中文网页出现编码问题,如何解决?
大家讲道理
大家讲道理 2017-04-18 09:13:54
0
1
507

问题

爬取IT之家网页http://it.ithome.com/category...
在使用requests.get得到网页后用lxml解析,但是打印出来后中文无法正常显示,
而打印requests.get得到的内容却可以正常显示。求原因及解决方法(BeautifulSoup可正常解析)。

代码

# coding: utf-8
import requests
from lxml import etree
from io import StringIO

init_url = 'http://it.ithome.com/category/31_4.html'
init_page = requests.get(init_url).text
print init_page.encode('utf-8')


parser = etree.HTMLParser()
html = etree.parse(StringIO(init_page), parser)
result = etree.tostring(html, pretty_print=True, method="html")
print result


news_titles = html.xpath('//p[@class="block"]/h2')
print len(news_titles)
for news_title in news_titles:
    print news_title.text

输出结果

  • 使用print init_page.encode('utf-8')能正常输出

  • 使用print result无法正常显示中文

大家讲道理
大家讲道理

光阴似箭催人老,日月如移越少年。

全部回复(1)
PHPzhong

这句加上 encoding 参数

result = etree.tostring(html, encoding="gb2312", pretty_print=True, method="html")

我是Windows,所以用的gb2312,测试能正常显示, 如果你是linux, 改成utf-8

热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板