设为首页收藏本站

Crossin的编程教室

 找回密码
 立即加入
查看: 6014|回复: 0
打印 上一主题 下一主题

Python 抓取网页乱码原因分析

[复制链接]

169

主题

1

好友

733

积分

版主

Rank: 7Rank: 7Rank: 7

跳转到指定楼层
楼主
发表于 2018-5-31 23:06:34 |只看该作者 |倒序浏览

在用 python2 抓取网页的时候,经常会遇到抓下来的内容显示出来是乱码。

发生这种情况的最大可能性就是编码问题:运行环境的字符编码和网页的字符编码不一致。

比如,在 windows 的控制台(gbk)里抓取了一个 utf-8 编码的网站。或者,在 Mac / Linux 的终端(utf-8)里抓取了一个 gbk 编码的网站。因为多数网站采用 utf-8 编码,而不少人又是用 windows,所有这种情况相当常见。

如果你发现你抓下来的内容,看上去英文、数字、符号都是对的,但中间夹杂了一些乱码,那基本可以断定是此情况。

解决这个问题的办法就是,把结果先按网页的编码方式 decode 解码成 unicode,再输出。如果不确定网页的编码,可参照以下代码:
  1. import urllib
  2. req = urllib.urlopen("http://some.web.site")
  3. info = req.info()
  4. charset = info.getparam('charset')
  5. content = req.read()
  6. print content.decode(charset, 'ignore')
复制代码
'ignore' 参数的作用是忽略掉无法解码的字符。

不过这种方法不总是有效。还有种方式就是通过正则直接匹配网页代码中的编码设置:
  1. <meta http-equiv=Content-Type content="text/html;charset=utf-8">
复制代码
除了编码问题造成乱码之外,还有种常被忽视的情况,就是目标网页启用了 gzip 压缩。压缩后的网页传输数据少了,打开速度更快。在浏览器中打开时,浏览器会根据网页的 header 信息自动做解压。但直接用代码抓取则不会。因此很可能就被搞糊涂了,为什么明明打开网页地址是对的,但程序抓取就不行。连我自己也曾经被这个问题坑过。

这种情况的表现是抓取的内容几乎全是乱码,甚至无法显示。

要判断网页是否启用了压缩并对其解压,可参考以下代码:
  1. import urllib
  2. import gzip
  3. from StringIO import StringIO
  4. req = urllib.urlopen("http://some.web.site")
  5. info = req.info()
  6. encoding = info.getheader('Content-Encoding')
  7. content = req.read()
  8. if encoding == 'gzip':
  9.     buf = StringIO(content)
  10.     gf = gzip.GzipFile(fileobj=buf)
  11.     content = gf.read()
  12. print content
复制代码
在我们教室的编程实例 查天气系列(点击查看) 中,这两个问题困扰了相当多人。在此特别讲解一下。

最后,还有个“利器”要介绍一下。如果一开始就用它,你甚至不知道还有上述两个问题的存在。

这就是 requests 模块。

同样抓取网页,只需要:
  1. import requests
  2. print requests.get("http://some.web.site").text
复制代码
没有编码问题,没有压缩问题。
This is why I love Python.
至于如何安装 requests 模块,请参考之前的文章:

如何安装 Python 的第三方模块 - Crossin的编程教室 - 知乎专栏
  1. pip install requests
复制代码
其他文章及回答:

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即加入

QQ|手机版|Archiver|Crossin的编程教室 ( 苏ICP备15063769号  

GMT+8, 2024-11-22 00:25 , Processed in 0.022009 second(s), 22 queries .

Powered by Discuz! X2.5

© 2001-2012 Comsenz Inc.

回顶部