Python专题教程:BeautifulSoup详解 版本:v1.0 Crifan Li 摘要 本文主要介绍了Python中的第三方库,BeautifulSoup,主要用于处理HTML,此处简介什么 BeautifulSoup,以及BeautifulSoup中常用的各种函数,比如find等等。 [提 本文提供多种格式供: 示] 在线阅读 HTML HTMLs PDF CHM TXT RTF WEBHELP 下载(7zip压缩包) HTML HTMLs PDF CHM TXT RTF WEBHELP HTML版本的在线地址为: http://www.crifan.com/files/doc/docbook/python_topic_beautifulsoup/release/ html/python_topic_beautifulsoup.html 有任何意见,建议,提交bug等,都欢迎去讨论组发帖讨论: http://www.crifan.com/bbs/categories/python_topic_beautifulsoup/ 2013-09-05 ┌─────────────────────────────────────────────────────────────────────────────┐ │修订历史 │ ├────────────────────────────┬────────────────────────────────────┬───────────┤ │修订 1.0 │2013-09-05 │crl │ ├────────────────────────────┴────────────────────────────────────┴───────────┤ │ 1. 将之前在Python语言总结中的BeautifulSoup相关的内容都整理过来了 │ │ 2. 把之前写的各种BeautifulSoup相关的帖子的链接也整理过来了 │ └─────────────────────────────────────────────────────────────────────────────┘ 版权 © 2013 Crifan, http://crifan.com 本文章遵从:署名-非商业性使用 2.5 中国大陆(CC BY-NC 2.5) ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 目录 前言 1. 本文目的 2. 待完成 1. BeautifulSoup简介 1.1. BeautifulSoup模块简介 2. BeautifulSoup中的find函数详解 2.1. BeautifulSoup中使用find,findAll等函数时,除了字符串外,也可以用正则表 达式作为参数 3. BeautifulSoup使用注意事项 3.1. BeautifulSoup的Tag的属性 3.2. BeautifulSoup有时候会遇到非法的,不支持的html源码而导致无法解析或无法 正常解析html 参考书目 前言 目录 1. 本文目的 2. 待完成 1. 本文目的 本文目的在于,介绍Python中第三方的,用于处理HTML(和xml)的库,BeautifulSoup 使得看完后,就明白BeautifulSoup是啥,以及基本的使用方法, 以及避免出现一些常见的错误 2. 待完成 将下面帖子内容整理合并进来: • 【教程】Python中第三方的用于解析HTML的库:BeautifulSoup • 【总结】Python的第三方库BeautifulSoup的使用心得 • 【整理】关于Python中的html处理库函数BeautifulSoup使用注意事项 • 【已解决】BeautifulSoup已经获得了Unicode的Soup但是print出来却是乱码 • 【已解决】Python3中,已经安装了bs4(Beautifulsoup 4)了,但是却还是出错: ImportError: No module named BeautifulSoup • 【教程】BeautifulSoup中使用正则表达式去搜索多种可能的关键字 • 【整理】用BeautifulSoup查找属性值未知的标签 第 1 章 BeautifulSoup简介 目录 1.1. BeautifulSoup模块简介 摘要 1.1. BeautifulSoup模块简介 Python的BeautifulSoup模块,可以帮助你实现HTML和XML的解析 先说一下,一般写网页爬虫,即抓取网页的html源码等内容,然后分析,提取相应的内容 。 这种分析html内容的工作,如果只是用普通的正则表达式re模块去一点点匹配的话,对于 内容简单点的网页分析,还是基本够用。 但是对于工作量很大,要分析的内容很繁杂的html,那么用re模块,就会发现无法实现, 或很难实现。 而使用beautifulsoup模块去帮你实现分析html源码的工作的话,你就会发现,事情变得如 此简单,极大地提高了分析html源码的效率。 比如我这里的想要实现博客搬家之前,想要抓取对应的博客中的内容,就需要先去打开一 个URL地址,去解析其中的内容,找到第一个固定链接,然后一点点分析HTML中的内容,抓 去下来,导出wordpress所需要的xml文件等。 这其中对于HTML的分析,就可以利用BeautifulSoup这个模块了。 更多内容参见"Beautiful Soup 中文文档" 其中,原先链接: http://www.crummy.com/software/BeautifulSoup/documentation.zh.html 已失效,最新的可用的地址是: http://www.crummy.com/software/BeautifulSoup/bs3/documentation.zh.html 想要下载的话,这是BeautifulSoup的官网,其中可以下载到最新的版本: http://www.crummy.com/software/BeautifulSoup/ 第 2 章 BeautifulSoup中的find函数详解 目录 2.1. BeautifulSoup中使用find,findAll等函数时,除了字符串外,也可以用正则表达式 作为参数 摘要 2.1. BeautifulSoup中使用find,findAll等函数时,除了字符串外,也可以用正则表达式 作为参数 在使用Beautifulsoup的find/finaAll等函数时候,常见用法都是传递字符串本身,比如: foundIncontentTitle = lastItem.find(attrs={"class":"a-incontent a-title"}); 可以找到: I/O-Programming_HOWTO(上)zz 中的值。 但是却无法匹配: 为什么幸运的人总幸运倒霉的人老倒霉-1 斯宾塞·约翰逊著 即,class的值是:a-incontent a-title cs-contentblock-hoverlink,而不仅仅是 a-incontent a-title 此时,如果想要匹配才class,使用传统的方法,则需要写两个find去匹配,而后来得知, 原来find/findAll等函数的参数中,也可以使用正则表达式的,所以就用了: titleP = re.compile("a-incontent a-title(\s+?\w+)?");# also match a-incontent a-title cs-contentblock-hoverlink foundIncontentTitle = lastItem.find(attrs={"class":titleP}); 就可以一次性匹配,a-incontent a-title,a-incontent a-title cs-contentblock-hoverlink,以及未来更多可能的a-incontent a-title xxx了。 感叹一句,Beautifulsoup,做的的确很好用,特此感谢作者。 第 3 章 BeautifulSoup使用注意事项 目录 3.1. BeautifulSoup的Tag的属性 3.2. BeautifulSoup有时候会遇到非法的,不支持的html源码而导致无法解析或无法正常 解析html 摘要 3.1. BeautifulSoup的Tag的属性 BeautifulSoup处理这种html源码: 版权声明 后,是可以通过 soup.a['href'] 去获得对应的href属性值的。 但是,想要去获得当前的某个未知的BeautifulSoup.Tag中,一共存在多少个属性,以及每 个属性的值的时候,却不知道如何下手了。 比如对于如下html源码:

......

想要得知,一共有两个属性,分别是class和style,然后就可以通过上面的方法,去获得 对应的属性值了。 对此问题,虽然看到了官网的解释:Tags的属性中的“你可以将Tag看成字典来访问标签的 属性” 但是还是无法通过: if("class" in soup) 的方式去判断soup中是否存在class属性,因为此时soup是Beautifulsoup.Tag类型变量, 而不是dict变量。 并且,如果去强制将soup转换成为dict变量: soupDict = dict(soup) 会报错的。 最后,还是无意间发现,原来Beautifulsoup.Tag是有个attrs属性的,其可以获得对应的 元组列表,每一个元组是对应属性名和属性值: attrsList = soup.attrs; print "attrsList=",attrsList; attrsList= [(u'class', u'cc-lisence'), (u'style', u'line-height:180%;')] 这样,就可以从元组列表中,自己去转换,获得属性的列表或字典变量了,就可以接着按 照自己意愿去处理了。 [提 提示 示] 另外,此处也通过 soup.name 获得了该tag的名字 而想要获得整个soup变量所有的属性和方法的话,可以用经典的dir去打印出来: print "dir(soup)=",dir(soup); 此处的打印输出为: dir(soup)= ['BARE_AMPERSAND_OR_BRACKET', 'XML_ENTITIES_TO_SPECIAL_CHARS', 'XML_SPECIAL_CHARS_TO_ENTITIES', '__call__', '__contains__', '__delitem__', '__doc__', '__eq__', '__getattr__', '__getitem__', '__init__', '__iter__', '__len__', '__module__', '__ne__', '__nonzero__', '__repr__', '__setitem__', '__str__', '__unicode__', '_convertEntities', '_findAll', '_findOne', '_getAttrMap', '_invert', '_lastRecursiveChild', '_sub_entity', 'append', 'attrMap', 'attrs', 'childGenerator', 'containsSubstitutions', 'contents', 'convertHTMLEntities', 'convertXMLEntities', 'decompose', 'escapeUnrecognizedEntities', 'extract', 'fetch', 'fetchNextSiblings', 'fetchParents', 'fetchPrevious', 'fetchPreviousSiblings', 'fetchText', 'find', 'findAll', 'findAllNext', 'findAllPrevious', 'findChild', 'findChildren', 'findNext', 'findNextSibling', 'findNextSiblings', 'findParent', 'findParents', 'findPrevious', 'findPreviousSibling', 'findPreviousSiblings', 'first', 'firstText', 'get', 'has_key', 'hidden', 'insert', 'isSelfClosing', 'name', 'next', 'nextGenerator', 'nextSibling', 'nextSiblingGenerator', 'parent', 'parentGenerator', 'parserClass', 'prettify', 'previous', 'previousGenerator', 'previousSibling', 'previousSiblingGenerator', 'recursiveChildGenerator', 'renderContents', 'replaceWith', 'setup', 'substituteEncoding', 'toEncoding'] 有需要的话,可以对这些属性和方法,都尝试一下,以便更加清楚其含义。 刚写完上面这句话呢,然后自己随便测试了一下attrMap: attrMap = soup.attrMap; print "attrMap=",attrMap; 然后就很惊喜的发现,原来此处的attrMap,就是我程序中所需要的属性的dict变量啊: attrMap= {u'style': u'line-height:180%;', u'class': u'cc-lisence'} 这样,就又省去了我程序中将attrs转换为dict变量的操作了,更加提高了效率。在次感谢 Beautifulsoup的开发者。 3.2. BeautifulSoup有时候会遇到非法的,不支持的html源码而导致无法解析或无法正常 解析html 在使用Beautifulsoup过程中,对于大多数html源码,通过指定正确的编码,或者本身是默 认UTF-8编码而无需指定编码类型,其都可以正确解析html源码,得到对应的soup变量。 然后就接着去利用soup实现你所想要的功能了。 但是有时候会发现,有些html解析后,有些标签等内容丢失了,即所得到的soup不是所期 望的完整的html的内容。 这时候,很可能遇到了非法的html,即其中可能包含了一些不合法的html标签等内容,导 致Beautifulsoup虽然可以解析,没有报错,但是实际上得到的soup变量,内容缺失了一部 分了。 比如我就遇到过不少这样的例子: 1. 部分Blogbus的帖子的html中非html5和html5的代码混合导致Beautifulsoup解析错误 之前在为BlogsToWordPress添加Blogbus支持过程中去解析Blogbus的帖子的时候,遇 到一个特殊的帖子:http://ronghuihou.blogbus.com/logs/89099700.html,其中一 堆的非html5的代码中,包含了这样一段html5的代码的写法,即标签属性值不加括号 的: 结果导致Beautifulsoup解析错误,得到的soup中,找不到所需要的各种class等属性 值。 对应的解决办法就是,把这部分的代码删除掉,然后再解析就可以了: 其中一堆的非html5的代码中,包含了这样一段html5的代码的写法,即标签属性值不 加括号的: foundInvliadScript = re.search("", html, re.I | re.S ); logging.debug("foundInvliadScript=%s", foundInvliadScript); if(foundInvliadScript): invalidScriptStr = foundInvliadScript.group(0); logging.debug("invalidScriptStr=%s", invalidScriptStr); html = html.replace(invalidScriptStr, ""); logging.debug("filter out invalid script OK"); soup = htmlToSoup(html); 2. 判断浏览器版本的相关代码,导致Beautifulsoup解析不正常 之前在给BlogsToWordpress添加新浪博客的支持的过程中 遇到很多新浪博客的帖子的html中,包含很多判断浏览器版本的相关代码: xxx xxx 由此导致Beautifulsoup解析html不正常。 3. font标签嵌套层次太多,导致Beautifulsoup无法解析html 接上面那个解析新浪博客帖子的例子,期间又遇到另外一个问题,对于一些特殊帖子 :http://blog.sina.com.cn/s/blog_5058502a01017j3j.html 其包含特殊的好几十个font标签且是一个个嵌套的代码,导致无法Beautifulsoup无法 解析html,后来把对应嵌套的font标签删除掉,才可以正常解析。 相关python代码为: # handle special case for http://blog.sina.com.cn/s/blog_5058502a01017j3j.html processedHtml = processedHtml.replace('', ""); processedHtml = processedHtml.replace("", ""); 遇到其他类似的问题,也可以去删除或替换出错代码,即可解决问题。 不过需要说明的是,很多时候,你未必很容易就找到出错的代码。 想要找到出错的代码,更多的时候,需要你一点点调试,一点点的删除看似可疑的一些 html源码,然后最终才能定位到出错的代码,然后删除掉后,才可以正常工作的。 参考书目 [1] 实现博客搬家