内容简介:原文链接https://www.fkomm.cn/article/2018/7/20/18.htmlbs4库之所以能快速的定位我们想要的元素,是因为他能够用一种方式将html文件解析了一遍 ,不同的解析器有不同的效果。下文将一一进行介绍。网络爬虫的最终目的就是过滤选取网络信息,最重要的部分可以说是解析器。解析器的优劣决定了爬虫的速度和效率。bs4库除了支持我们上文用过的‘html.parser’解析器外,还支持很多第三方的解析器,下面我们来对他们进行对比分析。
原文链接https://www.fkomm.cn/article/2018/7/20/18.html
bs4库之所以能快速的定位我们想要的元素,是因为他能够用一种方式将html文件解析了一遍 ,不同的解析器有不同的效果。下文将一一进行介绍。
bs4解析器的选择
网络爬虫的最终目的就是过滤选取网络信息,最重要的部分可以说是解析器。解析器的优劣决定了爬虫的速度和效率。bs4库除了支持我们上文用过的‘html.parser’解析器外,还支持很多第三方的解析器,下面我们来对他们进行对比分析。
bs4库官方推荐我们使用的是lxml解析器,原因是它具有更高的效率,所以我们也将采用lxml解析器。
lxml解析器的安装:
- 依旧采用pip安装 工具 来安装:
$ pip install lxml
注意,由于我用的是unix类系统,用pip工具十分的方便,但是如果在windows下安装,总是会出现这样或者那样的问题,这里推荐win用户去lxml官方,下载安装包,来安装适合自己系统版本的lxml解析器。
使用lxml解析器来解释网页
我们依旧以上一篇的 爱丽丝文档 为例子:
html_doc = """ <html><head><title>The Dormouse's story</title></head> <body> <p class="title"><b>The Dormouse's story</b></p> <p class="story">Once upon a time there were three little sisters; and their names were <a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>, <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>; and they lived at the bottom of a well.</p> <p class="story">...</p> """ 复制代码
试一下吧:
import bs4 #首先我们先将html文件已lxml的方式做成一锅汤 soup = bs4.BeautifulSoup(open('Beautiful Soup 爬虫/demo.html'),'lxml') #我们把结果输出一下,是一个很清晰的树形结构。 #print(soup.prettify()) ''' OUT: <html> <head> <title> The Dormouse's story </title> </head> <body> <p class="title"> <b> The Dormouse's story </b> </p> <p class="story"> Once upon a time there were three little sisters; and their names were <a class="sister" href="http://example.com/elsie" id="link1"> Elsie </a> , <a class="sister" href="http://example.com/lacie" id="link2"> Lacie </a> and <a class="sister" href="http://example.com/tillie" id="link3"> Tillie </a> ; and they lived at the bottom of a well. </p> <p class="story"> ... </p> </body> </html> ··· 复制代码
如何具体的使用?
bs4 库首先将传入的字符串或文件句柄转换为 Unicode的类型,这样,我们在抓取中文信息的时候,就不会有很麻烦的编码问题了。当然,有一些生僻的编码 如:‘big5’,就需要我们手动设置编码: soup = BeautifulSoup(markup, from_encoding="编码方式")
对象的种类:
bs4 库将复杂的html文档转化为一个复杂的树形结构,每个节点都是 Python 对象 ,所有对象可以分为以下四个类型:Tag , NavigableString , BeautifulSoup , Comment 我们来逐一解释:
Tag: 和html中的Tag基本没有区别,可以简单上手使用
NavigableString: 被包裹在tag内的字符串
BeautifulSoup: 表示一个文档的全部内容,大部分的时候可以吧他看做一个tag对象,支持遍历文档树和搜索文档树方法。
Comment:这是一个特殊的NavigableSting对象,在出现在html文档中时,会以特殊的格式输出,比如注释类型。
搜索文档树的最简单的方法就是搜索你想获取tag的的name:
soup.head # <head><title>The Dormouse's story</title></head> soup.title # <title>The Dormouse's story</title> 复制代码
如果你还想更深入的获得更小的tag:例如我们想找到body下的被b标签包裹的部分
soup.body.b # <b>The Dormouse's story</b> 复制代码
但是这个方法只能找到按顺序第一个出现的tag。
获取所有的标签呢?
这个时候需要find_all()方法,他返回一个列表类型
tag=soup.find_all('a') # [<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>] #假设我们要找到a标签中的第二个元素: need = tag[1] #简单吧 复制代码
tag的.contents属性可以将tag的子节点以列表的方式输出:
head_tag = soup.head head_tag # <head><title>The Dormouse's story</title></head> head_tag.contents [<title>The Dormouse's story</title>] title_tag = head_tag.contents[0] print(title_tag) # <title>The Dormouse's story</title> title_tag.contents # [u'The Dormouse's story'] 复制代码
- 另外通过tag的 .children生成器,可以对tag的子节点进行循环:
for child in title_tag.children: print(child) # The Dormouse's story 复制代码
- 这种方式只能遍历出子节点。如何遍历出子孙节点呢? 子孙节点:比如 head.contents 的子节点是,这里 title本身也有子节点:‘The Dormouse‘s story’ 。这里的‘The Dormouse‘s story’也叫作head的子孙节点
for child in head_tag.descendants: print(child) # <title>The Dormouse's story</title> # The Dormouse's story 复制代码
如何找到tag下的所有的文本内容呢?
-
如果该tag只有一个子节点(NavigableString类型):直接使用tag.string就能找到。
-
如果tag有很多个子、孙节点,并且每个节点里都string:
我们可以用迭代的方式将其全部找出:
for string in soup.strings: print(repr(string)) # u"The Dormouse's story" # u'\n\n' # u"The Dormouse's story" # u'\n\n' # u'Once upon a time there were three little sisters; and their names were\n' # u'Elsie' # u',\n' # u'Lacie' # u' and\n' # u'Tillie' # u';\nand they lived at the bottom of a well.' # u'\n\n' # u'...' # u'\n' 复制代码
好了,关于bs4库的基本使用,我们就先介绍到这。剩下来的部分: 父节点、兄弟节点、回退和前进,都与上面从子节点找元素的过程差不多。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 爬虫——网页解析利器--re & xpath
- Python爬虫笔记3-解析库Xpath的使用
- Python3网络爬虫实战---22、使用Urllib:解析链接
- Python3.X 爬虫实战(静态下载器与解析器)
- 爬虫网页解析之css用法及实战爬取中国校花网
- Python3网络爬虫实战---28、解析库的使用:XPath
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
计算群体智能基础
恩格尔伯里特 / 谭营 / 2009-10 / 69.00元
《计算群体智能基础》全面系统地介绍了计算群体智能中的粒子群优化(PSO)和蚁群优化(ACO)的基本概念、基本模型、理论分析及其应用。在简要介绍基本优化理论和总结各类优化问题之后,重点介绍了社会网络结构如何在个体间交换信息以及个体聚集行为如何形成一个功能强大的有机体。在概述了进化计算后,重点论述了粒子群优化和蚁群优化的基本模型及其各种变体,给出了分析粒子群优化模型的一种通用方法,证明了基于蚂蚁行为实......一起来看看 《计算群体智能基础》 这本书的介绍吧!