Python的爬虫包Beautiful Soup中用正则表达式来搜索,pythonsoup
Python的爬虫包Beautiful Soup中用正则表达式来搜索,pythonsoup
Beautiful Soup使用时,一般可以通过指定对应的name和attrs去搜索,特定的名字和属性,以找到所需要的部分的html代码。
但是,有时候,会遇到,对于要处理的内容中,其name或attr的值,有多种可能,尤其是符合某一规律,此时,就无法写成固定的值了。
所以,就可以借助正则表达式来解决此问题。
比如,
<div class="icon_col"> <h1 class="h1user">crifan</h1> </div>
对应的BeautifulSoup代码如下:
h1userSoup = soup.find(name="h1", attrs={"class":"h1user"});
而如果html是这种:
<div class="icon_col"> <h1 class="h1user">crifan</h1> <h1 class="h1user test1">crifan 123</h1> <h1 class="h1user test2">crifan 456</h1> </div>
那么想要一次性地找到所有的,符合条件的h1的部分的代码,则之前的写法,就只能找到单个的class="h1user"的部分,剩下的两个
class="h1user test1"
和
class="h1user test2"
就找不到了。
那么,此时,就可以用到,BeautifulSoup中非常好用的,非常强大的功能:
attrs中支持正则表达式的写法
了。
就可以写成:
h1userSoupList = soup.findAll(name="h1", attrs={"class":re.compile(r"h1user(\s\w+)?")});
就可以一次性地,找到:
class="h1user" class="h1user test1" class="h1user test2"
了。
<div aria-lable="xxx">之类的标签,xxx的内容未知(可变)的前提下
想要查找到对应的此div标签,之前不知道如何实现。
如果写成:
sopu.findAll("div", attrs={"aria-lable": "xxx"});
则xxx必须写出来,如果不写出来属性值,也就没法用上attrs了,就没法实现此处查找特性属性值的标签了。
所以针对:
<div aria-label="5星, 747 份评分" class="rating" role="img" tabindex="-1"> <div> <span class="rating-star"> </span> <span class="rating-star"> </span> <span class="rating-star"> </span> <span class="rating-star"> </span> <span class="rating-star"> </span> </div> <span class="rating-count"> 747 份评分 </span> </div>
可以通过:
soup.findAll("div", attrs={"aria-lable": True});
去查找到属性包含aria-lable的div标签的。
所以,对于上面的,之前不知道如何处理:
用BeautifulSoup查找未知属性值,但是已知属性的名字的标签
则此处,就可以针对:
<div aria-lable="xxx">
去用:
sopu.findAll("div", attrs={"aria-lable": True});
就可以查找到对应的包含属性aria-lable的div标签了。
您可能感兴趣的文章:
- Python中urllib+urllib2+cookielib模块编写爬虫实战
- 深入剖析Python的爬虫框架Scrapy的结构与运作流程
- 实践Python的爬虫框架Scrapy来抓取豆瓣电影TOP250
- Python使用Beautiful Soup包编写爬虫时的一些关键点
- Python制作爬虫抓取美女图
- 编写Python爬虫抓取豆瓣电影TOP100及用户头像的方法
- 以视频爬取实例讲解Python爬虫神器Beautiful Soup用法
- 使用Python的urllib和urllib2模块制作爬虫的实例教程
- 使用Python编写爬虫的基本模块及框架使用指南
相关内容
- 实践Python的爬虫框架Scrapy来抓取豆瓣电影TOP250,scrapy
- 深入剖析Python的爬虫框架Scrapy的结构与运作流程,pyt
- Python中urllib+urllib2+cookielib模块编写爬虫实战,urllibcoo
- 使用Python编写爬虫的基本模块及框架使用指南,python使
- Python的Scrapy爬虫框架简单学习笔记,pythonscrapy爬虫
- Python模拟百度登录实例详解,python模拟实例详解
- Python中使用urllib2模块编写爬虫的简单上手示例,pytho
- Python 列表排序方法reverse、sort、sorted详解,reversesorte
- Python爬虫抓取手机APP的传输数据,python爬虫抓取app
- Python爬虫模拟登录带验证码网站,python爬虫
评论关闭