python爬虫下载百度贴吧图片,,本次爬取的贴吧是百度的美
python爬虫下载百度贴吧图片,,本次爬取的贴吧是百度的美
本次爬取的贴吧是百度的美女吧,给广大男同胞们一些激励
在爬取之前需要在浏览器先登录百度贴吧的帐号,各位也可以在代码中使用post提交或者加入cookie
爬行地址:http://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn=0
-- coding:utf-8 --import urllib2import reimport requestsfrom lxml import etree
这些是要导入的库,代码并没有使用正则,使用的是xpath,正则困难的童鞋可以尝试使用下
推荐各位先使用基本库来写,这样可以学习到更多
links=[] #遍历url的地址k=1print u'请输入最后的页数:'endPage=int(raw_input()) #最终的页数 (r'\d+(?=\s*页) 这是一个比较通用的正则抓取总页数的代码,当然最后要group
#这里是手动输入页数,避免内容太多
for j in range(0,endPage): url='http://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn='+str(j) #页数的url地址 html=urllib2.urlopen(url).read() #读取首页的内容 selector=etree.HTML(html) #转换为xml,用于在接下来识别 links=selector.xpath('//div/a[@class="j_th_tit"][email protected]/ <![CDATA[ /!function(t,e,r,n,c,a,p){try{t=document.currentScript||function(){for(t=document.getElementsByTagName('script'),e=t.length;e--;)if(t[e].getAttribute('data-cfhash'))return t[e]}();if(t&&(c=t.previousSibling)){p=t.parentNode;if(a=c.getAttribute('data-cfemail')){for(e='',r='0x'+a.substr(0,2)|0,n=2;a.length-n;n+=2)e+='%'+('0'+('0x'+a.substr(n,2)^r).toString(16)).slice(-2);p.replaceChild(document.createTextNode(decodeURIComponent(e)),c)}p.removeChild(t)}}catch(u){}}()/ ]]> /') #抓取当前页面的所有帖子的url
#大家可以使用浏览器自带的源码查看工具,在指定目标处查看元素,这样更快捷
for i in links: url1="http://tieba.baidu.com"+i #因为爬取到的地址是相对地址,所以要加上百度的domain html2=urllib2.urlopen(url1).read() #读取当前页面的内容 selector=etree.HTML(html2) #转换为xml用于识别 link=selector.xpath('//img[@class="BDE_Image"][email protected]/* <![CDATA[ */!function(t,e,r,n,c,a,p){try{t=document.currentScript||function(){for(t=document.getElementsByTagName('script'),e=t.length;e--;)if(t[e].getAttribute('data-cfhash'))return t[e]}();if(t&&(c=t.previousSibling)){p=t.parentNode;if(a=c.getAttribute('data-cfemail')){for(e='',r='0x'+a.substr(0,2)|0,n=2;a.length-n;n+=2)e+='%'+('0'+('0x'+a.substr(n,2)^r).toString(16)).slice(-2);p.replaceChild(document.createTextNode(decodeURIComponent(e)),c)}p.removeChild(t)}}catch(u){}}()/* ]]> */') #抓取图片,各位也可以更换为正则,或者其他你想要的内容
#此处就是遍历下载
for each in link: #print each print u'正在下载%d'%k fp=open('image/'+str(k)+'.bmp','wb') #下载在当前目录下 image文件夹内,图片格式为bmp image1=urllib2.urlopen(each).read() #读取图片的内容 fp.write(image1) #写入图片 fp.close() k+=1 #k就是文件的名字,每下载一个文件就加1print u'下载完成!'
如果想要爬取其他站点的内容,大家可以参考一下转自:http://www.cnblogs.com/lonenysky/p/4644173.html
相关内容
- Python通过PIL获取图片的主要颜色并和颜色库进行对比的
- python 解析XML,python解析xml,一 、xml.dom 解
- 扒糗事百科精华的python爬虫,扒糗事python爬虫,# -*- co
- python文件操作,python文件,#! /usr/bin/
- Python快速多线程ping实现,python多线程ping,None
- Python 七种邮件内容发送方法实例,python邮件内容,一、
- Python3 图片打水印,, from PIL
- Python3.4 验证码识别,python3.4验证码,from PIL imp
- 12306 火车票监控Python代码,12306python, import u
- python通过BF算法实现关键词匹配,pythonbf,python通过BF算法
评论关闭