下载漫画,,其他的下载漫画好办,这个
下载漫画,,其他的下载漫画好办,这个
其他的下载漫画好办,这个网站有点麻烦,抱着学习态度就能它了。(不折腾,不成活)
有几个问题
1就是有没有python内能够执行javascprit的包,有的话就方便多了,还有我的js刚学对这个网站的js不是很熟悉那个大神来看看这个网站关于定向漫画图片的javascript的代码
#!/usr/bin/env pyhton#coding:utf-8import urllib2import reimport urllibimport timedef dl(url,mh,cao): req=urllib2.Request(url) req.add_header('Referer',cao) res=urllib2.urlopen(req) f=open(mh,'w') f.write(res.read()) f.close() res.close()def jishu(url,url1,num,ri): req=urllib2.Request(url) req.add_header('Referer',url1) fi=urllib2.urlopen(req) down='http://c4.mangafiles.com/pictures/46/'+str(num)+'/' mat=re.compile(r'<option value="') for i in fi: a=len(re.findall(mat,i)) for i in range(1,a+1): if i<10: mh="00"+str(i)+'.jpg' elif i<100: mh="0"+str(i)+'.jpg' else: mh=str(i)+'.jpg' dl(down+mh,mh,ri) time.sleep(0.9) fi.close()try: l=[] n=[] sum_page=0 a=0 tmp="http://www.imanhua.com/" url="http://www.imanhua.com/comic/46/" #这里可以改为用raw_input输入 f=urllib2.urlopen(url) mat=re.compile(r'<a href="(/comic/\\d+/list_\\d+\\.html)"') for i in f: l=re.findall(mat,i) for i in l: mat=re.compile(r'.*?list_(\\d+).*?') match=mat.search(i) if match: n.append(match.group(1)) sum_page=sum_page+1 cao=tmp+i jishu(cao,url,n[a],tmp+i) a+=1 break f.close()except Exception as e: print e#该片段来自于http://byrx.net
相关内容
- python启动软件进程,python启动进程,python启动办公软件
- rot13简单加密,rot13加密,def rot13(s,
- 页面url的可连接性,页面url连接性,import reimp
- Python 冒泡排序,python冒泡排序,num = [23,2,
- Python hashlib模块,pythonhashlib模块,hashlib是个专门提
- Python 动态规划算法,计算单词距离,python算法,#!/usr/bi
- scrapy 在不同的抓取级别的Request之间传递参数的办法,
- python通过xlrd模块读写Excel文件,pythonxlrd,一、安装xlrd模
- python标准算法实现数组全排列代码,python标准算法数组
- 查看所输入年月的日历,查看年月日历,#coding:utf-
评论关闭