网站建设资讯

NEWS

网站建设资讯

python批量抓取的方法

今天小编给大家分享一下python批量抓取的方法的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。

创新互联专注于桦南网站建设服务及定制,我们拥有丰富的企业做网站经验。 热诚为您提供桦南营销型网站建设,桦南网站制作、桦南网页设计、桦南网站官网定制、重庆小程序开发公司服务,打造桦南网络公司原创品牌,更为您提供桦南网站排名全网营销落地服务。

其中用到urllib2模块和正则表达式模块。下面直接上代码:

 1 用python批量抓取

 2  

 3 #!/usr/bin/env python

 4 #-*- coding: utf-8 -*-

 5 #通过urllib(2)模块下载网络内容

 6 import urllib,urllib2,gevent

 7 #引入正则表达式模块,时间模块

 8 import re,time

 9 from gevent import monkey

15 monkey.patch_all()

16  

17 def geturllist(url):

18     url_list=[]

19     print url       

20     s = urllib2.urlopen(url)

21     text = s.read()

22     #正则匹配,匹配其中的图片

23     html = re.search(r'', text, re.S)

24     urls = re.finditer(r'

',html.group(),re.I)

25     for i in urls:

26         url=i.group(1).strip()+str("jpg")

27         url_list.append(url)

28     return url_list

29  

30 def download(down_url):

31     name=str(time.time())[:-3]+"_"+re.sub('.+?/','',down_url)

32     print name

33     urllib.urlretrieve(down_url, "D:\\TEMP\\"+name)

34  

35 def getpageurl():

36     page_list = []

37     #进行列表页循环

38     for page in range(1,700):

39         url="http://jandan.net/ooxx/page-"+str(page)+"#comments"

40         #把生成的url加入到page_list中

41         page_list.append(url)

42     print page_list

43     return page_list

44 if __name__ == '__main__':

45     jobs = []

46     pageurl = getpageurl()[::-1]

47     #进行图片下载

48     for i in pageurl:

49         for (downurl) in geturllist(i):

50             jobs.append(gevent.spawn(download, downurl))

51     gevent.joinall(jobs)

以上就是“python批量抓取的方法”这篇文章的所有内容,感谢各位的阅读!相信大家阅读完这篇文章都有很大的收获,小编每天都会为大家更新不同的知识,如果还想学习更多的知识,请关注创新互联行业资讯频道。


新闻名称:python批量抓取的方法
分享路径:http://cdweb.net/article/gisecg.html