网站建设资讯

NEWS

网站建设资讯

网络爬虫

网络爬虫在信息检索与处理中有很大的作用,是收集网络信息的重要工具。

10年积累的做网站、网站建设经验,可以快速应对客户对网站的新想法和需求。提供各种问题对应的解决方案。让选择我们的客户得到更好、更有力的网络服务。我虽然不认识你,你也不认识我。但先网站制作后付款的网站建设流程,更有果洛州免费网站建设让你可以放心的选择与我们合作。

接下来就介绍一下爬虫的简单实现。

爬虫的工作流程如下

网络爬虫

爬虫自指定的URL地址开始下载网络资源,直到该地址和所有子地址的指定资源都下载完毕为止。http://mmm.qqq23.com

下面开始逐步分析爬虫的实现。

1.待下载集合与已下载集合

为了保存需要下载的URL,同时防止重复下载,我们需要分别用了两个集合来存放将要下载的URL和已经下载的URL。

因为在保存URL的同时需要保存与URL相关的一些其他信息,如深度,所以这里我采用了Dictionary来存放这些URL。

具体类型是Dictionary其中string是Url字符串,int是该Url相对于基URL的深度。

每次开始时都检查未下载的集合,如果已经为空,说明已经下载完毕;如果还有URL,那么就取出第一个URL加入到已下载的集合中,并且下载这个URL的资源。

2. HTTP请求和响应

C#已经有封装好的HTTP请求和响应的类HttpWebRequest和HttpWebResponse,所以实现起来方便不少。

为了提高下载的效率,http://www.qqq100.com我们可以用多个请求并发的方式同时下载多个URL的资源,一种简单的做法是采用异步请求的方法。

控制并发的数量可以用如下方法实现

网络爬虫

1privatevoid DispatchWork()

2{

3if (_stop)//判断是否中止下载

4    {

5return;

6    }

7for (int i =0; i < _reqCount; i++)

8    {

9if (!_reqsBusy[i])//判断此编号的工作实例是否空闲

10        {

11            RequestResource(i);//让此工作实例请求资源

12        }

13    }

14 }

网络爬虫

由于没有显式开新线程,所以用一个工作实例来表示一个逻辑工作线程

1privatebool[] _reqsBusy =null;//每个元素代表一个工作实例是否正在工作

2privateint _reqCount =4;//工作实例的数量

每次一个工作实例完成工作,相应的_reqsBusy就设为false,并调用DispatchWork,那么DispatchWork就能给空闲的实例分配新任务了。

接下来是发送请求

网络爬虫

1privatevoidRequestResource(int index)

2{

3int depth;

4string url ="";

5try

6    {

7lock (_locker)

8        {

9if (_urlsUnload.Count <=0)

10            {

11                _workingSignals.FinishWorking(index);

12return;

13            }

14            _reqsBusy[index] =true;

15            _workingSignals.StartWorking(index);

16            depth = _urlsUnload.First().Value;

17            url = _urlsUnload.First().Key;

18            _urlsLoaded.Add(url, depth);

19            _urlsUnload.Remove(url);

20        }

21

22         HttpWebRequest req = (HttpWebRequest)WebRequest.Create(url);

23        req.Method = _method;//请求方法

24        req.Accept = _accept;//接受的内容

25        req.UserAgent = _userAgent;//用户代理

26        RequestState rs =new RequestState(req, url, depth, index);//回调方法的参数

27var result =req.BeginGetResponse(new AsyncCallback(ReceivedResource), rs);//异步请求

28        ThreadPool.RegisterWaitForSingleObject(result.AsyncWaitHandle,//注册超时处理方法

29                 TimeoutCallback, rs, _maxTime,true);

30    }

31catch (WebException we)

32    {

33        MessageBox.Show("RequestResource" + we.Message + url + we.Status);

34    }

35 }

网络爬虫

第26行的请求的额外信息在异步请求的回调方法作为参数传入,之后还会提到。

第27行开始异步请求,这里需要传入一个回调方法作为响应请求时的处理,同时传入回调方法的参数。

第28行给该异步请求注册一个超时处理方法TimeoutCallback,最大等待时间是_maxTime,且只处理一次超时,并传入请求的额外信息作为回调方法的参数。

RequestState的定义是

网络爬虫

1class RequestState

2{

3privateconstint BUFFER_SIZE =131072;//接收数据包的空间大小

4privatebyte[] _data =newbyte[BUFFER_SIZE];//接收数据包的buffer

5private StringBuilder _sb =new StringBuilder();//存放所有接收到的字符

6

7public HttpWebRequest Req {get;privateset; }//请求

8publicstring Url {get;privateset; }//请求的URL

9publicint Depth {get;privateset; }//此次请求的相对深度

10publicint Index {get;privateset; }//工作实例的编号

11public StreamResStream {get;set; }//接收数据流

12public StringBuilder Html

13    {

14get

15        {

16return _sb;

17        }

18    }

19

20publicbyte[] Data

21    {

22get

23        {

24return _data;

25        }

26    }

27

28publicint BufferSize

29    {

30get

31        {

32return BUFFER_SIZE;

33        }

34    }

35

36publicRequestState(HttpWebRequest req,string url,int depth,int index)

37    {

38        Req = req;

39        Url = url;

40        Depth = depth;

41        Index = index;

42    }

43 }

网络爬虫

TimeoutCallback的定义是

网络爬虫

1privatevoidTimeoutCallback(object state,bool timedOut)

2{

3if (timedOut)//判断是否是超时

4    {

5         RequestState rs = stateas RequestState;

6if (rs !=null)

7        {

8             rs.Req.Abort();//撤销请求

9        }

10        _reqsBusy[rs.Index] =false;//重置工作状态

11        DispatchWork();//分配新任务

12    }

13 }

网络爬虫

接下来就是要处理请求的响应了

网络爬虫

1privatevoidReceivedResource(IAsyncResult ar)

2{

3     RequestState rs = (RequestState)ar.AsyncState;//得到请求时传入的参数

4     HttpWebRequest req = rs.Req;

5string url = rs.Url;

6try

7    {

8         HttpWebResponse res =(HttpWebResponse)req.EndGetResponse(ar);//获取响应

9if (_stop)//判断是否中止下载

10        {

11            res.Close();

12            req.Abort();

13return;

14        }

15if (res !=null &&res.StatusCode == HttpStatusCode.OK)//判断是否成功获取响应

16        {

17            Stream resStream = res.GetResponseStream();//得到资源流

18            rs.ResStream = resStream;

19var result =resStream.BeginRead(rs.Data,0, rs.BufferSize,//异步请求读取数据

20new AsyncCallback(ReceivedData), rs);

21        }

22else//响应失败

23        {

24            res.Close();

25            rs.Req.Abort();

26            _reqsBusy[rs.Index] =false;//重置工作状态

27            DispatchWork();//分配新任务

28        }

29    }

30catch (WebException we)

31    {

32        MessageBox.Show("ReceivedResource" + we.Message + url + we.Status);

33    }

34 }

网络爬虫

第19行这里采用了异步的方法来读数据流是因为我们之前采用了异步的方式请求,不然的话不能够正常的接收数据。

该异步读取的方式是按包来读取的,所以一旦接收到一个包就会调用传入的回调方法ReceivedData,然后在该方法中处理收到的数据。

该方法同时传入了接收数据的空间rs.Data和空间的大小rs.BufferSize。

接下来是接收数据和处理

网络爬虫

1privatevoidReceivedData(IAsyncResult ar)

2{

3     RequestState rs =(RequestState)ar.AsyncState;//获取参数

4     HttpWebRequest req = rs.Req;

5     Stream resStream = rs.ResStream;

6string url = rs.Url;

7int depth = rs.Depth;

8string html =null;

9int index = rs.Index;

10int read =0;

11

12try

13    {

14        read = resStream.EndRead(ar);//获得数据读取结果

15if (_stop)//判断是否中止下载

16        {

17            rs.ResStream.Close();

18            req.Abort();

19return;

20        }

21if (read >0)

22        {

23            MemoryStream ms =new MemoryStream(rs.Data,0, read);//利用获得的数据创建内存流

24            StreamReader reader =new StreamReader(ms, _encoding);

25string str = reader.ReadToEnd();//读取所有字符

26            rs.Html.Append(str);//添加到之前的末尾

27var result =resStream.BeginRead(rs.Data,0, rs.BufferSize,//再次异步请求读取数据

28new AsyncCallback(ReceivedData), rs);

29return;

30        }

31        html = rs.Html.ToString();

32        SaveContents(html, url);//保存到本地

33string[] links = GetLinks(html);//获取页面中的链接

34        AddUrls(links, depth +1);//过滤链接并添加到未下载集合中

35

36        _reqsBusy[index] =false;//重置工作状态

37        DispatchWork();//分配新任务

38    }

39catch (WebException we)

40    {

41        MessageBox.Show("ReceivedDataWeb " + we.Message + url + we.Status);

42    }

43 }

网络爬虫

第14行获得了读取的数据大小read,如果read>0说明数据可能还没有读完,所以在27行继续请求读下一个数据包;

如果read<=0说明所有数据已经接收完毕,这时rs.Html中存放了完整的HTML数据,就可以进行下一步的处理了。

附件:http://down.51cto.com/data/2362930

文章名称:网络爬虫
文章源于:http://cdweb.net/article/jddpog.html