您当前的位置: 首页 >  scrapy

暂无认证

  • 1浏览

    0关注

    92582博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

爬虫日记(13):scrapy提取超级连接

发布时间:2021-03-12 23:07:31 ,浏览量:1

爬虫能够不断地向各个地方漫游,得益于它有识别道路的能力,这里所谓的道路就是超级连接。虽然从种子的网页出发,它就会根据下载的网页来识别下一个网页,通过这样的方式,就可以遍历整个网站,从而把所有网页分析一遍,从中拿到我们需要信息。比如你想下载一部网上的小说,而这本小说有1000页,如果你让从头点到尾,需要点击1000次。如果采用爬虫来解决,只需要给出首页,就可以解决了。不过,你需要指定爬虫怎么样从首页里拿到下一页的超级连接。本文将要来学习这方面的内容,这是编写爬虫的基本知识。

继续从前面的抓取名言为例,之前只是爬取了 http://quotes.toscrape.com的两个页面,如果让你爬取整个网站,又需要怎么来处理呢。

上一篇已经学习了从网页里抓取数据,这次继续来学习抓取超级连接。首要的任务就是抓取下一页的超级连接,回过头来查看网页的源码,会发现下一页的超级连接是这样的:

       

关注
打赏
1653961664
查看更多评论
立即登录/注册

微信扫码登录

0.0787s