欢迎来到DIVCSS5查找CSS资料与学习DIV CSS布局技术!
  本文介绍一个使用python实现爬虫的超简单方法,精通爬虫挺难,但学会实现一个能满足简单需求的爬虫,只需10分钟,往下读吧——
 
  该方法不能用于带有反爬机制的页面,但对于我这样的非专业爬虫使用者,几乎遇到的各种简单爬虫需求都是可以搞定的。
 
  归纳起来,只有简单的3步
 
  使用开发人员工具分析网页HTML请求网页获取相应信息
 
  我们以一个简单的需求为例:
 
  从wiki百科标普500指数页面中,利用爬虫自动获取 S&P 500指数所对应的所有股票。如图所示:
 
  首先我们要对待爬取的网页人工的进行结构分析
 
  这里我使用的是Google浏览器
 
  进入页面后,按下,打开开发人员工具
 
  选择开发人员工具左上角的小箭头
 
  这是一个映射工具
 
  通过它你可以轻松的观察网页中每一个渲染后的元素所对应于网页HTML中的位置
 
  这能够帮我们很轻松的完成html的结构分析,从而快速实现一个爬虫
 
  就像这样
 
  通过观察,我们发现,所有待爬取的股票信息都位于一个表格中
 
  这个表格对应于一个 标签
 
  而表格中每一行的的股票信息又对应了 下的一个 标签
 
  因此我们爬虫的工作就是get到 下的所有 标签,并解析出相应内容
 
  第一步网页HTML分析,完成!
 
  下面开始进入代码阶段
 
  这里我使用的是Python3
 
  需要用到 和  这两个库
 
  因此别忘记引用:
 
  首先我们需要请求网页:
 
  随后使用BeautifulSoup解析
 
  没有错,就是这么简单——
 
  结合第一步的分析
 
  我们爬虫的工作就是get到 下的所有 标签,并解析出相应内容
 
  通过BeautifulSoup库的一个核心的方法 我们便能完成这个工作
 
  首先获取所有的 标签
 
  然后获取 标签中所需的属性并打印出来
 
  大功告成,最终的程序运行结果如下:
 
  全部代码如下:

如需转载,请注明文章出处和来源网址:http://www.divcss5.com/html/h60085.shtml