Scrapy - 第一个蜘蛛


描述

Spider 是一个类,它定义了从中提取数据的初始 URL、如何跟踪分页链接以及如何提取和解析items.py中定义的字段。Scrapy 提供了不同类型的蜘蛛,每种蜘蛛都有特定的用途。

在first_scrapy/spiders目录下创建一个名为“first_spider.py”的文件,我们可以在其中告诉Scrapy如何找到我们正在寻找的确切数据。为此,您必须定义一些属性 -

  • name - 它定义蜘蛛的唯一名称。

  • allowed_domains - 它包含蜘蛛抓取的基本 URL。

  • start-urls - 蜘蛛开始爬行的 URL 列表。

  • parse() - 这是一种提取和解析抓取数据的方法。

以下代码演示了蜘蛛代码的样子 -

import scrapy  

class firstSpider(scrapy.Spider): 
   name = "first" 
   allowed_domains = ["dmoz.org"] 
   
   start_urls = [ 
      "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/", 
      "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/" 
   ]  
   def parse(self, response): 
      filename = response.url.split("/")[-2] + '.html' 
      with open(filename, 'wb') as f: 
         f.write(response.body)