Scrapy – 统计集合

Scrapy – 统计集合


描述

Stats Collector 是 Scrapy 提供的一种工具,用于以键/值的形式收集统计信息,并使用 Crawler API 访问它(Crawler 提供对所有 Scrapy 核心组件的访问)。统计收集器为每个蜘蛛提供一个统计表,其中统计收集器在蜘蛛打开时自动打开并在蜘蛛关闭时关闭统计收集器。

常见的统计收集器用途

以下代码使用stats属性访问统计信息收集器

class ExtensionThatAccessStats(object): 
   def __init__(self, stats): 
      self.stats = stats  
   
   @classmethod 
   def from_crawler(cls, crawler): 
      return cls(crawler.stats)

下表显示了可以与统计收集器一起使用的各种选项 –

Sr.No 参数 描述
1
stats.set_value('hostname', socket.gethostname())
它用于设置统计值。
2
stats.inc_value('customized_count')
它增加统计值。
3
stats.max_value('max_items_scraped', value)
您可以设置统计值,仅当大于之前的值时。
4
stats.min_value('min_free_memory_percent', value)
您可以设置统计值,仅当低于以前的值时。
5
stats.get_value('customized_count')
它获取统计值。
6
stats.get_stats() {'custom_count': 1, 'start_time': 
datetime.datetime(2009, 7, 14, 21, 47, 28, 977139)} 
它获取所有统计信息

可用的统计数据收集器

Scrapy 提供了不同类型的统计数据收集器,可以使用STATS_CLASS设置进行访问

内存状态收集器

它是默认的 Stats 收集器,用于维护用于抓取的每个蜘蛛的统计信息,数据将存储在内存中。

class scrapy.statscollectors.MemoryStatsCollector

DummyStatsCollector

这个统计信息收集器非常有效,什么都不做。这可以使用STATS_CLASS设置进行设置,并可用于禁用统计信息收集以提高性能。

class scrapy.statscollectors.DummyStatsCollector

觉得文章有用?

点个广告表达一下你的爱意吧 !😁