Подтвердить что ты не робот

Scrapy: вызов функции при выходе паука

Есть ли способ вызвать метод в классе Spider перед его завершением?

Я могу закончить сам паук, например:

class MySpider(CrawlSpider):
    #Config stuff goes here...

    def quit(self):
        #Do some stuff...
        raise CloseSpider('MySpider is quitting now.')

    def my_parser(self, response):
        if termination_condition:
            self.quit()

        #Parsing stuff goes here...

Но я не могу найти никакой информации о том, как определить, когда паук вот-вот бросит естественно.

4b9b3361

Ответ 1

Похоже, вы можете зарегистрировать прослушиватель сигналов через dispatcher.

Я бы попробовал что-то вроде:

from scrapy import signals
from scrapy.xlib.pydispatch import dispatcher

class MySpider(CrawlSpider):
    def __init__(self):
        dispatcher.connect(self.spider_closed, signals.spider_closed)

    def spider_closed(self, spider):
      # second param is instance of spder about to be closed.

Ответ 2

Просто для обновления вы можете просто вызвать функцию closed следующим образом:

class MySpider(CrawlSpider):
    def closed(self, reason):
        do-something()

Ответ 3

Для Scrapy версии 1.0. 0+ (может также работать для более старых версий).

from scrapy import signals

class MySpider(CrawlSpider):
    name = 'myspider'

    @classmethod
    def from_crawler(cls, crawler, *args, **kwargs):
        spider = super(MySpider, cls).from_crawler(crawler, *args, **kwargs)
        crawler.signals.connect(spider.spider_opened, signals.spider_opened)
        crawler.signals.connect(spider.spider_closed, signals.spider_closed)
        return spider

    def spider_opened(self, spider):
        print('Opening {} spider'.format(spider.name))

    def spider_closed(self, spider):
        print('Closing {} spider'.format(spider.name))

Одно хорошее применение - добавить индикатор прогресса tqdm в Scrapy Spider.

# -*- coding: utf-8 -*-
from scrapy import signals
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from tqdm import tqdm


class MySpider(CrawlSpider):
    name = 'myspider'
    allowed_domains = ['somedomain.comm']
    start_urls = ['http://www.somedomain.comm/ccid.php']

    rules = (
        Rule(LinkExtractor(allow=r'^http://www.somedomain.comm/ccds.php\?id=.*'),
             callback='parse_item',
             ),
        Rule(LinkExtractor(allow=r'^http://www.somedomain.comm/ccid.php$',
                           restrict_xpaths='//table/tr[contains(., "SMTH")]'), follow=True),
    )

    def parse_item(self, response):
        self.pbar.update()  # update progress bar by 1
        item = MyItem()
        # parse response
        return item

    @classmethod
    def from_crawler(cls, crawler, *args, **kwargs):
        spider = super(MySpider, cls).from_crawler(crawler, *args, **kwargs)
        crawler.signals.connect(spider.spider_opened, signals.spider_opened)
        crawler.signals.connect(spider.spider_closed, signals.spider_closed)
        return spider

    def spider_opened(self, spider):
        self.pbar = tqdm()  # initialize progress bar
        self.pbar.clear()
        self.pbar.write('Opening {} spider'.format(spider.name))

    def spider_closed(self, spider):
        self.pbar.clear()
        self.pbar.write('Closing {} spider'.format(spider.name))
        self.pbar.close()  # close progress bar

Ответ 4

Для меня принятый не работал/устарел, по крайней мере, для скрабы 0,19. Я получил его для работы со следующим, хотя:

from scrapy.signalmanager import SignalManager
from scrapy.xlib.pydispatch import dispatcher

class MySpider(CrawlSpider):
    def __init__(self, *args, **kwargs):
        super(MySpider, self).__init__(*args, **kwargs)
        SignalManager(dispatcher.Any).connect(
            self.closed_handler, signal=signals.spider_closed)

    def closed_handler(self, spider):
        # do stuff here

Ответ 5

Для последней версии (v1.7) просто определите closed(reason) метод в вашем классе паука.

closed(reason):

Вызывается, когда паук закрывается. Этот метод обеспечивает ярлык для signal.connect() для сигнала spider_closed.

Scrapy Doc: scrapy.spiders.Spider.closed

Ответ 6

Если у вас много пауков и вы хотите что-то сделать, прежде чем каждый из них закрывается, возможно, будет удобно добавлять statscollector в ваш проект.

в настройках:

STATS_CLASS = 'scraper.stats.MyStatsCollector'

и коллекционер:

from scrapy.statscollectors import StatsCollector

class MyStatsCollector(StatsCollector):
    def _persist_stats(self, stats, spider):
        do something here