У меня есть проект scrapy, в котором элемент, который в конечном итоге входит в мой конвейер, относительно велик и хранит множество метаданных и контента. Все работает правильно в моем пауке и трубопроводах. Журналы, однако, распечатывают весь предмет исследования, поскольку он покидает трубопровод (я полагаю):
2013-01-17 18:42:17-0600 [tutorial] DEBUG: processing Pipeline pipeline module
2013-01-17 18:42:17-0600 [tutorial] DEBUG: Scraped from <200 http://www.example.com>
{'attr1': 'value1',
'attr2': 'value2',
'attr3': 'value3',
...
snip
...
'attrN': 'valueN'}
2013-01-17 18:42:18-0600 [tutorial] INFO: Closing spider (finished)
Я бы предпочел, чтобы все эти данные не попали в файлы журналов, если я могу избежать этого. Любые предложения о том, как подавить этот вывод?