通常,我们使用这条命令运行自己的scrapy爬虫:
scrapy crawl spider_name
但是,由这条命令启动的爬虫,会将所有爬虫运行中的debug信息及抓取到的信息打印在运行窗口中。很乱,也不方便查询。所以,可使用该命令代替:
scrpay crawl spider_name -s LOG_FILE=all.log
就会将原本打印在窗口的所有信息保存在all.log的文件里了。可以在项目根目录中找到该文件,查看所有爬取信息。
原文链接:
https://blog.csdn.net/Cristal_tina/article/details/53739378
感谢大家的收看,我们下期再见!
如果你觉得内容不错的话,欢迎点赞,评论和分享哟~
评论