scrapy logging的介绍

酥酥 发布于 2021-09-18 73 次阅读


scrapy logging的介绍

之前我们用过在settings.py中加LOG_LEVEL=”WARNING”来达到只在控制台显示warning及warning以上级别的响应,今天来具体展示一下logging的用途

一、logging 的介绍

logging是python内建的debug日志

需要import logging来导入

logging.warning(“”)以warning的响应输出内容还可以保存在本地

logging.debug(“”)以debug的响应输出内容还可以保存在本地

logging.info(“”)以info的响应输出内容还可以保存在本地

  • debug : 打印全部的日志( notset 等同于 debug )
  • info : 打印 info, warning, error, critical 级别的日志
  • warning : 打印 warning, error, critical 级别的日志
  • error : 打印 error, critical 级别的日志
  • critical : 打印 critical 级别

日志级别等级排序:critical > error > warning > info > debug

				
					logger=logging.getLogger(__name__)#这里的__name__不是main而是文件名 使用logger.warning,debug,info可以更好地知道是来自于哪个文件的
				
			

显示消息日期

				
					import logging
# 显示消息时间
logging.basicConfig(format='%(asctime)s %(message)s')
logging.warning('is when this event was logged.')

logging.basicConfig(format='%(asctime)s %(message)s', datefmt='%m/%d/%Y %I:%M:%S %p')
logging.warning('is when this event was logged.')
				
			

同样地,在pipeline的文件夹使用可以知道是哪个pipeline文件夹报的一些提示信息

二、log文件的保存

很简单只要在settings.py中定义参数LOG_FILE=”XXX” XXX是文件名就可以了

一般py文件中的使用

在一般的文件中也可以使用logging.basicconfig对日志格式或者等级进行设置

也是用logger对象info,debug,warning来实现日志的写入

也可以from log_a import logger在一个文件中使用了logger可以引入到别的文件夹中使用同样配置的logger

用来指示数据或者提示信息来自于哪个py文件

三、debug信息的认识

因为debug没有warning优先级高所以我们再关闭了warning信息的时候,debug也就没有了,但是有时候报错或者爬虫无响应很多是以debug来返回的,所以没响应要及时打开debug