scrapy logging的介绍
之前我们用过在settings.py中加LOG_LEVEL=”WARNING”来达到只在控制台显示warning及warning以上级别的响应,今天来具体展示一下logging的用途
一、logging 的介绍
logging是python内建的debug日志
需要import logging来导入
logging.warning(“”)以warning的响应输出内容还可以保存在本地
logging.debug(“”)以debug的响应输出内容还可以保存在本地
logging.info(“”)以info的响应输出内容还可以保存在本地
- debug : 打印全部的日志( notset 等同于 debug )
- info : 打印 info, warning, error, critical 级别的日志
- warning : 打印 warning, error, critical 级别的日志
- error : 打印 error, critical 级别的日志
- critical : 打印 critical 级别
日志级别等级排序:critical > error > warning > info > debug
logger=logging.getLogger(__name__)#这里的__name__不是main而是文件名 使用logger.warning,debug,info可以更好地知道是来自于哪个文件的
显示消息日期
import logging
# 显示消息时间
logging.basicConfig(format='%(asctime)s %(message)s')
logging.warning('is when this event was logged.')
logging.basicConfig(format='%(asctime)s %(message)s', datefmt='%m/%d/%Y %I:%M:%S %p')
logging.warning('is when this event was logged.')
同样地,在pipeline的文件夹使用可以知道是哪个pipeline文件夹报的一些提示信息
二、log文件的保存
很简单只要在settings.py中定义参数LOG_FILE=”XXX” XXX是文件名就可以了
一般py文件中的使用
在一般的文件中也可以使用logging.basicconfig对日志格式或者等级进行设置
也是用logger对象info,debug,warning来实现日志的写入
也可以from log_a import logger在一个文件中使用了logger可以引入到别的文件夹中使用同样配置的logger
用来指示数据或者提示信息来自于哪个py文件
三、debug信息的认识
因为debug没有warning优先级高所以我们再关闭了warning信息的时候,debug也就没有了,但是有时候报错或者爬虫无响应很多是以debug来返回的,所以没响应要及时打开debug
Comments NOTHING