爬虫进阶:框架功能完善-380玩彩网官网入口
完善框架的基础功能
项目
中除了实现main.py以外,还需要实现:
- 项目配置文件
- 爬虫文件
- 管道文件
- 中间件文件
框架
中还需要实现:
- 框架配置文件,并且需要实现导入项目配置文件,同时覆盖默认配置文件的属性
- 支持多个爬虫的传入以及使用
- 支持多个管道的传入以及使用
- 支持多个中间件的传入以及使用
日志模块的使用
为什么要使用添加日志功能
- 能够方便的对程序进行调试
- 能够记录程序的运行状态,包括错误
日志模块简单使用
- 日志的等级
import logging
# 日志的五个等级,等级依次递增
# 默认是warning等级
logging.debug
logging.info
logging.warning
logging.error
logging.critical
# 设置日志等级
logging.basicconfig(level=logging.info)
# 使用
logging.debug('debug')
logging.info('info')
logging.warning('warning')
logging.error('error')
logging.critical('critical')
- 捕获异常信息到日志。这里主要需要进行捕获异常才能记录下完整的异常信息
try:
raise exception("异常")
except exception as e:
logging.exception(e)
- 日志的输出格式 对于日志的输出格式,我们能够进行自定义,包括输出的
内容格式
和时间格式
format格式说明:
%(name)s logger的名字
%(levelno)s 数字形式的日志级别
%(levelname)s 文本形式的日志级别
%(pathname)s 调用日志输出函数的模块的完整路径名,可能没有
%(filename)s 调用日志输出函数的模块的文件名
%(module)s 调用日志输出函数的模块名
%(funcname)s 调用日志输出函数的函数名
%(lineno)d 调用日志输出函数的语句所在的代码行
%(created)f 当前时间,用unix标准的表示时间的浮 点数表示
%(relativecreated)d 输出日志信息时的,自logger创建以 来的毫秒数
%(asctime)s 字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒
%(thread)d 线程id。可能没有
%(threadname)s 线程名。可能没有
%(process)d 进程id。可能没有
%(message)s 用户输出的消息
datefmt参数说明:
%y 两位数的年份表示(00-99) %y 四位数的年份表示(000-9999) %m 月份(01-12) %d 月内中的一天(0-31) %h 24小时制小时数(0-23) %i 12小时制小时数(01-12) %m 分钟数(00=59) %s 秒(00-59) %a 本地简化星期名称 %a 本地完整星期名称 %b 本地简化的月份名称 %b 本地完整的月份名称 %c 本地相应的日期表示和时间表示 %j 年内的一天(001-366) %p 本地a.m.或p.m.的等价符 %u 一年中的星期数(00-53)星期天为星期的开始 %w 星期(0-6),星期天为星期的开始 %w 一年中的星期数(00-53)星期一为星期的开始 %x 本地相应的日期表示 %x 本地相应的时间表示 %z 当前时区的名称 %% %号本身
利用logger封装日志模块
在scrapy_plus目录下建立utils包 (utility:工具),专门放置工具类型模块,如日志模块log.py
下面的代码内容是固定的,在任何地方都可以使用下面的代码实习日志内容的输出
# scrapy_plus/utils/log.py
import sys
import logging
# 默认的配置
default_log_level = logging.info # 默认等级
default_log_fmt = '%(asctime)s %(filename)s [line:%(lineno)d] %(levelname)s: %(message)s' # 默认日志格式
defualt_log_datefmt = '%y-%m-%d %h:%m:%s' # 默认时间格式
default_log_filename = 'log.log' # 默认日志文件名称
class logger(object):
def __init__(self):
# 1. 获取一个logger对象
self._logger = logging.getlogger()
# 2. 设置format对象
self.formatter = logging.formatter(fmt=default_log_fmt,datefmt=defualt_log_datefmt)
# 3. 设置日志输出
# 3.1 设置文件日志模式
self._logger.addhandler(self._get_file_handler(default_log_filename))
# 3.2 设置终端日志模式
self._logger.addhandler(self._get_console_handler())
# 4. 设置日志等级
self._logger.setlevel(default_log_level)
def _get_file_handler(self, filename):
'''返回一个文件日志handler'''
# 1. 获取一个文件日志handler
filehandler = logging.filehandler(filename=filename,encoding="utf-8")
# 2. 设置日志格式
filehandler.setformatter(self.formatter)
# 3. 返回
return filehandler
def _get_console_handler(self):
'''返回一个输出到终端日志handler'''
# 1. 获取一个输出到终端日志handler
console_handler = logging.streamhandler(sys.stdout)
# 2. 设置日志格式
console_handler.setformatter(self.formatter)
# 3. 返回handler
return console_handler
@property
def logger(self):
return self._logger
# 初始化并配一个logger对象,达到单例的
# 使用时,直接导入logger就可以使用
logger = logger().logger
在框架中使用日志模块
使用参考
# scrapy_plus/core/engine.py
from datetime import datetime
from scrapy_plus.http.request import request # 导入request对象
from scrapy_plus.middlewares.spider_middlewares import spidermiddleware
from scrapy_plus.middlewares.downloader_middlewares import downloadermiddleware
from scrapy_plus.utils.log import logger # 导入logger
from .spider import spider
from .scheduler import scheduler
from .downloader import downloader
from .pipeline import pipeline
class engine(object):
......
def start(self):
'''启动整个引擎'''
start = datetime.now() # 起始时间
logger.info("开始运行时间:%s" % start) # 使用日志记录起始运行时间
self._start_engine()
stop = datetime.now() # 结束时间
logger.info("开始运行时间:%s" % stop) # 使用日志记录结束运行时间
logger.info("耗时:%.2f" % (stop - start).total_seconds()) # 使用日志记录运行耗时
......