记录一下scrapy中settings的一些配置小结


Posted in Python onSeptember 28, 2020

本文主要介绍了scrapy settings配置,分享给大家,具体如下:

# 字符编码
FEED_EXPORT_ENCODING = 'utf-8'
# redis写法一
# REDIS_URL = 'redis://localhost:6379' 

# redis写法二
REDIS_HOST = '192.168.10.223'
REDIS_PORT = 6379
# 默认的 scrapy redis 会读取下面的密码和db
REDIS_PARAMS = {
 'password': '123456',
 'db': redis_db
}
# 对于失败的HTTP请求(如超时)进行重试会降低爬取效率,当爬取目标基数很大时,舍弃部分数据不影响大局,提高效率
# RETRY_ENABLED = False
# 请求下载超时时间,默认180秒
DOWNLOAD_TIMEOUT = 10
# 1:设置去重组件,使用的是scrapy_redis的去重组件,而不是scrapy自己的去重组件了
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
# 2:设置调度器,使用scrapy——redis重写的调度器,
# 而不再使用scrapy内部的调度器了
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
# 3:可以实现断点爬取=jondir,(请求的记录不会丢失,会存储在redis数据库中,
# 不会清除redis的队列,下次直接从redis的队列中爬取)
SCHEDULER_PERSIST = True
# 4:设置任务队列的模式(三选一):
# SpiderPriorityQueue数据scrapy-redis默认使用的队列模式(
# 有自己的优先级)默认第一种
SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderPriorityQueue"
# 使用了队列的形式,任务先进先出。
# SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderQueue"
# 采用了栈的形式:任务先进后出
# SCHEDULER_QUEUE_CLASS = "scrapy_redis.queue.SpiderStack"

'''
用来控制当接收到的 response 头信息中的 Content-Length 和内容不匹配或者response chunk 未正确结束时的时所采取的操作。
当 DOWNLOAD_FAIL_ON_DATALOSS 为 True 的时候抛出 ResponseFailed([_DataLoss]) 错误
当设置为 False 时, 校验未通过的 response 将被忽略并且添加一个名为 dataloss 的 flag 到 response.flag
'''
DOWNLOAD_FAIL_ON_DATALOSS = False
MONGO_URI = 'mongodb://用户名:密码@ip:port'

到此这篇关于记录一下scrapy中settings的一些配置小结的文章就介绍到这了,更多相关scrapy settings配置内容请搜索三水点靠木以前的文章或继续浏览下面的相关文章希望大家以后多多支持三水点靠木!

Python 相关文章推荐
Python模仿POST提交HTTP数据及使用Cookie值的方法
Nov 10 Python
Django框架中render_to_response()函数的使用方法
Jul 16 Python
windows系统下Python环境的搭建(Aptana Studio)
Mar 06 Python
python中reduce()函数的使用方法示例
Sep 29 Python
python 基本数据类型占用内存空间大小的实例
Jun 12 Python
python实现俄罗斯方块游戏
Mar 25 Python
Python使用cx_Freeze库生成msi格式安装文件的方法
Jul 10 Python
python实现飞机大战
Sep 11 Python
python网络爬虫 Scrapy中selenium用法详解
Sep 28 Python
flask利用flask-wtf验证上传的文件的方法
Jan 17 Python
.img/.hdr格式转.nii格式的操作
Jul 01 Python
python3实现语音转文字(语音识别)和文字转语音(语音合成)
Oct 14 Python
使用scrapy ImagesPipeline爬取图片资源的示例代码
Sep 28 #Python
详解scrapy内置中间件的顺序
Sep 28 #Python
Python爬虫代理池搭建的方法步骤
Sep 28 #Python
浅析python 通⽤爬⾍和聚焦爬⾍
Sep 28 #Python
Scrapy 配置动态代理IP的实现
Sep 28 #Python
Scrapy中如何向Spider传入参数的方法实现
Sep 28 #Python
详解向scrapy中的spider传递参数的几种方法(2种)
Sep 28 #Python
You might like
php 升级到 5.3+ 后出现的一些错误,如 ereg(); ereg_replace(); 函数报错
2015/12/07 PHP
php基于curl重写file_get_contents函数实例
2016/11/08 PHP
替换php字符串中的单引号为双引号的方法
2017/02/16 PHP
PHP+RabbitMQ实现消息队列的完整代码
2019/03/20 PHP
Firefox中通过JavaScript复制数据到剪贴板(Copy to Clipboard 跨浏览器版)
2013/11/22 Javascript
Node.js中调用mysql存储过程示例
2014/12/20 Javascript
解决jquery实现的radio重新选中的问题
2015/07/03 Javascript
jQuery实现定时读取分析xml文件的方法
2015/07/16 Javascript
JS HTML5实现拖拽移动列表效果
2020/08/27 Javascript
jQuery Easyui使用(一)之可折叠面板的布局手风琴菜单
2016/08/17 Javascript
AngularJs bootstrap搭载前台框架——准备工作
2016/09/01 Javascript
Vue.js每天必学之过渡与动画
2016/09/06 Javascript
详解基于javascript实现的苹果系统底部菜单
2016/12/02 Javascript
详解angularJs中自定义directive的数据交互
2017/01/13 Javascript
JavaScript实现前端实时搜索功能
2020/03/26 Javascript
详解Vue 动态添加模板的几种方法
2017/04/25 Javascript
全面解析Node.js 8 重要功能和修复
2017/06/02 Javascript
浅谈如何使用 webpack 优化资源
2017/10/20 Javascript
js实现适配移动端的拖动效果
2020/01/13 Javascript
原生js实现自定义滚动条组件
2021/01/20 Javascript
Python3解决棋盘覆盖问题的方法示例
2017/12/07 Python
Python编程之gui程序实现简单文件浏览器代码
2017/12/08 Python
Python global全局变量函数详解
2018/09/18 Python
python 解压pkl文件的方法
2018/10/25 Python
实时获取Python的print输出流方法
2019/01/07 Python
Pycharm如何打断点的方法步骤
2019/06/13 Python
Scrapy框架实现的登录网站操作示例
2020/02/06 Python
scrapy数据存储在mysql数据库的两种方式(同步和异步)
2020/02/18 Python
python中加背景音乐如何操作
2020/07/19 Python
利用HTML5+css3+jquery+weui实现仿微信聊天界面功能
2018/01/08 HTML / CSS
举例详解HTML5中使用JSON格式提交表单
2015/06/16 HTML / CSS
PHP经典面试题
2016/09/03 面试题
护士实习自我鉴定
2013/10/22 职场文书
演讲稿格式范文
2014/05/19 职场文书
企业开业庆典答谢词
2015/01/20 职场文书
推广普通话宣传标语口号
2015/12/26 职场文书