Python Scrapy 爬虫框架 | 5、利用 pipelines 和 settings 将爬取数据存储到 MongoDB

admin 2022年7月13日10:23:08评论27 views字数 1204阅读4分0秒阅读模式

0x00 前言

前文中讲到了将爬取的数据导出到文件中,接下来就在前文的代码基础之上,将数据导出到 MongoDB中。

0x01 配置 pipelines.py

首先来到 pipelines.py 文件下,在这里写入连接操作数据库的一些功能。

将连接操作 mongo 所需要的包导入进来

import pymongo

接下来定义一些参数,注意下面的函数都是在 TeamssixPipeline 类下的

@classmethoddef from_crawler(cls, crawler):cls.DB_URL = crawler.settings.get('MONGO_DB_URI')cls.DB_NAME = crawler.settings.get('MONGO_DB_NAME')return cls()
def open_spider(self, spider):self.client = pymongo.MongoClient(self.DB_URL)self.db = self.client[self.DB_NAME]
def close_spider(self, spider):self.client.close()
def process_item(self, item, spider):collection = self.db[spider.name]collection.insert_one(dict(item))return item

0x02 配置 settings.py

ITEM_PIPELINES 是settings.py 文件自带的,把注释符号删掉就好

ITEM_PIPELINES = {'teamssix.pipelines.TeamssixPipeline': 300,  #优先级,1-1000,数值越低优先级越高}MONGO_DB_URI = 'mongodb://localhost:27017'  #mongodb 的连接 urlMONGO_DB_NAME = 'blog'  #要连接的库

0x02 运行

直接执行命令,不加参数

scrapy crawl blogurl

注意,如果原来 MongoDB 中没有我们要连接的库, MongoDB 会自己创建,就不需要自己创建了,所以还是蛮方便的,使用 Robo 3T 打开后,就能看到刚才存进的数据。

Python Scrapy 爬虫框架 | 5、利用 pipelines 和 settings 将爬取数据存储到 MongoDB

参考链接:

https://youtu.be/aDwAmj3VWH4
http://doc.scrapy.org/en/latest/topics/architecture.html
https://lemmo.xyz/post/Scrapy-To-MongoDB-By-Pipeline.html


往期推荐
2、利用 Scrapy 爬取我的博客文章标题链接
3、利用 Scrapy 爬取博客文章详细信息
4、数据项介绍和导出文件

Python Scrapy 爬虫框架 | 5、利用 pipelines 和 settings 将爬取数据存储到 MongoDB

原文始发于微信公众号(TeamsSix):Python Scrapy 爬虫框架 | 5、利用 pipelines 和 settings 将爬取数据存储到 MongoDB

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2022年7月13日10:23:08
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   Python Scrapy 爬虫框架 | 5、利用 pipelines 和 settings 将爬取数据存储到 MongoDBhttp://cn-sec.com/archives/785664.html

发表评论

匿名网友 填写信息