国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

scrapy自定義pipeline類實現將采集數據保存到mongodb的方法

2020-02-23 00:46:23
字體:
來源:轉載
供稿:網友

本文實例講述了scrapy自定義pipeline類實現將采集數據保存到mongodb的方法。分享給大家供大家參考。具體如下:

# Standard Python library imports# 3rd party modulesimport pymongofrom scrapy import logfrom scrapy.conf import settingsfrom scrapy.exceptions import DropItemclass MongoDBPipeline(object):  def __init__(self):    self.server = settings['MONGODB_SERVER']    self.port = settings['MONGODB_PORT']    self.db = settings['MONGODB_DB']    self.col = settings['MONGODB_COLLECTION']    connection = pymongo.Connection(self.server, self.port)    db = connection[self.db]    self.collection = db[self.col]  def process_item(self, item, spider):    err_msg = ''    for field, data in item.items():      if not data:        err_msg += 'Missing %s of poem from %s/n' % (field, item['url'])    if err_msg:      raise DropItem(err_msg)    self.collection.insert(dict(item))    log.msg('Item written to MongoDB database %s/%s' % (self.db, self.col),        level=log.DEBUG, spider=spider)    return item

希望本文所述對大家的python程序設計有所幫助。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 神农架林区| 巴彦县| 瑞金市| 郓城县| 长丰县| 百色市| 皮山县| 长乐市| 广德县| 郧西县| 如东县| 长治市| 江永县| 灵石县| 利津县| 西盟| 郎溪县| 紫阳县| 吕梁市| 霍邱县| 通许县| 瑞金市| 柏乡县| 海城市| 新营市| 南木林县| 益阳市| 当涂县| 盈江县| 顺昌县| 峨边| 潞西市| 苏尼特右旗| 龙口市| 鱼台县| 邵东县| 利津县| 油尖旺区| 临朐县| 闵行区| 依兰县|