首页 > 其他 > 详细

Scrapy数据持久化

时间:2019-10-22 16:03:10      阅读:71      评论:0      收藏:0      [点我收藏+]

数据持久化的需求:

  与其他系统交互的需求

数据持久化的方式:

  保存为文件:

    json

    csv

  保存到数据库中:

    mysql

    MongoDB

 

将数据保存在文件中的方法:

Feed exports:将数据导出成常用格式的方法

  默认支持的格式:

    JSON、JSON line、CSV、XML

  使用方法:

    在命令行中使用 -o 来调对应的 Feed exports

    在 settings.py 中配置 Feed exports

      FEED_FORMAT = ‘csv‘

      FEED_URI = ‘python.csv‘  

Scrapy数据持久化

原文:https://www.cnblogs.com/JinZL/p/11719834.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!