首页 > 数据库技术 > 详细

Parquet + Spark SQL

时间:2016-11-24 18:33:23      阅读:167      评论:0      收藏:0      [点我收藏+]

海量数据存储 推荐用 Parquet列式存储 替代 HDFS上的文件

下面两篇文章讲解 用Parquet列式存储来存储数据,主要是提高查询性能、和存储压缩

《Spark SQL下的Parquet使用最佳实践和代码实战》http://blog.csdn.net/sundujing/article/details/51438306
《操作技巧:将 Spark 中的文本转换为 Parquet 以提升性能》http://www.ibm.com/developerworks/cn/analytics/blog/ba-parquet-for-spark-sql/index.html

离线:Kafka -> HDFS -> Parquet -> Spark SQL
实时:Kafka -> Spark Streaming -> Parquet -> Spark SQL(ML、Graphx等)

 

Parquet + Spark SQL

原文:http://www.cnblogs.com/lsx1993/p/6098657.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!