首页 > 其他 > 详细

Spark 提交运行 保存结果 流程控制

时间:2020-05-05 13:47:19      阅读:75      评论:0      收藏:0      [点我收藏+]

1.Spark 内部已经实现了连接各种数据库和仓库

MySQL   HDFS   HIVE  textFile  RDD(数据集)

将 HDFS 基于Spark 得到的计算结果保存至MySQL 也是极其简单的

 

如何将程序更加模块化和可控制 ,我们一般都是运行时加不同参数

以达到不同时间 , 不同地点 , 不同需求的计算任务 

也就是

1.数据不同(时间上,业务上)

2.计算过程不同(需求改变)

3.最终形态不一样(存储到不同位置)

---------其实这三个问题都可以用参数解决 , 相当于case , 满足什么  , 执行什么 .

尽量在不改变原有代码的情况下 , 让业务功能更加灵活 . 准确 ,稳定 ,高效 . 多维度

Spark 提交运行 保存结果 流程控制

原文:https://www.cnblogs.com/alpha-cat/p/12830197.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!