经过Apache Hudi项目委员会讨论及投票决定,来自阿里云的Pengzhiwei和DannyChan成为Apache Hudi Committer,新晋人才也保证了Hudi社区在正确的轨道上不断发展。
Pengzhiwei持续在Apache Hudi社区贡献,开发了诸多特性,如Spark SQL集成Hudi,该功能降低了用户使用Hudi的门槛,SQL化操作让数据入湖更加顺滑,还贡献了Spark流式读取Hudi表,Spark FileIndex等一系列Spark侧的特性,同时在Github Issue、Hudi中国微信群积极回答用户各种问题,Pengzhiwei是一个非常好的团队协作同学,Pengzhiwei具有多年流计算SQL引擎开发经验,目前主要负责数据湖格式以及实时入湖方面的研发工作。
Danny Chan也贡献了非常多的特性,主要集中在Flink与Hudi的集成,包括新的无阻塞的Flink写入链路,Flink流和批读Hudi表(COW和MOR),以及实现了Hudi Flink SQL Connector(读和写),极大方便了数据入湖。同时Danny也积极回答用户的各类问题,同时也输出了Flink与Hudi集成指南,并且开了一场Flink集成Hudi的直播,DannyChan目前专注于Flink与Hudi的集成。
随着AWS、阿里巴巴等世界顶级云厂商内置Hudi为数据湖基础设施,赋能世界范围内成千上万公司,基于Hudi构建事务型实时数据湖平台,以Lakehouse架构赋能AI和BI等典型的大数据场景,驱动企业数字化转型。
Apache Hudi社区在不断发展壮大,微信群/社区Slack/邮件列表非常活跃,讨论也非常开放,随着Hudi被越来越多公司熟知和使用,也吸引全球越来越多的小伙伴参与到社区中,对华人非常友好,其中来自国内开发者的声音越来越大,也欢迎一起更多国内小伙伴一起参与社区,让你的代码创造世界范围的影响力。
如果你想参与Hudi社区但还不了解如何参与,可参考如下两篇文章:
持续参与社区贡献,如特性开发、bugfix、Code Review、回答用户问题、积极参与讨论、推广Hudi等,Committer便水到渠成,行动起来,下一个Committer可能就是你。
再次恭喜Pengzhiwei和DannyChan,一起打造更好的数据湖平台。
Apache Hudi项目github地址:https://github.com/apache/hudi,欢迎fork & star
原文:https://www.cnblogs.com/leesf456/p/15086140.html