HAWQ毕业成为Apache项目
今天,很高兴和大家分享一个喜讯,历经近三年的孵化,Apache HAWQ于2018年8月15日正式毕业并成为Apache项目。
自2013年成立以来,Pivotal一直致力于建设强大,开放的开源社区和平台,并一直在通过知识产权和实际行动践行着这一承诺,包括将代码贡献给Cloud Foundry 基金会,并为Apache HAWQ项目,Apache Geode项目,Apache MADlib项目,Greenplum Database项目和Steeltoe项目持续贡献。除此之外,Pivotal还是Spring Framework(企业流行的Java应用程序开发框架)和其他Spring相关项目的主要贡献者。
在2015年初,Pivotal宣布了一项雄心勃勃的计划,即开放三种主要商业数据产品的核心代码--Pivotal Greenplum,Pivotal GemFire和Pivotal HAWQ。Pivotal为Apache软件基金会(ASF)提供了GemFire和HAWQ的核心代码和知识产权(IP),以启动Apache Geode和Apache HAWQ,并将Greenplum的核心代码和IP转移到一个名为Greenplum Database的新开源项目中。同年晚些时候,Pivotal将数据库内置的可扩展机器学习库MADlib转移到ASF作为Apache MADlib项目。今天,我们很开心的看到所有这三个Apache项目都顺利从孵化器中毕业并成为了项目。
HAWQ的开发始于2011年,在基于Greenplum和Postgres多年积累的基础上,Pivotal成功开发出了基于Hadoop的企业级SQL分析引擎。HAWQ的诞生不但提供了Hadoop平台上的基于SQL的大数据分析能力,而且性能方面也媲美MPP数据仓库。Pivotal在2015年向ASF贡献了HAWQ的核心代码,以确保Hadoop在为现代数据科学,商业智能和数据仓库提供支持方面的地位。 从那时起,Apache HAWQ既扩展了自己的愿景又朝着新的方向快速发展。 它提供了更大的弹性和更好的资源管理,以支持不断增长的用户群的需求和在包括公共云或私有云或共享物理集群环境上运行HAWQ的能力。在不久的将来,HAWQ将进一步向云端发力,充分利用HAWQ的弹性执行能力为用户提供云原生的数据分析服务。
毕业是Apache HAWQ的一个重要里程碑,也是一个新的开始,我们会继续践行开放和包容的态度,努力建设HAWQ社区。感谢Apache HAWQ的用户,ASF及Pivotal的全力支持,也祝贺所有HAWQ社区的成员!阅读具体信息请点击文章底部“阅读原文”。
“我们欣赏Apache HAWQ灵活的框架和在云生态中扩展的能力,它帮助阿里巴巴向那些寻求以异构计算系统处理即席查询及繁重的批量工作负载的用户提供服务。阿里巴巴鼓励越来越多的工程师继续拥抱开源,而Apache HAWQ则是其中的一个明星项目,我们很自豪自2015年以来就一直与这个社区合作。”
——阿里巴巴计算平台架构师刘奎恩
“VMware使用Apache HAWQ已有4年了,使用Apache Ambari可以轻松管理和扩展HAWQ集群,并且可以根据需求弹性的增删节点。 在我们的BI大数据系统中,HAWQ是用于访问Apache Hadoop数据集,构建模型和执行预测模型工作流的主力数据库。HAWQ让数十亿条记录,数千个表/函数/ Tableau报告以及数百个用户无缝协作。我们对HAWQ的需求正在增加。由于VMware总是鼓励我们回归并回馈开源技术,我们很乐意与这个社区合作并看到更多的增强功能。在我们的BI系统中,HAWQ是高优先级之一”
——VMware公司首席大数据工程师Dominie Jacob
“Apache HAWQ是一个极具吸引力的大数据应用技术, HAWQ作为我们大数据平台的基础,它已被用于我们的很多应用,例如交互式分析和电信数据上的BI。我们祝贺HAWQ成为Apache项目。”
——中兴软创架构师赵子绪
“海尔集团在Apache HAWQ诞生之初就在生产环境中部署了30多个节点的集群,我们在社交网络服务和物联网等领域使用了HAWQ作为临时查询和批量计算引擎。由于其出色的可扩展性和稳定性,HAWQ极大地提高了开发效率,降低了运营和维护成本。我们相信Apache HAWQ是 SQL-On-Hadoop领域的一款极具竞争力的产品。”
——海尔集团大数据架构师吴晓亮
贺词引用翻译自ASF网站
来自:https://mp.weixin.qq.com/s/HFtV6X3vnO32kM6eS4j8_A
相关文章