Spark概念和框架介绍 2022-05-31 00:00:00 数据 集群 操作 内存 计算 一:什么是sparkApache Spark 是专为大规模数据处理而设计的快速通用的计算引擎, 由加州大学伯克利分校 AMP 实验室 (Algorithms, Machines, and People Lab) 开发,可用来构建大型的、低延迟的数据分析应用程序。Spark在2013年6月进入Apache成为孵化项目,8个月后成为Apache项目,速度之快足见过人之处,Spark以其先进的设计理念,迅速成为社区的热门项目。 相关文章