Spark概念和框架介绍

2022-05-31 00:00:00 数据 集群 操作 内存 计算

一:什么是spark

Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎, 由加州大学伯克利分校 AMP 实验室 (Algorithms, Machines, and People Lab) 开发,可用来构建大型的、低延迟的数据分析应用程序。Spark在2013年6月进入Apache成为孵化项目,8个月后成为Apache项目,速度之快足见过人之处,Spark以其先进的设计理念,迅速成为社区的热门项目。

相关文章