配置列表
CPU
:Intel i5-12400
散片
主板:微星 MAG B660 MORTAR WIFI DDR4
内存:光威 天策系列 16G * 2
套条
固态:宏基掠夺者 GM7000 PCIe4.0 NVMe
电源:长城 650w
金牌全模
散热:九州风神 玄冰 400V5
(四热管)
机箱:先马 平头哥 M2
(五风扇位,侧头玻璃)
系统:Windows 10
专业版
Spark
是用于处理大数据的集群计算框架 ,与其他大多数数据处理框架不同之处在于 Spark
没有以 MapReduce
作为执行引擎,而是使用它自己的分布式运行环境在集群上执行工作。另外 Spark
与 Hadoop
又紧密集成,Spark
可以在 YARN
上运行,并支持 Hadoop
文件格式及其存储后端(例如 HDFS
)。
Spark
最突出的表现在于其能将 作业与作业之间的大规模的工作数据集存储在内存中。这种能力使得在性能上远超 MapReduce
好几个数量级,原因就在于 MapReduce
数据都是从磁盘上加载。根据 Spark
的处理模型有两类应用获益最大,分别是 迭代算法(即对一个数据集重复应用某个函数,直至满足退出条件)和 交互式分析(用户向数据集发出一系列专用的探索性查询) 。
另外 Spark
还因为其具有的 DAG
引擎更具吸引力,原因在于 DAG
引擎可以处理任意操作流水线,并为用户将其转化为单个任务。
工作时需要拉一下测试环境的数据到开发环境,所以就是 mysqldump
老哥出场了…
1 | # mysqldump -h localhost -u root -p --tables test_table --where="str='str1'" > test_table_data.sql |
Hadoop
是一个分布式计算开源框架,其提供一个分布式文件系统子项目(HDFS
)和支持 MapReduce
分布式计算的软件架构。
在有了大量数据之后,那么该如何进行存储和分析这些数据呢?Hadoop
需要解决的问题如下:
replication
);系统保存数据的副本(replica
),一旦硬件系统出现故障,就立即使用另外保存的副本。MapReduce
提出了一个编程模型,该模型抽象出这些硬盘读/写问题并将其作为对一个数据集(由键值对组成)的计算。