spark详解.pdf spark详解,spark 与 mapreduce最大的区别在于,spark使用的是迭代式的计算方式,mapreduce分为两个阶段map和reduce, 所以我们在一个job里的处理很有限。spark是基于内存迭代式的,在处理完一个阶段后,可以继续处理很多个阶段, 而不止是两个阶段,所以spark