文章目录写在前面搭建好Hadoop集群环境安装Spark(Master节点上操作)配置环境变量(Master节点上操作)Spark配置(Master节点上操作)配置Worker节点启动Spark集群(在Master节点上操作)关闭Spark集群(在Master节点上操作) 写在前面 这里采用2台机器(节点)作为实例来演示如何搭建Spark集群,其中1台机器作为Master节点,另外一台机器作为Slave1节点(即作为Worker节点)。 集群环境 Centos6.4 Hadoop2.7.7 java 1.8 (请确保java版本在1.8以上,否则会踩坑,反正我后面踩了) 搭建好Hadoop集