spark在windows上local模式下的缺失winutils.exe异常在写入临时文件后,执行shell命令时报错出现nullcommand,由于没有配置hadoop在windows相关的winutils.exe命令文件,下载好该文件的后可以配置HADOOP_HOME环境变量HADOOP_HOME=F:/hadoop-common-2.2.0-bin-master或者在具体应用程序代码中最上方加入(我的是加入这个才有效,上面的无效)System.setProperty("hadoop.home.dir","F:/hadoop-common-2.2.0-bin-master")