目录

0.写在前面1.java环境2.安装scala3.安装spark4.安装hadoop5.安装winutils6.测试程序

0.写在前面

目前Spark官方提供的最新版本3.2.0,是2021年10月份发布,但是该版本搭建Windows下环境,在使用spark-shell时,会报错,尚无解决方案(不知道现在解决没有)。所以我安装的是3.1版本 所使用的到的版本 spark 3.1.3 hadoop 3.2.1 scala 2.12 (注意,spark3.1.2不支持Scala2.13) java 1.8 使用到的链接 scala官方下载 spark官方下载 hadoop官方下载 winutils下载 另所有使用的东西我都打包到 链接:https://pan.baidu.com/s/1fFEZmqUWZks-Hh5LkKRVww 提取码:1152

1.java环境

这里建议安装java8 不要装太高或者太低的版本 去官网上下载好 双击 点击下一步 选择你指定的目录 选取下一步 进行安装 这里我安装到了 D:\Java 记得配置环境!!! win10 搜索环境变量 点击环境变量 新建变量 JAVA_HOME 注意大写 点击编辑 path 新建java环境 完成以后 进行检验 打开cmd 输入 java -version 这样即可

2.安装scala

要注意的问题scala的版本要和spark版本对应 这里我安装的scala 2.12 点击链接 滑到下面 点击 往下滑 选择.msi的文件下载安装,会自动在系统中添加环境变量。 查看是否已经安装变量 (查看是否有SCALA_HOME 和path里面是否已经添加变量) 没有的话 请补充 完成以后 进行检验 打开cmd 输入 scala

3.安装spark

还记得前面的scala与spark对应 这里安装3.1版本 打开链接 注意标红线的地方 进行下载 解压 同样的 我们要配置环境 如下图 path 当中环境 其实 改成%SPARK_HOME%\bin 一样的 前面也是

4.安装hadoop

根据之前的 我们 安装 hadoop3.2.1 下载链接 据说tar.gz是编译好的,不需要我们再做编译,包括前面选择也是gz。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/4c5ae32b29704765a6b10820b35ac56e.png 下载,解压到指定目录下 同样的 我们要配置环境 如下图 在path环境中新建 打开cmd 输入 hadoop version

5.安装winutils

链接如下(上文也有) https://github.com/cdarlint/winutils 我们进行下载对应版本 把这个文件放到hadoop的bin下 完成

6.测试程序

打开cmd 输入 spark-shell 完成

查看原文