在Windows 7上安装Spark需要先准备好以下环境:
下载并安装Java JDK 1.8:
1. 访问Oracle官网下载JDK
2. 运行安装程序
3. 配置环境变量:
JAVA_HOME=C:\Program Files\Java\jdk1.8.0_xxx
Path中添加%JAVA_HOME%\bin
下载Scala 2.11.x或2.12.x版本:
1. 从Scala官网下载.msi安装包
2. 运行安装程序
3. 配置环境变量:
SCALA_HOME=C:\Program Files (x86)\scala
Path中添加%SCALA_HOME%\bin
从Apache Spark官网下载预编译包:
1. 访问https://spark.apache.org/downloads.html
2. 选择"Pre-built for Apache Hadoop 2.7"版本
3. 下载.tgz文件并解压到C:\spark目录
1. 新建SPARK_HOME=C:\spark\spark-3.x.x-bin-hadoop2.7
2. 在Path中添加%SPARK_HOME%\bin
打开命令提示符,运行:
spark-shell
看到Spark欢迎界面表示安装成功。
确保JAVA_HOME环境变量配置正确,并且Path中包含Java bin目录。
检查日志文件中的错误信息,常见原因是Java版本不兼容或内存不足。
可能需要安装winutils.exe工具来解决Hadoop相关兼容性问题。
通过以上步骤,您已成功在Win7系统上安装配置了Spark环境。接下来可以开始学习Spark编程或部署Spark应用。如需使用完整功能,建议考虑升级到Windows 10或使用Linux环境。