前提:需要安装了jdk和python
步骤:安装spark+hadhoop(这两个要同时安装spark才可以运行)
下载并安装spark
1.从官网http://spar.apache/上下载最新的版本,保存在你喜欢的位置(在我这,我把它保存到了C盘根目录下并创建了一个文件夹spark)
2.打开【编辑系统环境变量】-【环境变量】-【系统变量】
3.点击【新建】
将以下内容加入【系统变量】中
4.再到【系统变量】中的【path】里添加:
%SPARK_HOME%\bin
%SPARK_HOME%\sbin
下载hadhoop
1.点击这个链接,进入后就会自动下载并解压到C盘中,(我这里就是保存到C盘的Hadoop文件夹)
前提:需要安装了jdk和python
步骤:安装spark+hadhoop(这两个要同时安装spark才可以运行)
下载并安装spark
1.从官网http://spar.apache/上下载最新的版本,保存在你喜欢的位置(在我这,我把它保存到了C盘根目录下并创建了一个文件夹spark)
2.打开【编辑系统环境变量】-【环境变量】-【系统变量】
3.点击【新建】
将以下内容加入【系统变量】中
4.再到【系统变量】中的【path】里添加:
%SPARK_HOME%\bin
%SPARK_HOME%\sbin
下载hadhoop
1.点击这个链接,进入后就会自动下载并解压到C盘中,(我这里就是保存到C盘的Hadoop文件夹)