美文网首页Python程序员联盟程序员
MAC Spark安装和环境变量设置

MAC Spark安装和环境变量设置

作者: qixiong | 来源:发表于2018-04-27 16:05 被阅读18次

本文使用的是Spark和python结合Spark的API组件pyspark
安装Spark之前确保已有JDK环境和python环境(本文为JDK1.8.0_60和python3.6.5)

Spark安装

1.官网下载spark
本文下载版本是spark-2.3.0-bin-hadoop2.7.tgz
2.安装spark到/usr/local/
terminal中定位到spark-2.3.0-bin-hadoop2.7.tgz目录,移动spark-2.3.0-bin-hadoop2.7.tgz到/usr/local

rm spark-2.3.0-bin-hadoop2.7.tgz /usr/local

解压缩spark-2.3.0-bin-hadoop2.7.tgz

tar -zvxf spark-2.3.0-bin-hadoop2.7.tgz(若要改名,再添加一个变量为你想改动的名字,本文未改动)

3.安装pyspark(本文使用python3,且mac自带python 2.7)

pip3 install pyspark

4.设置环境变量
打开~/.bash_profile

vim ~/.bash_profile

添加

export SPARK_HOME=/usr/local/spark-2.3.0-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin

使环境变量生效

source ~/.bash_profile

5.在terminal中输入

pyspark

就会出现如下界面了


pyspark交互界面

此时,Spark和pyspark都安装好了

结合Jupyter使用和python版本的冲突请戳此处

转载请注明出处

相关文章

网友评论

本文标题:MAC Spark安装和环境变量设置

本文链接:https://www.haomeiwen.com/subject/sqxilftx.html