Spark環境快速安裝
先介紹一下我佈署的環境:
- Ubuntu 16.04 LTS
- Java 8
- Scala 2.12.1
- Spark 2.1.0
- Hadoop 2.7
佈建Spark環境之前,需要先裝Java、Scala
下面會一步一步教如何安裝
教學最後我也寫了一個Script來幫助自動安裝
Java環境安裝
1 | $ add-apt-repository ppa:webupd8team/java |
Scala環境安裝
因為我想裝在HOME
目錄,所以cd到HOME
目錄,這邊可以依照自行決定下載路徑
1 | $ cd ~ |
Spark + Hadoop環境安裝
基本上可以到官方網站http://spark.apache.org/downloads.html
選擇你要的版本,這邊我是選spark-2.1.0-bin-hadoop2.7來做下載
我還是將它放到HOME
目錄底下
1 | $ cd ~ |
環境變數
到這裡該下載的都完成了,再來就是設定環境變數
主要是編輯~/.bashrc
這個檔案,在裡面新增下列指令
這邊要注意的一點是,SPARK_HOME
與SCALA_HOME
這邊是我剛剛下載的路徑,所以請按照自己環境設定
而JAVA_HOME
一般來講是不用動的
1 | export SPARK_HOME=~/spark-2.1.0-bin-hadoop2.7 |
加入上列4條環境變數後,就可執行下面指令來生效
1 | $ source ~/.bashrc |
執行Spark
最後一步就是執行Spark看看是否成功
到Spark目錄下的/bin
執行下面指令
1 | $ spark-shell |
看到下面結果就表示成功囉
自動安裝
在新的環境直接跑下面指令
1 | $ wget https://raw.githubusercontent.com/aswergbh888/Spark/master/Install/SparkInstaller.sh -O - | sh |
Spark會安裝在HOME
目錄,所以要執行spark-shell就輸入下面指令
1 | $ ~/spark-2.1.0-bin-hadoop2.7/bin/spark-shell |