Standalone Mode的佈建 一

Standalone Mode的佈建 一

Cluster群集介紹

Spark可以建立群集來跨資源分配,基本上有三種模式可以選擇:

  • Standalone
  • Apache Mesos
  • Hadoop YARN

這邊以Standalone來介紹如何建立環境

環境介紹

這邊有三台電腦分別為:

Hostname IP
Master 192.168.2.101
Slave1 192.168.2.102
Slave2 192.168.2.103

環境設定

Master設定

到Spark目錄下的/sbin執行下面指令

1
$ ./start-master.sh --host [Master_IP]

以我的例子,Master_IP就是192.168.2.101

執行完後,Master的位置會在192.168.2.101:7077(預設port)
在瀏覽器輸入Master_IP:8080,就會看到下面畫面

Slave設定

分別在每個Slave上建立起Worker Node
所以到各個Slave輸入下列指令

1
$ ./start-slave.sh spark://[Master_IP]:7077

將Slave1、Slave2都加進來後會看到下面畫面

執行Application

Spark-Shell

一樣到Spark目錄下的/bin執行之前所使用的Spark-Shell
但比較不一樣的,這次要指定Master

1
$ spark-shell --master spark://[Master_IP]:7077

PI迭代計算

這邊我們實際玩個例子
可以來跑一下官方自帶的Example Code
以python所寫的迭代計算PI
到Spark目錄下的/examples/src/main/python
執行下面指令,來迭代10次算出PI

1
$ spark-submit --master spark://[Master_IP]:7077 pi.py 10

結束Standlaone Mode

到Spark目錄下的/sbin執行下面指令

1
$ ./stop-all.sh

參考

http://spark.apache.org/docs/latest/spark-standalone.html