向Spark集群提交任务


1.启动spark集群。

  启动Hadoop集群

  1. cd /usr/local/hadoop/
  2. sbin/start-all.sh

  启动Spark的Master节点和所有slaves节点

  1. cd /usr/local/spark/
  2. sbin/start-master.sh
  3. sbin/start-slaves.sh

2.standalone模式:

  向独立集群管理器提交应用,需要把spark://master:7077作为主节点参数递给spark-submit。下面我们可以运行Spark安装好以后自带的样例程序SparkPi,它的功能是计算得到pi的值(3.1415926)。

  在Shell中输入如下命令:

  bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://master:7077 examples/jars/spark-examples_2.11-2.0.2.jar 100 2>&1 | grep "Pi is roughly"

      

      

 

3.hadoop yarn 管理模式:

  向Hadoop YARN集群管理器提交应用,需要把yarn-cluster作为主节点参数递给spark-submit。请登录Linux系统,打开一个终端,在Shell中输入如下命令:

  bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn-cluster examples/jars/spark-examples_2.11-2.0.2.jar

  

   输入途中的urI,即可查看任务进程。

   

  

 

  

 

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM