帶你認識spark安裝包的目錄結構


 

 

 

 

福利 => 每天都推送 

歡迎大家,關注微信掃碼並加入我的4個微信公眾號:   大數據躺過的坑      Java從入門到架構師      人工智能躺過的坑         Java全棧大聯盟
 
     每天都有大量的學習視頻資料和精彩技術文章推送... 人生不易,唯有努力。
 
     百家號 :九月哥快訊               快手號:  jiuyuege
 
 
 
 
 

 

 

  其實啊,將spark的壓縮包解壓好,就已經是spark的最簡易安裝了。

其實啊,想說的是,只要將spark這壓縮包解壓好,就已經是spark的最簡易安裝了。

 

[spark@sparksinglenode spark-1.6.1-bin-hadoop2.6]$ ll
total 1408   drwxr-xr-x. 2 spark spark 4096 Feb 27 2016 bin (可執行) -rw-r--r--. 1 spark spark 1343562 Feb 27 2016 CHANGES.txt drwxr-xr-x. 2 spark spark 4096 Feb 27 2016 conf (配置文件) drwxr-xr-x. 3 spark spark 4096 Feb 27 2016 data       (例子里用到的一些數據) drwxr-xr-x. 3 spark spark 4096 Feb 27 2016 ec2 drwxr-xr-x. 3 spark spark 4096 Feb 27 2016 examples     (自帶的例子一些源代碼)  drwxr-xr-x. 2 spark spark 4096 Feb 27 2016 lib        (jar包) -rw-r--r--. 1 spark spark 17352 Feb 27 2016 LICENSE drwxr-xr-x. 2 spark spark 4096 Feb 27 2016 licenses -rw-r--r--. 1 spark spark 23529 Feb 27 2016 NOTICE drwxr-xr-x. 6 spark spark 4096 Feb 27 2016 python drwxr-xr-x. 3 spark spark 4096 Feb 27 2016 R         -rw-r--r--. 1 spark spark 3359 Feb 27 2016 README.md     (包含一些入門的spark說明) -rw-r--r--. 1 spark spark 120 Feb 27 2016 RELEASE drwxr-xr-x. 2 spark spark 4096 Feb 27 2016 sbin        (集群啟停,因為spark有自帶的集群環境) [spark@sparksinglenode spark-1.6.1-bin-hadoop2.6]$ pwd /usr/local/spark/spark-1.6.1-bin-hadoop2.6 [spark@sparksinglenode spark-1.6.1-bin-hadoop2.6]$

 

 

 

[spark@sparksinglenode bin]$ pwd
/usr/local/spark/spark-1.6.1-bin-hadoop2.6/bin
[spark@sparksinglenode bin]$ ll
total 92
-rwxr-xr-x. 1 spark spark 1099 Feb 27  2016 beeline
-rw-r--r--. 1 spark spark  932 Feb 27  2016 beeline.cmd
-rw-r--r--. 1 spark spark 1910 Feb 27  2016 load-spark-env.cmd
-rw-r--r--. 1 spark spark 2143 Feb 27  2016 load-spark-env.sh
-rwxr-xr-x. 1 spark spark 3459 Feb 27  2016 pyspark
-rw-r--r--. 1 spark spark 1486 Feb 27  2016 pyspark2.cmd
-rw-r--r--. 1 spark spark 1000 Feb 27  2016 pyspark.cmd
-rwxr-xr-x. 1 spark spark 2384 Feb 27  2016 run-example
-rw-r--r--. 1 spark spark 2682 Feb 27  2016 run-example2.cmd
-rw-r--r--. 1 spark spark 1012 Feb 27  2016 run-example.cmd
-rwxr-xr-x. 1 spark spark 2858 Feb 27  2016 spark-class
-rw-r--r--. 1 spark spark 2365 Feb 27  2016 spark-class2.cmd
-rw-r--r--. 1 spark spark 1010 Feb 27  2016 spark-class.cmd
-rwxr-xr-x. 1 spark spark 1049 Feb 27  2016 sparkR
-rw-r--r--. 1 spark spark 1010 Feb 27  2016 sparkR2.cmd
-rw-r--r--. 1 spark spark  998 Feb 27  2016 sparkR.cmd
-rwxr-xr-x. 1 spark spark 3026 Feb 27  2016 spark-shell
-rw-r--r--. 1 spark spark 1528 Feb 27  2016 spark-shell2.cmd
-rw-r--r--. 1 spark spark 1008 Feb 27  2016 spark-shell.cmd
-rwxr-xr-x. 1 spark spark 1075 Feb 27  2016 spark-sql
-rwxr-xr-x. 1 spark spark 1050 Feb 27  2016 spark-submit
-rw-r--r--. 1 spark spark 1126 Feb 27  2016 spark-submit2.cmd
-rw-r--r--. 1 spark spark 1010 Feb 27  2016 spark-submit.cmd
[spark@sparksinglenode bin]$ 

 

 

  拿bin目錄而言。比如

[spark@sparksinglenode bin]$ pwd
/usr/local/spark/spark-1.6.1-bin-hadoop2.6/bin
[spark@sparksinglenode bin]$ ./spark-shell 
log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Using Spark's repl log4j profile: org/apache/spark/log4j-defaults-repl.properties
To adjust logging level use sc.setLogLevel("INFO")
Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /___/ .__/\_,_/_/ /_/\_\   version 1.6.1
      /_/

Using Scala version 2.10.5 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_60)
Type in expressions to have them evaluated.
Type :help for more information.
Spark context available as sc.
17/03/24 04:37:19 WARN Connection: BoneCP specified but not present in CLASSPATH (or one of dependencies)
17/03/24 04:37:21 WARN Connection: BoneCP specified but not present in CLASSPATH (or one of dependencies)
17/03/24 04:37:36 WARN ObjectStore: Version information not found in metastore. hive.metastore.schema.verification is not enabled so recording the schema version 1.2.0
17/03/24 04:37:36 WARN ObjectStore: Failed to get database default, returning NoSuchObjectException
17/03/24 04:37:43 WARN Connection: BoneCP specified but not present in CLASSPATH (or one of dependencies)
17/03/24 04:37:43 WARN Connection: BoneCP specified but not present in CLASSPATH (or one of dependencies)
17/03/24 04:37:53 WARN ObjectStore: Version information not found in metastore. hive.metastore.schema.verification is not enabled so recording the schema version 1.2.0
17/03/24 04:37:53 WARN ObjectStore: Failed to get database default, returning NoSuchObjectException
SQL context available as sqlContext.

scala> 

 

 

 

 

  拿example而言,比如

 

   例子,(官網給的)

http://spark.apache.org/docs/latest/quick-start.html

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

歡迎大家,加入我的4個微信公眾號:    大數據躺過的坑     Java從入門到架構師    人工智能躺過的坑     Java全棧大聯盟    
 
 
 

同時,大家可以關注我的個人博客

   http://www.cnblogs.com/zlslch/   和     http://www.cnblogs.com/lchzls/      http://www.cnblogs.com/sunnyDream/   

   詳情請見:http://www.cnblogs.com/zlslch/p/7473861.html

 

  人生苦短,我願分享。本公眾號將秉持活到老學到老學習無休止的交流分享開源精神,匯聚於互聯網和個人學習工作的精華干貨知識,一切來於互聯網,反饋回互聯網。
  目前研究領域:大數據、機器學習、深度學習、人工智能、數據挖掘、數據分析。 語言涉及:Java、Scala、Python、Shell、Linux等 。同時還涉及平常所使用的手機、電腦和互聯網上的使用技巧、問題和實用軟件。 只要你一直關注和呆在群里,每天必須有收獲

 

      對應本平台的討論和答疑QQ群:大數據和人工智能躺過的坑(總群)(161156071) 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

     打開百度App,掃碼,精彩文章每天更新!歡迎關注我的百家號: 九月哥快訊

 

 

 

 

 

 

 

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM