系統:
Ubuntu_18.01
Spark_2.3.1
Scala_2.12.6
MongoDB_3.6.3
參考MongoDB官方網址:https://github.com/mongodb/mongo-spark
$ git clone https://github.com/mongodb/mongo-spark.git
$ cd mongo-spark $ ./sbt check (這個地方費點時間,耐心等待)

$ ./sbt +publish-signed

$ ./sbt +spPublish
本文使用mongodb官方的MongoDB Connector for Apache Spark,先下載MongoDB Connector for Apache Spark 。
MongoDB Connector for Apache Spark的使用方法非常簡單,到spark的安裝的bin目錄下執行下面語句:
cd /usr/local/spark/bin
按照官方文檔啟動Spark Connector Scala Guide
./spark-shell --conf "spark.mongodb.input.uri=mongodb://localhost:27017/test.test?authSource=admin" --conf "spark.mongodb.output.uri=mongodb://localhost:27017/test.test?authSource=admin" --packages org.mongodb.spark:mongo-spark-connector_2.12:2.4.0
參考:http://michaeljian.top/2017/12/15/Apache-Spark%E8%BF%9E%E6%8E%A5MongoDB/