大數據開發-Docker-使用Docker10分鍾快速搭建大數據環境,Hadoop、Hive、Spark、Hue、Kafka、ElasticSearch.....


立個坑,教程后續補上,當然這不是最重要的,如果你僅僅想有個環境可以測試,只需要下面 三步

1.git clone https://github.com/hulichao/docker-bigdata

`

2.安裝dockerdocker-compose, 然后cd docker-bigdata && docker-compose -f docker-compose-dev up -d`

`

3.啟動集群 登入docker環境,然后 sh scripts/start-cluster.sh ,ps:scripts` 下有很多啟動和停止集群的腳本,按需啟動,注意注釋哦

你拉的鏡像是在這個倉庫里哈,https://hub.docker.com/repository/hoult

file

接下來就可以愉快的玩耍了

ps: 端口的映射部分,也要注意下,由於在自己本本或者別的服務器搭建時候端口往往不一定都可以用,看着改改端口,再啟動

吳邪,小三爺,混跡於后台,大數據,人工智能領域的小菜鳥。
更多請關注
file


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM