大数据开发-Docker-使用Docker10分钟快速搭建大数据环境,Hadoop、Hive、Spark、Hue、Kafka、ElasticSearch.....


立个坑,教程后续补上,当然这不是最重要的,如果你仅仅想有个环境可以测试,只需要下面 三步

1.git clone https://github.com/hulichao/docker-bigdata

`

2.安装dockerdocker-compose, 然后cd docker-bigdata && docker-compose -f docker-compose-dev up -d`

`

3.启动集群 登入docker环境,然后 sh scripts/start-cluster.sh ,ps:scripts` 下有很多启动和停止集群的脚本,按需启动,注意注释哦

你拉的镜像是在这个仓库里哈,https://hub.docker.com/repository/hoult

file

接下来就可以愉快的玩耍了

ps: 端口的映射部分,也要注意下,由于在自己本本或者别的服务器搭建时候端口往往不一定都可以用,看着改改端口,再启动

吴邪,小三爷,混迹于后台,大数据,人工智能领域的小菜鸟。
更多请关注
file


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM