1、spark-sql配置


1、介绍

  spark SQL是构建在spark core模块上的四大模块之一,提供DataFrame等丰富的API,运行期间通过spark查询优化器翻译成物理执行计划,并行计算输出结果,底层计算原理用RDD计算实现。

2、standalone模式下的spark和hive集成

  1、在 /soft/spark/conf 下创建 /soft/hive/conf/hive-site.xml 的软链接

ln -s /soft/hive/conf/hive-site.xml /soft/spark/conf/hive-site.xml

  2、复制 /soft/hive/lib 下的mysql连接jar包到,spark的jars下

cp mysql-connector-java-5.1.44.jar /soft/spark/jars/

  3、关闭 hive 的hive-site.xml 中的版本检查,否则会报版本不一致异常

<property>
    <name>hive.metastore.schema.verification</name>
    <value>false</value>
</property>

  4、启动spark shell

//s101上开启
spark-shell --master spark://s101:7077

  

3、在 idea 中配置 spark sql 环境

  1、新建scala模块,添加maven支持

  2、添加依赖

<dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.11</artifactId>
            <version>2.1.0</version>
        </dependency>

        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-hive_2.11</artifactId>
            <version>2.1.0</version>
        </dependency>

        <dependency>
            <groupId>mysql</groupId>
            <artifactId>mysql-connector-java</artifactId>
            <version>5.1.44</version>
        </dependency>
    </dependencies>

  3、复制core-site.xml、hdfs-site.xml、hive-site.xml文件到模块的resources目录下

  

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM