项目实战 从 0 到 1 学习之Flink (20)Flink读取hdfs文件


接一下以一个示例配置来介绍一下如何以Flink连接HDFS

1. 依赖HDFS

pom.xml 添加依赖

    <dependency>
        <groupId>org.apache.flink</groupId>
        <artifactId>flink-hadoop-compatibility_2.11</artifactId>
        <version>${flink.version}</version>
    </dependency>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-client</artifactId>
        <version>${hadoop.version}</version>
    </dependency>

2. 配置 HDFS

hdfs-site.xmlcore-site.xml放入到src/main/resources目录下面

3. 读取HDFS上面文件

  final ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();
        DataSource<String> text = env.readTextFile("hdfs://flinkhadoop:9000/user/wuhulala/input/core-site.xml");

TIP

  1. 请关闭HDFS 权限,不关闭需要把认证copy到resources目录下
 <property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>
 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM