常用的 HDFS 操作


(一)編程實現以下功能,並利用 Hadoop 提供的 Shell 命令完成相同任務:

1 HDFS 中上傳任意文本文件,如果指定的文件在 HDFS 中已經存在,則由用戶來

指定是追加到原有文件末尾還是覆蓋原有的文件;

2 HDFS 中下載指定文件,如果本地文件與要下載的文件名稱相同,則自動對下載

的文件重命名;

3 HDFS 中指定文件的內容輸出到終端中;

4顯示 HDFS 中指定的文件的讀寫權限、大小、創建時間、路徑等信息;

5給定 HDFS 中某一個目錄,輸出該目錄下的所有文件的讀寫權限、大小、創建時間、

路徑等信息,如果該文件是目錄,則遞歸輸出該目錄下所有文件相關信息;

6提供一個 HDFS 內的文件的路徑,對該文件進行創建和刪除操作。如果文件所在目

錄不存在,則自動創建目錄;

7提供一個 HDFS 的目錄的路徑,對該目錄進行創建和刪除操作。創建目錄時,如果

目錄文件所在目錄不存在,則自動創建相應目錄;刪除目錄時,由用戶指定當該目

錄不為空時是否還刪除該目錄;

8 HDFS 中指定的文件追加內容,由用戶指定內容追加到原有文件的開頭或結尾;

9刪除 HDFS 中指定的文件;

10 HDFS 中,將文件從源路徑移動到目的路徑。

(二)編程實現一個類"MyFSDataInputStream",該類繼承"org.apache.hadoop.fs.FSDataInputStream",要求如下:實現按行讀取 HDFS 中指定文件的方法"readLine()",如果讀到文件末尾,則返回空,否則返回文件一行的文本。

public void cat() throws Exception {

FSDataInputStream fin = fileSystem.open(newPath("/hdfsapi/test/hdfstest2.txt"));

BufferedReader in = new BufferedReader(new InputStreamReader(fin, "UTF-8"));

System.out.println(in.readLine());

in.close();

}

 

(三)查看 Java 幫助手冊或其它資料,用"java.net.URL"和"org.apache.hadoop.fs.FsURLStreamHandlerFactory"編程完成輸出 HDFS 中指定文件的文本到終端中。

package cn.edu.zucc.hdfs;

 

import java.io.IOException;

import java.io.InputStream;

import java.net.URL;

import org.apache.hadoop.fs.*;

import org.apache.hadoop.io.IOUtils;

 

public class FsUrl {

static {

URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());

}

 

public static void cat(String remoteFilePath) {

try (InputStream in = new URL("hdfs", "localhost", 9000, remoteFilePath)

.openStream()) {

IOUtils.copyBytes(in, System.out, 4096, false);

IOUtils.closeStream(in);

} catch (IOException e) {

e.printStackTrace();

}

}

 

/**

* 主函數

*/

public static void main(String[] args) {

String remoteFilePath = "/user/tiny/text.txt"; // HDFS路徑

 

try {

System.out.println("讀取文件: " + remoteFilePath);

FsUrl.cat(remoteFilePath);

System.out.println("\n讀取完成");

} catch (Exception e) {

e.printStackTrace();

}

}

}

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM