windows下eclipse遠程連接hadoop集群開發mapreduce


轉載請注明出處,謝謝
2017-10-22 17:14:09
 之前都是用python開發maprduce程序的,今天試了在windows下通過eclipse java開發,在開發前先搭建開發環境。在此,總結這個過程,希望能夠幫助有需要的朋友。
用Hadoop eclipse plugin,可以瀏覽管理HDFS,自動創建MR程序的模板文件,最爽的就是可以直接Run on hadoop。
1、安裝插件
下載 hadoop-eclipse-plugin-1.2.1.jar,並把它放到 F:\eclipse\plugins 目錄下。
 
2、插件配置與使用
2.1指定hadoop的源碼目錄
 
 
2.2、打開Map/Reduce視圖
”Window”->”Open Perspective”->”Other”->“Map/Reduce”.
“Window”->”Show views”->”Other”->”Map Reduce Tools”->”Map/Reduce locations”.

 

正常情況下回出現左上角的HDFS標志,等eclipse與hadoop集群連接后,會在這顯示HDFS目錄結構。
 
2.3、新建Map/Reduce Localtion
點擊圖中紅色框或者鼠標右擊選中新建,然后出現下面的界面,配置hadoop集群的信息。
這里需要注意的是hadoop集群信息的填寫。因為我是在windows下用eclipse遠程連接hadoop集群【完全分布式】開發的,所以這里填寫的host是master的IP地址。如果是hadoop偽分布式的可以填寫localhost。
【Jser name】填寫的windows電腦的用戶名,右擊【我的電腦】-->【管理】-->【本地用戶和組】-->【修改用戶名字】
 
完成前面的步驟后,正常的eclipse界面應該像下圖那樣的。注意example1工程是我自己新建的,主要是用來驗證eclipse能否遠程連接hadoop集群來開發mapreduce程序。並且,此時在eclipse的HDFS視圖界面對HDFS的操作(增刪查)和在命令行上對HDFS操作的結果是一樣的。
 
3、開發mapreduce程序
3.1、新建mapreduce工程
使用插件開發的好處這時顯示出來了,完成這一個步驟,在工程視圖會出現一個mapreduce工程模板,不用我們自己導入hadoop的jar包。下圖紅框就是新建mapreduce工程后生成的空模板,我們需要做的是在src文件夾中新建包和開發java程序。
 
3.3、在遠程終端中通過命令行方式上傳文件hadoop fs -put test.txt /input/  或者 通過eclipse 的HDFS視圖 上傳input文件: /input/test.txt,內容如下:
liang ni hao ma
wo hen hao
ha
qwe
asasa
xcxc vbv xxxx aaa eee
 
3.2、WordCount.java程序
package com.hadoop.example1;
import java.io.IOException;
import java.util.Iterator;
import java.util.StringTokenizer;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.FileInputFormat;
import org.apache.hadoop.mapred.FileOutputFormat;
import org.apache.hadoop.mapred.JobClient;
import org.apache.hadoop.mapred.JobConf;
import org.apache.hadoop.mapred.MapReduceBase;
import org.apache.hadoop.mapred.Mapper;
import org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop.mapred.Reducer;
import org.apache.hadoop.mapred.Reporter;
import org.apache.hadoop.mapred.TextInputFormat;
import org.apache.hadoop.mapred.TextOutputFormat;
public class WordCount {
    public static class Map extends MapReduceBase implements
            Mapper<LongWritable, Text, Text, IntWritable> {
        private final static IntWritable one = new IntWritable(1);
        private Text word = new Text();
        public void map(LongWritable key, Text value,
                OutputCollector<Text, IntWritable> output, Reporter reporter)
                throws IOException {
            String line = value.toString();
            StringTokenizer tokenizer = new StringTokenizer(line);
            while (tokenizer.hasMoreTokens()) {
                word.set(tokenizer.nextToken());
                output.collect(word, one);
            }
        }
    }
    public static class Reduce extends MapReduceBase implements
            Reducer<Text, IntWritable, Text, IntWritable> {
        public void reduce(Text key, Iterator<IntWritable> values,
                OutputCollector<Text, IntWritable> output, Reporter reporter)
                throws IOException {
            int sum = 0;
            while (values.hasNext()) {
                sum += values.next().get();
            }
            output.collect(key, new IntWritable(sum));
        }
    }
    public static void main(String[] args) throws Exception {
        JobConf conf = new JobConf(WordCount.class);
        conf.setJobName("wordcount");
        conf.setOutputKeyClass(Text.class);
        conf.setOutputValueClass(IntWritable.class);
        conf.setMapperClass(Map.class);
        conf.setCombinerClass(Reduce.class);
        conf.setReducerClass(Reduce.class);
        conf.setInputFormat(TextInputFormat.class);
        conf.setOutputFormat(TextOutputFormat.class);
        FileInputFormat.setInputPaths(conf, new Path(args[0]));
        FileOutputFormat.setOutputPath(conf, new Path(args[1]));
        JobClient.runJob(conf);
    }
}

 

3.3、運行examplse1工程
注意的這種開發方式運行采用的是: run on haoop
運行方法:【右擊工程】-->【Run as】-->【run on hadoop】 。在這里如果跳出一個界面讓你選擇,證明現在工程選用的Java Applicaltion不對。這時可以這樣做:【右擊工程】-->【Run as】-->【run on configrations】。並填寫傳的參數是輸入文件路徑和輸出目錄路徑。
 

在Linux eclipse上開發,以上步驟都成功的話程序會正常運行。但是在windows eclipse 下開發會以下錯誤。因為在hadoop源碼中會檢查windows文件權限,因此,我們要修改hadoop源碼。
14/05/29 13:49:16 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
14/05/29 13:49:16 ERROR security.UserGroupInformation: PriviledgedActionException as:ISCAS cause:java.io.IOException: Failed to set permissions of path: \tmp\hadoop-ISCAS\mapred\staging\ISCAS1655603947\.staging to 0700
Exception in thread "main" java.io.IOException: Failed to set permissions of path: \tmp\hadoop-ISCAS\mapred\staging\ISCAS1655603947\.staging to 0700
at org.apache.hadoop.fs.FileUtil.checkReturnValue(FileUtil.java:691)
at org.apache.hadoop.fs.FileUtil.setPermission(FileUtil.java:664)
at org.apache.hadoop.fs.RawLocalFileSystem.setPermission(RawLocalFileSystem.java:514)
at org.apache.hadoop.fs.RawLocalFileSystem.mkdirs(RawLocalFileSystem.java:349)
at org.apache.hadoop.fs.FilterFileSystem.mkdirs(FilterFileSystem.java:193)
at org.apache.hadoop.mapreduce.JobSubmissionFiles.getStagingDir(JobSubmissionFiles.java:126)
at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:942)
at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:936)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Unknown Source)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1190)
at org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java:936)
at org.apache.hadoop.mapreduce.Job.submit(Job.java:550)
at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:580)
at org.apache.hadoop.examples.WordCount.main(WordCount.java:82)
 
3.4、修改hadoop源碼以支持windows下eclipse開發mapreduce程序。
出現問題的代碼位於 【hadoop-1.2.1\src\core\org\apache\hadoop\fs\FileUtil.java】。
修改方式如下,注釋掉對文件權限的判斷。
private static void checkReturnValue(boolean rv, File p,
FsPermission permission)
throws IOException
{
    /**
    * comment the following, disable this function
 
    if (!rv)
    {
        throw new IOException("Failed to set permissions of path: " + p +
        " to " +
        String.format("%04o", permission.toShort()));
    }
    */
}
然后將修改好的文件重新編譯,並將.class文件打包到hadoop-core-1.2.1.jar中,並重新刷新工程。這里,為了方便大家,我提供已經修改后的jar文件包,如果需要可以點擊 下載,並替換掉原有的hadoop-1.2.1中的jar包,位於hadoop-1.2.1根目錄。
再次3,3步驟的操作,這時運行成功了。
 
3.5查看結果
在HDFS視圖刷新后,可以看到生成output_wordcount文件夾,進入此目錄可以看見生成的part-00000,其結果為:
 

 

 
 
 
 
 
 
 
 
 
 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM