Windows下Eclipse連接hadoop


 

hadoop在虛擬機上(遠程連接也是一樣只需要知道masteripcore-site.xml配置即可。

Vmware上搭建了hadoop分布式平台:

 

192.168.11.134 master

192.168.11.135 slave1

192.168.11.136 slave2

 

core-site.xml 配置文件: 

<property>

        <name>fs.defaultFS</name>

        <value>hdfs://master:9000</value>

    <description>The name of the default file system.</description>

</property>

<property>

        <name>hadoop.tmp.dir</name>

        <!-- 注意創建相關的目錄結構 -->

            <value>/usr/setup/hadoop/temp</value>

        <description>A base for other temporary         directories.</description>

</property>

1 下載插件

    hadoop-eclipse-plugin-2.5.1.jar

 

github上下載源碼后需要自己編譯。這里使用已經編譯好的插件即可

2 配置插件

把插件放到..\eclipse\plugins目錄下,重啟eclipse,配置Hadoop installation directory   

    如果插件安裝成功,打開Windows—Preferences后,在窗口左側會有Hadoop Map/Reduce選項,點擊此選項,在窗口右側設置Hadoop安裝路徑。(windows下只需把hadoop-2.5.1.tar.gz解壓到指定目錄

 

 

3 配置Map/Reduce Locations

     打開Windows—Open Perspective—Other,選擇Map/Reduce,點擊OK,控制台會出現:

右鍵 new Hadoop location 配置hadoop:輸入

Location Name,任意名稱即可.

配置Map/Reduce MasterDFS MastrerHostPort配置成與core-site.xml的設置一致即可。

點擊"Finish"按鈕,關閉窗口。

  點擊左側的DFSLocations—>master (上一步配置的location name),如能看到user,表示安裝成功

 

4 wordcount實例

      File—>Project,選擇Map/Reduce Project,輸入項目名稱WordCount等。在WordCount項目里新建class,名稱為WordCount,代碼如下:

    

import java.io.IOException;

import java.util.StringTokenizer;

 

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.Mapper;

import org.apache.hadoop.mapreduce.Reducer;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import org.apache.hadoop.util.GenericOptionsParser;

 

public class WordCount {

    public static class TokenizerMapper extends Mapper<Object,Text,Text,IntWritable>{

        private final static IntWritable one=new IntWritable(1);

        private Text word =new Text();

        public void map(Object key,Text value,Context context) throws IOException,InterruptedException{

            StringTokenizer itr=new StringTokenizer(value.toString());

            while (itr.hasMoreTokens()) {

                word.set(itr.nextToken());

                context.write(word, one);

            }

        }

    }

    public static class IntSumReducer extends Reducer<Text,IntWritable,Text,IntWritable> {

        private IntWritable result = new IntWritable();

        public void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {

            int sum = 0;

            for (IntWritable val : values) {

                sum += val.get();

            }

            result.set(sum);

            context.write(key, result);

        }

    }

 

    public static void main(String[] args) throws Exception {

        Configuration conf = new Configuration();

        Job job = new Job(conf, "word count");

        job.setJarByClass(WordCount.class);

        job.setMapperClass(TokenizerMapper.class);

        job.setCombinerClass(IntSumReducer.class);

        job.setReducerClass(IntSumReducer.class);

        job.setOutputKeyClass(Text.class);

        job.setOutputValueClass(IntWritable.class);

        FileInputFormat.addInputPath(job, new Path("hdfs://192.168.11.134:9000/in/test*.txt"));//路徑1

        FileOutputFormat.setOutputPath(job, new Path("hdfs://192.168.11.134:9000/output"));//輸出路徑

        System.exit(job.waitForCompletion(true) ? 0 : 1);

    }

}

 

上面的路徑1 和路徑2 由於在代碼中已經定義,這不需要在配置文件中定義,若上面路徑1和路徑2 代碼為:

FileInputFormat.addInputPath(job, new Path(otherArgs[0]));

FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));

 

這需要配置運行路徑:類 右鍵 Run As—>Run Configurations

 

紅色部分為配置的hdfs上文件路徑,

點擊run 或或者:Run on Hadoop,運行結果會顯示在DFS Locations。若運行中有更新,右鍵DFS Locations,點disconnect更新

 

 

 

運行結果:

5 問題及解決辦法

5.1 出現 空指針異常:

1 Hadoopbin目錄下放winutils.exe

2 在環境變量中配置 HADOOP_HOME

3 hadoop.dll拷貝到C:\Windows\System32下面即可

 

上面的文件已經下載 ,在文件hadoop-common-2.2.0-bin-master.zip中。

5.2 無法給hdfs上傳文件

安裝過程中由於已經在hdfs上上傳了文件,當重啟在 hdfs namenode –format時,后,會提示無法上傳文件,此時需要刪除hdfs已經存在的副本:

在master上刪除dfs上name目錄下的current目錄: rm –rf current/

在slave上刪除dfs上的整個data目錄 :rm –rf data/

5.3 出現log4j警告

    將文件log4j.properties放到src下和java文件同目錄.

5.3 訪問權限不夠

參考博客:http://www.linuxidc.com/Linux/2014-08/105335.htm

 

方法1:這種方法無效

Eclipse連接遠程Hadoop集群開發時權限不足問題解決方案:

當前登錄windows的用戶名和hadoop集群的用戶名不一致,將沒有權限訪問

解決方案:

管理DFS system目錄。目前做法是將hadoop服務集群關閉權限認證,修改hadoop安裝集群masterhadoop-1.2.0/conf/hdfs-site.xml,增加:

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

正式發布時,可以在服務器創建一個和hadoop集群用戶名一致的用戶,即可不用修改masterpermissions策略。

 

方法2:在master節點執行:(有效)

    hadoop fs -chmod 777 /user

其中/user是我上傳文件的路徑(這個視具體情況而定)

方法3 :計算機用戶名改為hadoop


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM