------------------------------
转自:http://f.dataguru.cn/thread-151742-1-1.html
------------------------------
hadoop中的MapReduce框架里已经预定义了相关的接口,其中如Mapper类下的方法setup()和cleanup()。
----setup()
此方法被MapReduce框架仅且执行一次,在执行Map任务前,进行相关变量或者资源的集中初始化工作。
若是将资源初始化工作放在方法map()中,导致Mapper任务在解析每一行输入时都会进行资源初始化工作,导致重复,程序运行效率不高!
----cleanup()
此方法被MapReduce框架仅且执行一次,在执行完毕Map任务后,进行相关变量或资源的释放工作。
若是将释放资源工作放入方法map()中,也会导 致Mapper任务在解析、处理每一行文本后释放资源,
而且在下一行文本解析前还要重复初始化,导致反复重复,程序运行效率不高!
所以,建议资源初始化及释放工作,分别放入方法setup()和cleanup()中进行。
-------------------------
转自:http://f.dataguru.cn/thread-23148-1-1.html
-------------------------
下面主要对Setup函数进行深入探讨:首先看下两个程序的区别:


区别在于第一个程序把context
这个上下文对象作为map
函数的参数传到map
函数中,
第二个程序则是在setup
函数中处理了context
对象,
从这个角度讲,在Map
类的实例中是可以拿到Context
这个上下文对象的,这一点是毋庸置疑的,
不管是在类内部的哪个函数中使用都可以,
既然是这样,那么讨论的重点就是map
这个类中方法的声明及执行了,所以分析下Mapper
类的源代码:

在mapper
类中,只对这个方法进行了声明,也就是说它的子类可以重新实现这个方法,这一点很容易理解的。
下面从源码级分析下整个mapper
类的结构和hadoop
在设计这个类时的巧妙之处:
Map
的主要任务就是把输入的key value
转换为指定的中间结果(其实也是key value
),这个类主要包括了四个函数:


Setup
一般是在执行map
函数前做一些准备工作,
map
是主要的数据处理函数,
cleanup
则是在map
执行完成后做一些清理工作和finally
字句的作用很像,
下面看一下run
方法:


这个方法调用了上面的三个函数,组成了setup-map-cleanup
这样的执行序列,这一点和设计模式中的模版模式很类似,
当然在这里我们也可以改写它的源码,比如可以在map
的时候增加多线程,这样可以对map
任务做进一步的优化,
从以上的分析可以很清楚的知道setup
函数的作用了。
那么还有一个小问题,我们上文中提到的Context
对象是怎么回事呢?

原来它是mapper的一个内部类,至于Context的继承树,这里就不再多解释了,
简单的说顶级接口是为了在map或是reduce任务中跟踪task的状态,很自然的MapContext就是记录了map执行的上下文,
在mapper类中,这个context可以存储一些job conf的信息,如的运行时参数等,
我们可以在map函数中处理这个信息,这也是hadoop中参数传递中一个很经典的例子,
同时context作为了map和reduce执行中各个函数的一个桥梁,这个设计和java web中的session对象、application对象很相似。