鉴于性能问题以及某些Java类库的缺失,对于某些组件,Hadoop提供了自己的本地实现。 这些组件保存在Hadoop的一个独立的动态链接的库里。这个库在*nix平台上叫libhadoop.so. 本文主要介绍本地库的使用方法以及如何构建本地库。
hadoop本地库的用法很简单:
bin/hadoop 脚本通过系统属性 -Djava.library.path=<path>来确认hadoop本地库是否包含在库路径里。
检查hadoop日志文件可以查看hadoop库是否正常,正常情况下会看到:
DEBUG util.NativeCodeLoader - Trying to load the
custom-built native-hadoop library...
INFO util.NativeCodeLoader - Loaded the native-hadoop
library
如果出错,会看到:
INFO util.NativeCodeLoader - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Hadoop本地库只支持*nix平台,已经广泛使用在GNU/Linux平台上,但是不支持 Cygwin 和 Mac OS X。
已经测试过的GNU/Linux发行版本:
在上述平台上,32/64位Hadoop本地库分别能和32/64位的jvm一起正常运行。
Hadoop本地库使用 ANSI C 编写,使用GNU autotools工具链 (autoconf, autoheader, automake, autoscan, libtool)构建。也就是说构建hadoop库的平台需要有标准C的编译器和GNU autotools工具链。请参看 支持的平台。
你的目标平台上可能会需要的软件包:
如果已经满足了上述先决条件,可以使用build.xml 文件,并把其中的compile.native置为 true,这样就可以生成hadoop本地库:
$ ant -Dcompile.native=true <target>
因为不是所有用户都需要Hadoop本地库,所以默认情况下hadoop不生成该库。
你可以在下面的路径查看新生成的hadoop本地库:
$ build/native/<platform>/lib
其中<platform>是下列系统属性的组合 ${os.name}-${os.arch}-${sun.arch.data.model};例如 Linux-i386-32。
用户可以通过 DistributedCache 加载本地共享库,并分发和建立库文件的符号链接。
这个例子描述了如何分发库文件并在从map/reduce任务中装载库文件。
转自:http://hadoop.apache.org/docs/r0.19.1/cn/native_libraries.html#%E6%94%AF%E6%8C%81%E7%9A%84%E5%B9%B3%E5%8F%B0
原文:http://www.cnblogs.com/heidsoft/p/3562561.html