Hadoop大数据教程:基于Pipes实现的编译
Hadoop大数据教程:基于Pipes实现的编译,在使用Pipes编写MapReduce程序时是需要依赖于Hadooppipes和Hadooputils静态库的,因此建议用户在使用Pipes接口时针对自己的运行环境重新编译这两个库,重新编译Pipes库很简单,编译命令如下:
#!/bin/bash
cd $HADOOP_HOME/src/c++
cd pipes & ./conf?igure & make install
cd utils & ./conf?igure & make install
然后将生成的libHadooputils.a和libHadooppipes.a替换之前的原文件即可,下面就是编译Pipes实现的单词统计程序了。
编译可以使用ant命令完成,首先进入Hadoop的安装目录,然后执行以下命令:
ant -Dcompile.c++=yes examples
这样wordcount-simple.cc生成的可执行文件wordcount-simple被保存到了目录build/c++-examples下的Linux-amd64-64和Linux-i386-32的bin目录下,至此编译完成。
-
标签错误:<!-- #Label#
labelId=20160707140604
moduleId=1
classId=12231768634
orderby=2
fields=url,title,u_info
attribute=
datatypeId=22192428132
recordCount=3
pageSize=
<htmlTemplate><dt><img src="/images/index_26${index}.jpg" width="100" height="62" /><a href="$url" title="${title}">${title}</a><span>${api.left(u_info,60)}</span></dt></htmlTemplate>
-->
- 我要参加技术沙龙