Hadoop大数据教程:基于Pipes实现的编译
Hadoop大数据教程:基于Pipes实现的编译,在使用Pipes编写MapReduce程序时是需要依赖于Hadooppipes和Hadooputils静态库的,因此建议用户在使用Pipes接口时针对自己的运行环境重新编译这两个库,重新编译Pipes库很简单,编译命令如下:
#!/bin/bash
cd $HADOOP_HOME/src/c++
cd pipes & ./conf?igure & make install
cd utils & ./conf?igure & make install
然后将生成的libHadooputils.a和libHadooppipes.a替换之前的原文件即可,下面就是编译Pipes实现的单词统计程序了。
编译可以使用ant命令完成,首先进入Hadoop的安装目录,然后执行以下命令:
ant -Dcompile.c++=yes examples
这样wordcount-simple.cc生成的可执行文件wordcount-simple被保存到了目录build/c++-examples下的Linux-amd64-64和Linux-i386-32的bin目录下,至此编译完成。
Oracle技术沙龙:【数据保护顶尖技术-MAA】首次全国首播12c MAA技术 云数据库加上MAA技术组成最豪华的技...
Oracle技术沙龙第49期:【Oracle 数据库云技术分享】Oracle技术沙龙第49期:【Oracle 数据库云技术分享】本次技术沙...
Oracle技术沙龙第48期:【Oracle 12c RAC安装】小编:今天讲什么内容呢?以后有什么用呢? 大师:今天讲的是12c...
- 我要参加技术沙龙