Hadoop大数据教程:基于Java API实现的编译
Hadoop大数据教程:基于Java API实现的编译,如果用户使用Eclipse开发,则需要导入hadoop-core-x.y.x.jar核心包,由于Eclipse会自动编译,则直接使用export功能导出词频统计的jar包即可;如果使用Linux中的vim开发,则应使用下面的方法进行编译并打包。
在上节Java实现中有三个类:WordcountMapper.java、WordcountReducer.java、MyWordCount.java,用户的当前工作目录只有这三个Java文件,则编译脚本如下:
#!/bin/bash
#编译并打包单词统计MapReduce程序
HADOOP_VERSION=1.0.4
HADOOP_HOME=/home/nuoline/Hadoop-$HADOOP_VERSION
LIB=${HADOOP_HOME}/Hadoop-core-${HADOOP_VERSION}.jar
mkdir wordcount
javac –cp $LIB –d wordcount *.java
jar -cvf /usr/nuoline/wordcount.jar -C wordcount/
在该脚本中的HADOOP_HOME是Hadoop的安装目录,LIB是词频统计的依赖库,只需要Hadoop-core-${HADOOP_VERSION}.jar核心包就可以。执行上述脚本就可以编译并打包词频统计程序。
-
标签错误:<!-- #Label#
labelId=20160707140604
moduleId=1
classId=12231768634
orderby=2
fields=url,title,u_info
attribute=
datatypeId=22192428132
recordCount=3
pageSize=
<htmlTemplate><dt><img src="/images/index_26${index}.jpg" width="100" height="62" /><a href="$url" title="${title}">${title}</a><span>${api.left(u_info,60)}</span></dt></htmlTemplate>
-->
- 我要参加技术沙龙