任務(wù)7實(shí)訓(xùn):MapReduce編程_第1頁(yè)
任務(wù)7實(shí)訓(xùn):MapReduce編程_第2頁(yè)
任務(wù)7實(shí)訓(xùn):MapReduce編程_第3頁(yè)
任務(wù)7實(shí)訓(xùn):MapReduce編程_第4頁(yè)
任務(wù)7實(shí)訓(xùn):MapReduce編程_第5頁(yè)
已閱讀5頁(yè),還剩3頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

任務(wù)七實(shí)訓(xùn):MapReduce編程一、實(shí)驗(yàn)?zāi)康?.1掌握MapReduce的編程方法二、實(shí)驗(yàn)內(nèi)容2.1在idea中新建一個(gè)Maven工程2.2在pom文件中添加依賴添加依賴<dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>2.9.2</version></dependency>2.3新建一個(gè)class命名為WordCount,importorg.apache.hadoop.conf.Configuration;

importorg.apache.hadoop.fs.Path;

importorg.apache.hadoop.io.IntWritable;

importorg.apache.hadoop.io.Text;

importorg.apache.hadoop.mapreduce.Job;

importorg.apache.hadoop.mapreduce.Mapper;

importorg.apache.hadoop.mapreduce.Reducer;

importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;

importorg.apache.hadoop.mapreduce.lib.input.TextInputFormat;

importorg.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

importorg.apache.hadoop.mapreduce.lib.output.TextOutputFormat;

importjava.io.IOException;

importjava.util.StringTokenizer;publicclassWordCount{

publicstaticclassMyMapperextendsMapper<Object,Text,Text,IntWritable>{

privateTextword=newText();

privatefinalstaticIntWritableone=newIntWritable(1);

@Override

protectedvoidmap(Objectkey,Textvalue,Contextcontext)throwsIOException,InterruptedException{

StringTokenizeritr=newStringTokenizer(value.toString());

while(itr.hasMoreTokens()){

word.set(itr.nextToken());

context.write(word,one);

}

}

}

publicstaticclassMyReducerextendsReducer<Text,IntWritable,Text,IntWritable>{

privateIntWritableresult=newIntWritable();

@Override

protectedvoidreduce(Textkey,Iterable<IntWritable>values,Contextcontext)throwsIOException,InterruptedException{

intsum=0;

for(IntWritableval:values){

sum+=val.get();

}

result.set(sum);

context.write(key,result);

}

}

publicstaticvoidmain(String[]args)throwsIOException,InterruptedException,ClassNotFoundException{

Configurationconf=newConfiguration();

Jobjob=Job.getInstance(conf);

job.setJarByClass(WordCount.class);

job.setJobName("WordCount");

job.setInputFormatClass(TextInputFormat.class);

job.setOutputFormatClass(TextOutputFormat.class);

FileInputFormat.addInputPath(job,newPath(args[0]));

FileOutputFormat.setOutputPath(job,newPath(args[1]));

job.setMapperClass(MyMapper.class);

job.setReducerClass(MyReducer.class);

job.setMapOutputKeyClass(Text.class);

job.setMapOutputValueClass(IntWritable.class);

job.setOutputKeyClass(Text.class);

job.setOutputValueClass(IntWritable.class);

job.waitForCompletion(true);

}

}2.4.配置hadoop環(huán)境變量Windows本地解壓Hadoop壓縮包,然后像配置JDK環(huán)境變量一樣在系統(tǒng)環(huán)境變量里配置HADOOP_HOME和path:%HADOOP_HOME\bin%環(huán)境變量。注意:hadoop安裝目錄盡量不要包含空格或者中文字符。2.5.下載hadoop對(duì)應(yīng)版本補(bǔ)丁MapReduce程序在Linux、mac系統(tǒng)中可以直接運(yùn)行,但無(wú)法直接在Windows下運(yùn)行,因?yàn)镸apReduce代碼在Windows下運(yùn)行存在bug,需要添加hadoop補(bǔ)丁才可以。Hadoop補(bǔ)丁下載地址:/cdarlint/winutilsHadoop補(bǔ)丁文件為hadoop.dll和winutils.exe。2.6補(bǔ)丁添加hadoop安裝目錄hadoop補(bǔ)丁文件下載之后,解壓,然后將相應(yīng)版本中的hadoop.dll和winutils.exe補(bǔ)丁文件,拷貝到{HADOOP_HOME}/bin目錄下(可能需要重啟IDEA)2.6補(bǔ)丁添加windowsc盤目錄如果1.3步驟操作完之后,還無(wú)法運(yùn)行MapReduce程序,則需要將hadoop.dll和winutils.exe補(bǔ)丁文件,拷貝

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論