Hadoop中如何自定義

小編給大家分享一下Hadoop中如何自定義,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

為慶陽(yáng)等地區(qū)用戶提供了全套網(wǎng)頁(yè)設(shè)計(jì)制作服務(wù),及慶陽(yáng)網(wǎng)站建設(shè)行業(yè)解決方案。主營(yíng)業(yè)務(wù)為成都網(wǎng)站設(shè)計(jì)、網(wǎng)站建設(shè)、慶陽(yáng)網(wǎng)站設(shè)計(jì),以傳統(tǒng)方式定制建設(shè)網(wǎng)站,并提供域名空間備案等一條龍服務(wù),秉承以專業(yè)、用心的態(tài)度為用戶提供真誠(chéng)的服務(wù)。我們深信只要達(dá)到每一位用戶的要求,就會(huì)得到認(rèn)可,從而選擇與我們長(zhǎng)期合作。這樣,我們也可以走得更遠(yuǎn)!

  1. 自定義計(jì)數(shù)器

    計(jì)數(shù)器用來(lái)監(jiān)控,hadoop中job的運(yùn)行進(jìn)度和狀態(tài)。

    如源文件內(nèi)容為:

    a    b

    c    d    e    f

    g    h    i

    現(xiàn)在需要找出字段數(shù)大于3和小于3的記錄條數(shù),可以使用計(jì)數(shù)器來(lái)實(shí)現(xiàn),代碼如下:

     public void map(LongWritable key, Text value,

     OutputCollector<Text, Text> output, Reporter reporter)

     throws IOException {

     String[] split = value.toString().split("\t");

     if(split.length>3){

     org.apache.hadoop.mapred.Counters.Counter counter = reporter.getCounter("MyCounter", "isLong");

     counter.increment(1);

     }else if(split.length<3){

     org.apache.hadoop.mapred.Counters.Counter counter = reporter.getCounter("MyCounter","isShort");

     counter.increment(1);

     }

2.  hadoop中的自定義數(shù)據(jù)類型

    hadoop中默認(rèn)的數(shù)據(jù)類型有:

  • BooleanWritable:標(biāo)準(zhǔn)布爾型數(shù)值

  • ByteWritable:單字節(jié)數(shù)值

  • DoubleWritable:雙字節(jié)數(shù)值

  • FloatWritable:浮點(diǎn)數(shù)

  • IntWritable:整型數(shù)

  • LongWritable:長(zhǎng)整型數(shù)

  • Text:使用UTF8格式存儲(chǔ)的文本

  • NullWritable:當(dāng)<key, value>中的key或value為空時(shí)使用

    自定義數(shù)據(jù)類型的實(shí)現(xiàn):

    1.實(shí)現(xiàn)Writable接口,并重寫內(nèi)部write()和readFields()方法,從而完成序列化之后的網(wǎng)絡(luò)傳輸和文件輸入或輸出。

    2.如果該數(shù)據(jù)類型被作為mapreduce中的key,則該key需要為可比較的,需要實(shí)現(xiàn)WriableComparable接口,并重寫內(nèi)部write()和readFields()、compare()方法。

    

    代碼如下:

    代碼一:

public class Person implements Writable{

long id;

String name;

long age;

@Override

public void readFields(DataInput in) throws IOException {

this.id = in.readLong();

this.name = in.readUTF();

this.age = in.readLong();

}

@Override

public void write(DataOutput out) throws IOException {

out.writeLong(id);

out.writeUTF(name);

out.writeLong(age);

}

        @Override

public String toString() {

return "id:"+id+" name:"+name+" age:"+age;

}

public long getId() {

return id;

}

public String getName() {

return name;

}

public long getAge() {

return age;

}

}

    代碼二:基于key的比較

package cn.com.bonc.hadoop;

import java.io.DataInput;

import java.io.DataOutput;

import java.io.IOException;

import org.apache.hadoop.io.WritableComparable;

public class PersonSortByAge implements WritableComparable<PersonSortByAge>{

long id;

String name;

long age;

@Override

public void readFields(DataInput in) throws IOException {

in.readLong();

in.readUTF();

in.readLong();

}

@Override

public void write(DataOutput out) throws IOException {

out.writeLong(id);

out.writeUTF(name);

out.writeLong(age);

}

@Override

public int compareTo(PersonSortByAge o) {

return (int) (this.id - o.id);

}

@Override

public String toString() {

return "id:"+id+" name:"+name+" age:"+age;

}

}

以上是“Hadoop中如何自定義”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!

新聞名稱:Hadoop中如何自定義
當(dāng)前路徑:http://muchs.cn/article38/ihspsp.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供微信小程序、域名注冊(cè)、外貿(mào)建站、品牌網(wǎng)站設(shè)計(jì)、自適應(yīng)網(wǎng)站Google

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

網(wǎng)站建設(shè)網(wǎng)站維護(hù)公司