当前位置:美高梅官方网站59599 > 首页 > 美高梅官方网站59599每多个block的元数据都存款和

美高梅官方网站59599每多个block的元数据都存款和

文章作者:首页 上传时间:2019-10-08
public class CompareMap {

    public static void main(String[] args) {

    }

    private void compare(Map<String, String> map1, Map<String, String> map2) {

        for (String testkey : map1.keySet()) {

            if(map1.get(testkey).equals(map2.get(testkey))){

                System.out.println("equals");

            }else{

                System.out.println("not equals");

            }
        }

    }

 

一、SequenceFile

SequenceFile的寄放类似于Log文件,所例外的是Log File的每条记下的是纯文本数据,而SequenceFile的每条记下是可类别化的字符数组。

SequenceFile可通过如下API来成功新记录的丰硕操作:

        fileWriter.append(key,value)

能够看到,每条记下以键值对的措施举办集体,但前提是Key和Value需具备连串化和反类别化的功能

Hadoop预订义了某个Key Class和Value Class,他们向来或直接达成了Writable接口,满意了该意义,包含:

Text                                等同于Java中的String
IntWritable                   等同于Java中的Int
BooleanWritable        等同于Java中的Boolean
        .
        .

在存款和储蓄结构上,SequenceFile首要由二个Header后跟多条Record组成,如图所示:

美高梅官方网站59599 1

Header首要满含了Key classname,Value classname,存款和储蓄压缩算法,客户自定义元数据等音信,其它,还隐含了有的一齐标记,用于飞快牢固到记录的边际。

每条Record以键值对的章程进行仓储,用来代表它的字符数组可依次分析成:记录的长短、Key的长短、Key值和Value值,况且Value值的构造决计于该记录是还是不是被削减。

数据压缩有帮忙节省磁盘空间和加快网络传输,SeqeunceFile帮忙两种格式的数据压缩,分别是:record compression和block compression。

record compression如上海体育地方所示,是对每条记下的value举办削减

block compression是将一系列的record协会到一块儿,统一压缩成三个block,如图所示:

美高梅官方网站59599 2

block消息首要囤积了:块所包罗的记录数、每条记下Key长度的集结、每条记下Key值的集结、每条记下Value长度的联谊和每条记下Value值的聚众

注:每一种block的大小是可经过io.seqfile.compress.blocksize属性来钦定的

示例:SequenceFile读/写 操作

[java] view plaincopy

  1. Configuration conf=new Configuration();  
  2. FileSystem fs=FileSystem.get(conf);  
  3. Path seqFile=new Path("seqFile.seq");  
  4. //Reader内部类用于文书的读取操作  
  5. SequenceFile.Reader reader=new SequenceFile.Reader(fs,seqFile,conf);  
  6. //Writer内部类用于文书的写操作,若是Key和Value都为Text类型  
  7. SequenceFile.Writer writer=new SequenceFile.Writer(fs,conf,seqFile,Text.class,Text.class);  
  8. //通过writer向文书档案中写入记录  
  9. writer.append(new Text("key"),new Text("value"));  
  10. IOUtils.closeStream(writer);//关闭write流  
  11. //通过reader从文书档案中读取记录  
  12. Text key=new Text();  
  13. Text value=new Text();  
  14. while(reader.next(key,value)){  
  15.     System.out.println(key);  
  16.     System.out.println(value);  
  17. }  
  18. IOUtils.closeStream(reader);//关闭read流  

 

Hadoop的HDFS和MapReduce子框架首假若针对性大数据文件来设计的,在小文件的拍卖上不但成效低下,何况非常消耗内部存款和储蓄器能源(每叁个小文件占用叁个Block,每二个block的元数据都存款和储蓄在namenode的内部存款和储蓄器里)。消除办法平时是选项一个器皿,将这几个小文件协会起来统一存储。HDFS提供了二种档案的次序的容器,分别是SequenceFile和MapFile。

#第二种用keyset的措施,把key值存到容器,分别抽取比较

二、MapFile

MapFile是排序后的SequenceFile,通过观看其目录结构能够看出MapFile由两片段组成,分别是data和index。

index作为文件的数目索引,首要记录了各样Record的key值,以及该Record在文件中的偏移地方。在MapFile被访谈的时候,索引文件会被加载到内部存款和储蓄器,通过索引映射关系可神速定位到钦命Record所在文书地方,由此,相对SequenceFile来说,MapFile的查找效用是急迅的,弱点是会消耗一部分内部存款和储蓄器来存款和储蓄index数据。

需注意的是,MapFile并不会把装有Record都记录到index中去,暗中同意情状下每隔128条记下存款和储蓄二个索引映射。当然,记录间隔可人为修改,通过MapFIle.Writer的setIndexInterval()方法,或改变io.map.index.interval属性;

除此以外,与SequenceFile分裂的是,MapFile的KeyClass绝对要完毕WritableComparable接口,即Key值是可正如的。

示范:MapFile读写操作

[java] view plaincopy

  1. Configuration conf=new Configuration();  
  2. FileSystem fs=FileSystem.get(conf);  
  3. Path mapFile=new Path("mapFile.map");  
  4. //Reader内部类用于文书的读取操作  
  5. MapFile.Reader reader=new MapFile.Reader(fs,mapFile.toString(),conf);  
  6. //Writer内部类用于文书的写操作,假使Key和Value都为Text类型  
  7. MapFile.Writer writer=new MapFile.Writer(conf,fs,mapFile.toString(),Text.class,Text.class);  
  8. //通过writer向文档中写入记录  
  9. writer.append(new Text("key"),new Text("value"));  
  10. IOUtils.closeStream(writer);//关闭write流  
  11. //通过reader从文档中读取记录  
  12. Text key=new Text();  
  13. Text value=new Text();  
  14. while(reader.next(key,value)){  
  15.     System.out.println(key);  
  16.     System.out.println(key);  
  17. }  
  18. IOUtils.closeStream(reader);//关闭read流  

在乎:使用MapFile或SequenceFile就算能够减轻HDFS中型Mini文件的仓储难点,但也可以有一定局限性,如:
1.文书不扶助复写操作,不可能向已存在的SequenceFile(MapFile)追加存款和储蓄记录
2.当write流不闭馆的时候,没法构造read流。也正是在实行文书写操作的时候,该公文是不足读取的

 

##第二种用keyset的措施,遍历Key值

PS:假设要求将结果(同样的value、分化的value)写入文件,则足以写三个write方法,在每趟打字与印刷写入文件,Gavin件地方参数就可以

private void compareMap(Map<String, String> Map01, Map<String, String Map02>){  

     Iterator<String> iter = Map1.keySet().iterator();

while (iter.hasNext()) {

            String testKey = iter.next();

       if(Map1.get(testId).equals(Map2.get(testId))){

                System.out.println("equals");

              }else{

                System.out.println("not equals");

            }
private void compareMap(Map<String, String> Map01, Map<String, String Map02>){

        for (Map.Entry<String, String> entry : Map1.entrySet())
        {

           String testKey = entry.getKey();

           if(Map1.get(testId).equals(Map2.get(testId))){

                System.out.println("equals");

            }else{

                System.out.println("not equals");

            }
        }
}

三种艺术的思维都以遍历一个map的Key,然后2个Map分别取那2个Key值所获得的Value。

   public static void write(String file, String valueOfMap1, String valueOfMap2) {

        try {
            BufferedWriter input = new BufferedWriter(new OutputStreamWriter(
                    new FileOutputStream(file, true)));
            input.write("Map1Output: " + valueOfMap1 + "rn");
            input.write("Map2Output: " + valueOfmap2 + "rn");
            input.newLine();
            input.close();
        } catch (IOException e) {
            e.printStackTrace();
        }
    }

#第一种用entry

在main方法调用并传递参就能够了,

结果写入文件方式write

本文由美高梅官方网站59599发布于首页,转载请注明出处:美高梅官方网站59599每多个block的元数据都存款和

关键词: