首页 > 其他 > 详细

四、PutMerge合并文件程序

时间:2016-05-08 11:56:18      阅读:117      评论:0      收藏:0      [点我收藏+]

一、需求

      服务器的apache日志文件可能比较小,Hadoop更适合处理大文件,效率会更高,此时就需要合并分散的文件,开发一个PutMerge程序,用于合并本地文件后存入HDFS系统中

二、java代码

package org.apache.hadoop.studyhdfs;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;



public class PutMergeFile {
    public static void main(String[] args) throws Exception  {
        //赋初始值
        args =new String[]{"/opt/dataFile","hdfs://Hadoop-senior02.beifeng.com:8020/input/putMerge.xml"};
        //1.get conf
        Configuration conf =new Configuration();
        //2.get  filesystem
        FileSystem hdfs =FileSystem.get(conf);
        FileSystem local =FileSystem.getLocal(conf);
        //3.get path
        Path localPath=new Path(args[0]);
        Path hdfsPath=new Path(args[1]);
        //4.inputFiles
        FileStatus[] inputFiles =local.listStatus(localPath);
        //out stream
        FSDataOutputStream outputStream =hdfs.create(hdfsPath);
        FSDataInputStream inputStream;
        for(FileStatus inputFile:inputFiles){
            System.out.println(inputFile.getPath().getName());
            inputStream=local.open(inputFile.getPath());
            IOUtils.copyBytes(inputStream, outputStream, 4096,false);
            IOUtils.closeStream(inputStream);
        }
        IOUtils.closeStream(outputStream);
    }
    
    
}

 三、结果查看

代码:$bin/hdfs dfs -text /input/putMerge.xml

四、PutMerge合并文件程序

原文:http://www.cnblogs.com/really0612/p/5470069.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!