1 HDFS概述
HDFS是Hadoop应用用到的一个最主要的分布式存储系统。一个HDFS集群主要由一个NameNode和很多个Datanode组成:Namenode管理文件系统的元数据,而Datanode存储
了实际的数据。本文档主要关注用户以及管理员怎样和HDFS进行交互。基本上,客户端联系Namenode以获取文件的元数据或修饰属性,而真正的文件I/O操作是直接和Datanode进行交互的。本文档从介绍如何安装和搭建HDFS集群入手,接着常用的文件系统命令,以及维护过程中涉及到的控制命令。
2
HDFS集群部署
2.1
安装
1)
用户从hadoop官
方网站下载所需版本的安装文件,下载地址为:http://hadoop.apache.org/core/releases.html#Download;
本文档选取的版本为hadoop-0.19.1;
2)
将下载的压缩文件解压,目录为./hadoop-0.19.1,按照附录《hdfs
测试组网方案》中系统参数配置部分,修改./hadoop-0.19.1/conf中的文件;
3)
检查所有服务器上是否安装了J2sdk,要求版本为1.5及以 上;并建立安装目录到/usr/local/j2sdk的软
链接;
4) 将hadoop目
录上传到所有的服务器,放置在${HADOOP_HOME}目录 下;
5) 挂载namenode和secondary
namenode的fsimage,editslogs备份 目录;
2.2
启动
1)
进入namenode的${HADOOP_HOME};
2)
格式化namenode文 件系统,执行命令:bin/hadoop namenode
–format;
3) 启动hdfs,
执行命令:bin/start-dfs.sh。该 脚本首先启动namenode,然
后读取./conf/slaves中的datanode列表,逐个启动;最后读取./conf/masters中secondary
namenode地址,启动secondary namenode。
启动datanode和secondary namenode时,
脚本通过ssh从当前机器登录到其他节点的,涉及到身份验 证,需要输入相应的密码信息,比较繁琐。可参考ssh中免
密码登录解决方法。
3 FS
Shell使用指南
调用文件系统(FS)Shell命令 应使用 bin/hadoop fs
<args>的形 式。 所有 的的FS shell命令 使用URI路径 作为参数。URI格式
是scheme://authority/path。对HDFS文件系统,scheme是hdfs, 对本地文件系统,scheme是file。
其中scheme和authority参数 都是可选的,如果未加指定,就会使用配置中指定的默认scheme。 一个HDFS文件
或目录比如/parent/child可以表示成hdfs://namenode:namenodeport/parent/child,
或者更简单的/parent/child(假 设你配置文件中的默认值是namenode:namenodeport)。 大多数FS Shell命令
的行为和对应的Unix Shell命
令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout。
3.1
cat
使用方法:hadoop fs -cat URI [URI
…]
将路
径指定文件的内容输出到stdout。
示
例:
hadoop fs -cat
hdfs://host1ort1/file1 hdfs://host2ort2/file2
hadoop fs
-cat file:///file3 /user/hadoop/file4
返回 值:
成 功返回0, 失败返回-1。
3.2
chgrp
使用方法:hadoop fs -chgrp [-R] GROUP URI [URI …]
Change group association of files. With -R, make the change recursively through
the directory structure. The user must be the owner of files, or else a
super-user. Additional information is in the Permissions User
Guide.改变文件所属的组。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。更多的信息请参见HDFS权限用户指南。
3.3
chmod
使用方法:hadoop fs -chmod [-R] <MODE[,MODE]... |
OCTALMODE> URI [URI …]
改变 文件的权限。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超
级用户。更多的信息请参见HDFS权 限用户指南。
3.4
chown
使用方法:hadoop fs -chown [-R] [OWNER][:[GROUP]] URI
[URI ]
改变 文件的拥有者。使用-R将使改变在目录结构下递归进行。命令的使用
者必须是超级用户。更多的信息请参见HDFS权限用户指南。
3.5
copyFromLocal
使用方法:hadoop fs -copyFromLocal <localsrc>
URI
除了限定源路径是一个本地文件外,
和put命令相似。
3.6
copyToLocal
使用方法:hadoop fs -copyToLocal [-ignorecrc] [-crc]
URI <localdst>
除了
限定目标路径是一个本地文件外,和get命令类似。
3.7
cp
使用方法:hadoop fs -cp URI [URI …]
<dest>
将文
件从源路径复制到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。
示 例:
hadoop fs
-cp /user/hadoop/file1 /user/hadoop/file2
hadoop fs
-cp /user/hadoop/file1 /user/hadoop/file2
/user/hadoop/dir
返回
值:
成功返回0,
失败返回-1。
3.8
du
使用方法:hadoop fs -du URI [URI
…]
显示
目录中所有文件的大小,或者当只指定一个文件时,显示此文件的大小。示例:
hadoop fs -du /user/hadoop/dir1
/user/hadoop/file1 hdfs://hostort/user/hadoop/dir1
返回
值:
成功返回0,
失败返回-1。
3.9
dus
使用方法:hadoop fs -dus
<args>
显示
文件的大小。
3.10
expunge
使用方法:hadoop fs
-expunge
清空 回收站。请参考HDFS设计文
档以获取更多关于回收站特性的信息。
3.11
get
使用方法:hadoop fs -get [-ignorecrc] [-crc]
<src> <localdst>
复制
文件到本地文件系统。可用-ignorecrc选项复制CRC校验失败的文件。使用-crc选项复制文件以及CRC信息。
示
例:
hadoop fs -get /user/hadoop/file
localfile
hadoop fs
-get hdfs://hostort/user/hadoop/file
localfile
返回 值:
成功返回0, 失败返回-1。
3.12
getmerge
使用方法:hadoop fs -getmerge <src>
<localdst> [addnl]
接受 一个源目录和一个目标文件作为输入,并且将源目录中所有的文件连接成本地目标文件。addnl是
可选的,用于指定在每个文件结尾添加一个换行符。
3.13
ls
使用方法:hadoop
fs -ls <args>
如果
是文件,则按照如下格式返回文件信息:
文件名
<副 本数> 文 件大小 修改日期 修 改时间 权限 用 户ID 组ID
如果
是目录,则返回它直接子文件的一个列表,就像在Unix中一 样。目录返回列表的信息如下:
目录名 <dir> 修改日期 修 改时间 权限 用 户ID
组ID
示 例:
hadoop fs -ls /user/hadoop/file1
/user/hadoop/file2 hdfs://hostort/user/hadoop/dir1
/nonexistentfile
返回 值:
成功返回0,
失败返回-1。
3.14
lsr
使用方法:hadoop fs -lsr
<args>
ls命令的递归版本。类似于Unix中的ls
-R。
3.15
mkdir
使用方法:hadoop fs -mkdir
<paths>
接受
路径指定的uri作为参数,创建这些目录。其行为类似于Unix的mkdir -p,它
会创建路径中的各级父目录。
示
例:
hadoop fs -mkdir /user/hadoop/dir1
/user/hadoop/dir2
hadoop fs -mkdir
hdfs://host1ort1/user/hadoop/dir
hdfs://host2ort2/user/hadoop/dir
返回
值:
成功返回0,
失败返回-1。
3.16
movefromLocal
使用方法:dfs
-moveFromLocal <src> <dst>
输出 一个”not implemented“信
息。
3.17
mv
使用方法:hadoop fs -mv URI [URI …]
<dest>
将文
件从源路径移动到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。不允许在不同的文件系统间移动文件。不支持文件夹重命令。
示
例:
hadoop fs -mv /user/hadoop/file1
/user/hadoop/file2
hadoop fs -mv
hdfs://hostort/file1 hdfs://hostort/file2 hdfs://hostort/file3
hdfs://host:port/dir1
返回
值:
成功返回0,
失败返回-1。
3.18
put
使用方法:hadoop fs -put <localsrc> ...
<dst>
从本
地文件系统中复制单个或多个源路径到目标文件系统。也支持从标准输入中读取输入写入目标文件系统。
hadoop fs -put localfile
/user/hadoop/hadoopfile
hadoop fs
-put localfile1 localfile2 /user/hadoop/hadoopdir
hadoop fs -put localfile
hdfs://host:port/hadoop/hadoopfile
hadoop fs
-put - hdfs://host:port/hadoop/hadoopfile
从
标准输入中读取输入。
返回
值:
成功返回0,
失败返回-1。
3.19
rm
使用方法:hadoop
fs -rm URI [URI …]
删除
指定的文件。只删除非空目录和文件。请参考rmr命令 了解递归删除。
示 例:
hadoop fs
-rm hdfs://host:port/file /user/hadoop/emptydir
返回
值:
成功返回0,
失败返回-1。
3.20
rmr
使用方法:hadoop fs -rmr URI [URI
…]
delete的递归版本。
示
例:
hadoop fs -rmr
/user/hadoop/dir
hadoop fs -rmr
hdfs://host:port/user/hadoop/dir
返回 值:
成功返回0, 失败返回-1。
3.21
setrep
使用方法:hadoop fs -setrep [-R]
<path>
改变
一个文件的副本系数。-R选项用于递归改变目录下所有文件的副本系数。
示 例:
hadoop fs
-setrep -w 3 -R /user/hadoop/dir1
返回 值:
成功返回0, 失败返回-1。
3.22
stat
使用方法:hadoop fs -stat URI [URI
…]
返回
指定路径的统计信息。
示
例:
hadoop fs -stat
path
返回 值:
成功返回0, 失败返回-1。
3.23
tail
使用方法:hadoop fs -tail [-f]
URI
将文 件尾部1K字节的内容输出到stdout。支持-f选
项,行为和Unix中一致。
示
例:
hadoop fs -tail
pathname
返回 值:
成 功返回0, 失败返回-1。
3.24
test
使用方法:hadoop fs -test -[ezd]
URI
选 项:
-e
检查文件是否存在。如果存在则返回0。
-z
检查文件是否是0字 节。如果是则返回0。
-d
如果路径是个目录,则返回1,否则返回0。
示
例:
hadoop fs -test -e
filename
3.25
text
使用方法:hadoop fs -text
<src>
将源
文件输出为文本格式。允许的格式是zip和TextRecordInputStream。
3.26
touchz
使用方法:hadoop fs -touchz URI [URI
…]
创建 一个0字节的空文件。
示
例:
hadoop -touchz
pathname
返回 值:
成 功返回0,
失败返回-1。
4
命 令手册
4.1
概述
所有
的hadoop命令均由bin/hadoop脚本引发。不指定参数运行hadoop脚本会打印所有命令的描述。
用法:hadoop [--config confdir] [COMMAND]
[GENERIC_OPTIONS] [COMMAND_OPTIONS]
Hadoop有一个选项解析框架用于解析一般的选项和运行类。
命令选项
描述
--config
confdir
覆盖缺省配置目录。缺省是${HADOOP_HOME}/conf。
GENERIC_OPTIONS
多个命令都支持的通用选项。
COMMAND
命令选项S
各种各样的命令和它们的选项会在下面提到。这些命令被分为 用户命令
管理命令两组。
4.1.1
常规选项
下面 的选项被
dfsadmin, fs, fsck和 job支 持。 应用程序要实现 Tool来支 持 常规选项。
GENERIC_OPTION
描述
-conf
<configuration file>
指定应用程序的配置文件。
-D <property=value>
为指定property指定值value。
-fs <local|namenode:port>
指定namenode。
-jt <local|jobtracker:port>
指定job
tracker。只适用于job。
-files
<逗号分隔的文件列表> 指定要拷贝到map
reduce集群的文件的逗号分隔的列表。 只适用于job。
-libjars <逗号分隔的jar列表>
指定要包含到classpath中的jar文件的逗号分隔的列表。
只适用于job。
-archives <逗号分隔的archive列表>
指定要被解压到计算节点上的档案文件的逗号分割的列表。
只适用于job。
4.2
用户命令
hadoop集群用户的常用命令。
4.2.1
archive
创
建一个hadoop档案文件。参考 Hadoop Archives.
用法:hadoop archive -archiveName NAME <src>*
<dest>
命令选项
描述
-archiveName NAME
要创建的档案的名字。
src
文件系统的路径名,和通常含正则表达的一样。
dest
保存档案文件的目标目录。
4.2.2
distcp
递归地拷贝文件或目录。参考DistCp指南以获取等多信息。
用法:hadoop distcp <srcurl>
<desturl>
命令选项
描述
srcurl
源Url
desturl
目标Url
4.2.3
fs
用法:hadoop fs [GENERIC_OPTIONS]
[COMMAND_OPTIONS]
运行一个常规的文件系统客户 端。
各种命令选项可以参考HDFS
Shell指南。
4.2.4
fsck
运行HDFS文件系统检查工具。参考Fsck了解更多。
用法:hadoop fsck [GENERIC_OPTIONS] <path>
[-move | -delete | -openforwrite] [-files [-blocks [-locations |
-racks]]]
命令选项
描述
<path>
检查的起始目录。
-move
移动受损文件到/lost+found
-delete
删除受损文件。
-openforwrite
打印出写打开的文件。
-files
打印出正被检查的文件。
-blocks
打印出块信息报告。
-locations
打印出每个块的位置信息。
-racks
打印出data-node的网络拓扑结构。
4.2.5
jar
运行jar文件。用户可以把他们的Map
Reduce代码捆绑到jar文件中,使用这个命令执行。
用法:hadoop jar <jar> [mainClass]
args...
streaming作业是通过这个命令执行的。参考Streaming
examples中的例子。
Word
count例子也是通过jar命令运行的。参考Wordcount example。
4.2.6
job
用于和Map
Reduce作业交互和命令。
用法:hadoop job [GENERIC_OPTIONS] [-submit
<job-file>] | [-status <job-id>] | [-counter <job-id>
<group-name> <counter-name>] | [-kill <job-id>] | [-events
<job-id> <from-event-#> <#-of-events>] | [-history [all]
<jobOutputDir>] | [-list [all]] | [-kill-task <task-id>] |
[-fail-task <task-id>]
命令选项
描述
-submit
<job-file>
提交作业
-status <job-id>
打印map和reduce完成百分比和所有计数器。
-counter <job-id> <group-name>
<counter-name>
打印计数器的值。
-kill <job-id>
杀死指定作业。
-events <job-id> <from-event-#>
<#-of-events>
打印给定范围内jobtracker接收到的事件细节。
-history
[all] <jobOutputDir> -history
<jobOutputDir> 打印作业的细节、失败及被杀死原因的细节。更多的关于一个作业的细
节比如成功的任务,做过的任务尝试等信息可以通过指定[all]选项查看。
-list [all]
-list all显示所有作业。-list只显示将要完成的作业。
-kill-task <task-id>
杀死任务。被杀死的任务不会不利于失败尝试。
-fail-task <task-id>
使任务失败。被失败的任务会对失败尝试不利。
4.2.7
pipes
运行pipes作业。
用法:hadoop pipes [-conf <path>] [-jobconf
<key=value>, <key=value>, ...] [-input <path>] [-output
<path>] [-jar <jar file>] [-inputformat <class>] [-map
<class>] [-partitioner <class>] [-reduce <class>] [-writer
<class>] [-program <executable>] [-reduces
<num>]
命令选项
描述
-conf
<path>
作业的配置
-jobconf <key=value>, <key=value>,
... 增加/覆
盖作业的配置项
-input <path>
输入目录
-output <path>
输出目录
-jar <jar file>
Jar文件名
-inputformat <class>
InputFormat类
-map <class>
Java Map类
-partitioner <class>
Java Partitioner
-reduce <class>
Java Reduce类
-writer <class>
Java RecordWriter
-program <executable>
可执行程序的URI
-reduces <num>
reduce个数
4.2.8
version
打印版本信息。
用法:hadoop version
4.2.9
CLASSNAME
hadoop脚本可 用于调调用任何类。
用法:hadoop CLASSNAME
运行名字为CLASSNAME的类。
4.3
管理命令
hadoop集群管 理员常用的命令。
4.3.1
balancer
运行集群平衡工具。管理员可以
简单的按Ctrl-C来停止平衡过程。参考Rebalancer了解更多。
用法:hadoop balancer [-threshold
<threshold>]
命令选项
描述
-threshold <threshold>
磁盘容量的百分比。这会覆盖缺省的阀值。
4.3.2
daemonlog
获
取或设置每个守护进程的日志级别。
用
法:hadoop daemonlog -getlevel <host:port>
<name>
用
法:hadoop daemonlog -setlevel <host:port> <name>
<level>
命令选项
描述
-getlevel <host:port> <name>
打印运行在<host:port>的守护进程的日志级别。这个命令内部会连接http://<host:port>/logLevel?log=<name>
-setlevel <host:port> <name>
<level>
设置运行在<host:port>的守护进程的日志级别。这个命令内部会连接http://<host:port>/logLevel?log=<name>
4.3.3
datanode
运
行一个HDFS的datanode。
用法:hadoop datanode
[-rollback]
命令选项
描述
-rollback
将datanode回滚到前一个版本。这需要在停止datanode,分发老的hadoop版本之后使用。
4.3.4
dfsadmin
运
行一个HDFS的dfsadmin客户端。
用法:hadoop dfsadmin [GENERIC_OPTIONS] [-report]
[-safemode enter | leave | get | wait] [-refreshNodes] [-finalizeUpgrade]
[-upgradeProgress status | details | force] [-metasave filename] [-setQuota
<quota> <dirname>...<dirname>] [-clrQuota
<dirname>...<dirname>] [-help [cmd]]
命令选项
描述
-report
报告文件系统的基本信息和统计信息。
-safemode enter | leave | get | wait
安全模式维护命令。安全模式是Namenode的一个状态,这种状态下,Namenode
1.
不接受对名字空间的更改(只读)
2.
不复制或删除块
Namenode会在启动时自动进入安全模式,当配置的块最小百分比数满足最小的副本数条件时,会自动离开安全模式。安全模式可以手
动进入,但是这样的话也必须手动关闭安全模式。
-refreshNodes
重新读取hosts和exclude文件,更新允许连到Namenode的或那些需要退出或入编的Datanode的集合。
-finalizeUpgrade
终结HDFS的升级操作。Datanode删除前一个版本的工作目录,之后Namenode也这样做。这个操作完结整个升级过程。
-upgradeProgress status | details | force
请求当前系统的升级状态,状态的细节,或者强制升级操作进行。
-metasave filename
保存Namenode的主要数据结构到hadoop.log.dir属性指定的目录下的<filename>文件。对于下面的每一项,<filename>中都会一行内容与之对应
1.
Namenode收到的Datanode的心跳信号
2. 等待被复制的块
3. 正在被复制的块
4. 等待被删除的块
-setQuota <quota>
<dirname>...<dirname> 为每个目录
<dirname>设定配额<quota>。目录配额是一个长整型整数,强制限定了目录树下的名字个数。
命令会在这个目录上工作良好,以下情况会报错:
1.
N不是一个正整数,或者
2.
用户不是管理员,或者
3.
这个目录不存在或是文件,或者
4.
目录会马上超出新设定的配额。
-clrQuota <dirname>...<dirname>
为每一个目录<dirname>清除配额设定。
命令会在这个目录上工作良好,以下情况会报错:
1.
这个目录不存在或是文件,或者
2.
用户不是管理员。
如果目录原来没有配额不会报错。
-help
[cmd] 显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮
助信息。
4.3.5
jobtracker
运
行MapReduce job Tracker节点。
用法:hadoop
jobtracker
4.3.6
namenode
运
行namenode。有关升级,回滚,升级终结的更多信息请参考升级和回滚。
用法:hadoop namenode [-format] | [-upgrade] |
[-rollback] | [-finalize] | [-importCheckpoint]
命令选项
描述
-format
格式化namenode。它启动namenode,格式化namenode,之后关闭namenode。
-upgrade
分发新版本的hadoop后,namenode应以upgrade选项启动。
-rollback
将namenode回滚到前一版本。这个选项要在停止集群,分发老的hadoop版
本后使用。
-finalize
finalize会删除文件系统的前一状态。最近的
升级会被持久化,rollback选项将再不可用,升级终结操作之后,它会停掉namenode。
-importCheckpoint
从检查点目录装载镜像并保存到当前
检查点目录,检查点目录由fs.checkpoint.dir指定。
4.3.7
secondarynamenode
运 行HDFS的secondary namenode。 参考Secondary Namenode了
解更多。
用法:hadoop secondarynamenode [-checkpoint [force]]
| [-geteditsize]
命令选项
描述
-checkpoint [force]
如果EditLog的大小 >= fs.checkpoint.size,启动Secondary namenode的
检查点过程。 如果使用了-force,将不考虑EditLog的 大小。
-geteditsize
打印EditLog大小。
4.3.8
tasktracker
运行MapReduce的task
Tracker节点。
用法:hadoop
tasktracker
原文:http://www.cnblogs.com/scwanglijun/p/3778890.html