Hadoop Shell命令(版本:2.7.2)
创新互联专注为客户提供全方位的互联网综合服务,包含不限于网站设计制作、网站制作、尉犁网络推广、微信平台小程序开发、尉犁网络营销、尉犁企业策划、尉犁品牌公关、搜索引擎seo、人物专访、企业宣传片、企业代运营等,从售前售中售后,我们都将竭诚为您服务,您的肯定,是我们最大的嘉奖;创新互联为所有大学生创业者提供尉犁建站搭建服务,24小时服务热线:18980820575,官方网址:www.cdcxhl.com
官方文档2.7.2
官方中文1.0.4
文件系统(FS)shell包括各种类似shell的命令,这些命令直接与Hadoop分布式文件系统(HDFS)以及Hadoop支持的其他文件系统交互,例如本地FS,HFTP FS,S3 FS等。FS shell由以下方式调用:
bin/hadoop fs
所有的的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。可以将HDFS文件或目录(例如/parent/child)指定为hdfs://namenodehost/parent/child或简单地指定为/parent/child(假设您的配置设置为指向hdfs://namenodehost)。
大多数FS Shell命令的行为和对应的Unix Shell命令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout。
如果正在使用HDFS,则hdfs dfs是同义词。
有关通用shell选项,请参阅命令手册。
用法:
hadoop fs -appendToFile ...
将单个src或多个srcs从本地文件系统附加到目标文件系统。还从stdin读取输入并附加到目标文件系统。
hadoop fs -appendToFile localfile /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile1 localfile2 /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs -appendToFile - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.
退出代码:
成功时返回0,错误时返回1。
用法:
hadoop fs -cat URI [URI ...]
将路径指定文件的内容输出到stdout。
hadoop fs -cat hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
hadoop fs -cat file:///file3 /user/hadoop/file4
退出代码:
成功时返回0,错误时返回-1。
用法:
hadoop fs -checksum URI
返回文件的校验和信息。
例:
hadoop fs -checksum hdfs://nn1.example.com/file1
hadoop fs -checksum file:///etc/hosts
用法:
hadoop fs -chgrp [-R] GROUP URI [URI ...]
更改文件的组关联。用户必须是文件的所有者,否则必须是超级用户。其他信息在“ 权限指南”中。
选项
用法:
hadoop fs -chmod [-R] URI [URI ...]
更改文件的权限。使用-R,通过目录结构递归更改。用户必须是文件的所有者,否则必须是超级用户。其他信息在“ 权限指南”中。
用法:
hadoop fs -chown [-R] [OWNER] [:[GROUP]] URI [URI]
更改文件的所有者。用户必须是超级用户。其他信息在“ 权限指南”中。
选项
用法:
hadoop fs -copyFromLocal URI
与put命令类似,但源仅限于本地文件引用。
用法:
hadoop fs -copyToLocal [-ignorecrc] [-crc] URI
与get命令类似,但目标仅限于本地文件引用。
用法:
hadoop fs -count [-q] [-h] [-v]
计算与指定文件模式匹配的路径下的目录,文件和字节数。-count的输出列为:DIR_COUNT,FILE_COUNT,CONTENT_SIZE,PATHNAME
-count -q的输出列为:QUOTA,REMAINING_QUATA,SPACE_QUOTA,REMAINING_SPACE_QUOTA,DIR_COUNT,FILE_COUNT,CONTENT_SIZE,PATHNAME
-h选项以人类可读格式显示大小。
-v选项显示标题行。
例:
hadoop fs -count hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
hadoop fs -count -q hdfs://nn1.example.com/file1
hadoop fs -count -q -h hdfs://nn1.example.com/file1
hdfs dfs -count -q -h -v hdfs://nn1.example.com/file1
```shell
退出代码:
成功时返回0,错误时返回-1。
## cp
用法:
```shell
hadoop fs -cp [-f] [-p | -p [topax]] URI [URI ...]
将文件从源复制到目标。此命令也允许多个源,在这种情况下,目标必须是目录。
如果(1)源文件系统和目标文件系统支持它们(仅限HDFS),并且(2)所有源和目标路径名都在/.reserved/raw层次结构中,则保留'raw。'命名空间扩展属性。是否保留raw。 namespace xattrs的确定与-p(保留)标志无关。
如果目标已存在,则-f选项将覆盖目标。
-p选项将保留文件属性[topx](时间戳,所有权,权限,ACL,XAttr)。如果指定了-p且没有arg,则保留时间戳,所有权和权限。如果指定了-pa,则还保留权限,因为ACL是一组超级权限。确定是否保留原始命名空间扩展属性与-p标志无关。
例:
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
退出代码:
成功时返回0,错误时返回-1。
请参阅"HDFS快照指南"。
请参阅"HDFS快照指南"。
用法:
hadoop fs -df [-h] URI [URI ...]
显示可用空间。
例:
hadoop dfs -df /user/hadoop/dir1
用法:
hadoop fs -du [-s] [-h] URI [URI ...]
显示给定目录中包含的文件和目录的大小或文件的长度,以防它只是一个文件。
例:
hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://nn.example.com/user/hadoop/dir1
退出代码:成功时返回0,错误时返回-1。
用法:
hadoop fs -dus
显示文件长度的摘要。
注意:不推荐使用此命令。而是使用hadoop fs -du -s。
用法:
hadoop fs -expunge
清空垃圾。有关“废纸篓”功能的详细信息,请参阅"HDFS体系结构指南"。
用法:
hadoop fs -find ... ...
查找与指定表达式匹配的所有文件,并将选定的操作应用于它们。如果未指定路径,则默认为当前工作目录。如果未指定表达式,则默认为-print。
识别以下主要表达式:
如果文件的基名与使用标准文件系统globbing的模式匹配,则求值为true。如果使用-iname,则匹配不区分大小写。
评估为真。使当前路径名写入标准输出。如果使用-print0表达式,则附加ASCII NULL字符。
以下运营商得到承认:
用于连接两个表达式的逻辑AND运算符。如果两个子表达式都返回true,则返回true。由两个表达式的并置所暗示,因此不需要明确指定。如果第一个表达式失败,则不会应用第二个表达式。
例:
hadoop fs -find / -name test -print
退出代码:
成功时返回0,错误时返回-1。
用法:
hadoop fs -get [-ignorecrc] [-crc]
将文件复制到本地文件系统。可以使用-ignorecrc选项复制CRC校验失败的文件。可以使用-crc选项复制文件和CRC。
例:
hadoop fs -get /user/hadoop/file localfile
hadoop fs -get hdfs://nn.example.com/user/hadoop/file localfile
退出代码:
成功时返回0,错误时返回-1。
用法:
hadoop fs -getfacl [-R]
显示文件和目录的访问控制列表(ACL)。如果目录具有默认ACL,则getfacl还会显示默认ACL。
例子:
hadoop fs -getfacl /file
hadoop fs -getfacl -R /dir
退出代码:
成功时返回0,错误时返回非零。
用法:
hadoop fs -getfattr [-R] -n name | -d [-e en]
显示文件或目录的扩展属性名称和值(如果有)。
选项:
例子:
hadoop fs -getfattr -d /file
hadoop fs -getfattr -R -n user.myAttr /dir
退出代码:
成功时返回0,错误时返回非零。
用法:
hadoop fs -getmerge [-nl]
将源目录和目标文件作为输入,并将src中的文件连接到目标本地文件。可选地,-nl可以设置为允许在每个文件的末尾添加换行符(LF)。
例子:
hadoop fs -getmerge -nl /src /opt/output.txt
hadoop fs -getmerge -nl /src/file1.txt /src/file2.txt /output.txt
退出代码:
成功时返回0,错误时返回非零。
用法:
hadoop fs -help
返回使用量输出。
用法:
hadoop fs -ls [-d] [-h] [-R]
选项:
对于文件,ls使用以下格式返回文件的stat:
permissions number_of_replicas userid groupid filesize modification_date modification_time filename
对于目录,它返回其直接子节点的列表,如在Unix中。目录列为:
permissions userid groupid modification_date modification_time dirname
默认情况下,目录中的文件按文件名排序。
例:
hadoop fs -ls /user/hadoop/file1
退出代码:
成功时返回0,错误时返回-1。
用法:
hadoop fs -lsr
ls的递归版本。
注意:不推荐使用此命令。而是使用hadoop fs -ls -R
用法:
hadoop fs -mkdir [-p]
将路径uri作为参数并创建目录。
选项:
例:
hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
hadoop fs -mkdir hdfs://nn1.example.com/user/hadoop/dir hdfs://nn2.example.com/user/hadoop/dir
退出代码:
成功时返回0,错误时返回-1。
用法:
hadoop fs -moveFromLocal
与put命令类似,只是在复制后删除了源localsrc。
用法:
hadoop fs -moveToLocal [-crc]
显示“尚未实现”消息。
用法:
hadoop fs -mv URI [URI ...]
将文件从源移动到目标。此命令允许多个源,在这种情况下,目标需要是目录。不允许跨文件系统移动文件。
例:
hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2
hadoop fs -mv hdfs://nn.example.com/file1 hdfs://nn.example.com/file2 hdfs://nn.example.com/file3 hdfs://nn.example.com/dir1
退出代码:
成功时返回0,错误时返回-1。
用法:
hadoop fs -put ...
将单个src或多个srcs从本地文件系统复制到目标文件系统。还从stdin读取输入并写入目标文件系统。
hadoop fs -put localfile /user/hadoop/hadoopfile
hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
hadoop fs -put localfile hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs -put - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.
退出代码:
成功时返回0,错误时返回-1。
请参阅"HDFS快照指南"。
用法:
hadoop fs -rm [-f] [-r | -R] [-skipTrash] URI [URI ...]
删除指定为args的文件。
选项:
例:
hadoop fs -rm hdfs://nn.example.com/file /user/hadoop/emptydir
退出代码:
成功时返回0,错误时返回-1。
用法:
hadoop fs -rmdir [--ignore-fail-on-non-empty] URI [URI ...]
删除目录。
选项:
例:
hadoop fs -rmdir /user/hadoop/emptydir
用法:
hadoop fs -rmr [-skipTrash] URI [URI ...]
删除的递归版本。
注意:不推荐使用此命令。而是使用hadoop fs -rm -r
用法:
hadoop fs -setfacl [-R] [-b | -k -m | -x ] | [ - set ]
设置文件和目录的访问控制列表(ACL)。
选项:
例子:
hadoop fs -setfacl -m user:hadoop:rw- /file
hadoop fs -setfacl -x user:hadoop /file
hadoop fs -setfacl -b /file
hadoop fs -setfacl -k /dir
hadoop fs -setfacl --set user::rw-,user:hadoop:rw-,group::r--,other::r-- /file
hadoop fs -setfacl -R -m user:hadoop:r-x /dir
hadoop fs -setfacl -m default:user:hadoop:r-x /dir
退出代码:
成功时返回0,错误时返回非零。
用法:
hadoop fs -setfattr -n name [-v value] | -x name
设置文件或目录的扩展属性名称和值。
选项:
例子:
hadoop fs -setfattr -n user.myAttr -v myValue /file
hadoop fs -setfattr -n user.noValue /file
hadoop fs -setfattr -x user.myAttr /file
退出代码:
成功时返回0,错误时返回非零。
用法:
hadoop fs -setrep [-R] [-w]
更改文件的复制因子。如果path是目录,则命令以递归方式更改以path为根的目录树下的所有文件的复制因子。
选项:
例:
hadoop fs -setrep -w 3 /user/hadoop/dir1
退出代码:
成功时返回0,错误时返回-1。
用法:
hadoop fs -stat [格式] <路径> ...
以指定格式打印有关
例:
hadoop fs -stat "%F %u:%g %b %y %n" /file
退出代码:成功时返回0,错误时返回-1。
用法:
hadoop fs -tail [-f] URI
显示文件的最后一千字节到stdout。
选项:
例:
hadoop fs -tail pathname
退出代码:成功时返回0,错误时返回-1。
用法:
hadoop fs -test - [defsz] URI
选项:
例:
hadoop fs -test -e filename
用法:
hadoop fs -text
获取源文件并以文本格式输出文件。允许的格式为zip和TextRecordInputStream。
用法:
hadoop fs -touchz URI [URI ...]
创建一个零长度的文件。
例:
hadoop fs -touchz pathname
退出代码:成功时返回0,错误时返回-1。
用法:
hadoop fs -truncate [-w]
将与指定文件模式匹配的所有文件截断为指定的长度。
选项:
例:
hadoop fs -truncate 55 /user/hadoop/file1 /user/hadoop/file2
hadoop fs -truncate -w 127 hdfs://nn1.example.com/user/hadoop/file1
用法:
hadoop fs -usage命令
返回单个命令的帮助。