使用 Hadoop 命令行工具下载 HDFS 文件:copyToLocal 与 get
使用 Hadoop 命令行工具下载 HDFS 文件:copyToLocal 与 get
本文介绍如何使用 Hadoop 命令行工具中的 copyToLocal 和 get 命令将文件从 HDFS(Hadoop 分布式文件系统)下载到本地文件系统。
命令语法
以下是 copyToLocal 和 get 命令的基本语法:
**copyToLocal:**shellhadoop fs -copyToLocal <HDFS文件路径> <本地目标路径>
**get:**shellhadoop fs -get <HDFS文件路径> <本地目标路径>
参数说明:
<HDFS文件路径>:要下载的 HDFS 文件的完整路径。*<本地目标路径>:文件在本地存储的路径和名称。
示例
假设要将 HDFS 上的 /zouzhiling1/zzl1 文件下载到本地的 /path/to/local/file 目录中:
**使用 copyToLocal 命令:**shellhadoop fs -copyToLocal /zouzhiling1/zzl1 /path/to/local/file
**使用 get 命令:**shellhadoop fs -get /zouzhiling1/zzl1 /path/to/local/file
执行以上命令后,文件 zzl1 将被下载到 /path/to/local/file 目录中。
注意
- 如果本地目标路径已经存在同名文件,
copyToLocal命令会报错,而get命令会覆盖已有文件。* 可以使用-f选项强制copyToLocal命令覆盖已有文件。
希望本文能帮助您使用 Hadoop 命令行工具轻松下载 HDFS 文件!
原文地址: https://www.cveoy.top/t/topic/cyNZ 著作权归作者所有。请勿转载和采集!