Linux HDFS 安装教程:详细步骤与示例
以下是在 Linux 系统上安装 Hadoop Distributed File System (HDFS) 的一个例子:
- 在 Linux 系统上安装 Java 运行环境(如果尚未安装):
sudo apt update sudo apt install default-jdk
2. 下载 Hadoop 软件包:
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz
3. 解压缩下载的 Hadoop 软件包:
tar -xzvf hadoop-3.3.1.tar.gz
4. 配置 Hadoop 环境变量:
打开'/.bashrc' 文件,并在文件末尾添加以下内容(如果文件不存在,可以创建一个新的):
export HADOOP_HOME=/path/to/hadoop-3.3.1 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
然后运行以下命令使环境变量生效:
source ~/.bashrc
5. 配置 Hadoop 集群:
进入 Hadoop 软件包的目录,并编辑'etc/hadoop/core-site.xml' 文件:
cd hadoop-3.3.1/etc/hadoop/ nano core-site.xml
在'configuration' 标签之间添加以下内容:
```xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
保存并关闭文件。
- 配置 Hadoop 集群:
编辑'etc/hadoop/hdfs-site.xml' 文件:
nano hdfs-site.xml
在'configuration' 标签之间添加以下内容:
```xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
保存并关闭文件。
- 格式化 HDFS 文件系统:
hdfs namenode -format
8. 启动 HDFS:
start-dfs.sh
可以通过访问 http://localhost:9870 来检查 HDFS 的状态。
这只是一个基本的安装和配置示例,您可以根据您的需求进行其他配置和调整。
原文地址: https://www.cveoy.top/t/topic/8IQ 著作权归作者所有。请勿转载和采集!