使用Standalone模式安装Spark集群: 1 将spark-232-bin-hadoop27tgz 上传到主机hadoop01并解压到opt目录
- 将spark-2.3.2-bin-hadoop2.7.tgz上传到主机hadoop01
可以使用scp命令将文件上传到主机hadoop01上:
scp spark-2.3.2-bin-hadoop2.7.tgz hadoop01:/home/user/
其中,user为登录hadoop01的用户名。
- 解压到/opt目录
登录hadoop01,进入/opt目录下:
cd /opt
解压文件:
tar -zxvf /home/user/spark-2.3.2-bin-hadoop2.7.tgz
解压后,会在/opt目录下生成一个名为spark-2.3.2-bin-hadoop2.7的目录,其中包含Spark的所有文件和目录。
原文地址: https://www.cveoy.top/t/topic/bS2C 著作权归作者所有。请勿转载和采集!