springboot applicationyaml中配置Apache hudi的数据源并能够对hudi中的数据进行新增、修改、查询请写一个示例apache hudi版本为012hive版本为312那么springboot的maven中需要依赖哪些jar包
示例代码如下:
spring:
datasource:
url: jdbc:hive2://<hiveserver2-host>:<hiveserver2-port>/<database-name>;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=<namespace>
driverClassName: org.apache.hive.jdbc.HiveDriver
username: <username>
password: <password>
其中,<hiveserver2-host>为HiveServer2的主机名,<hiveserver2-port>为HiveServer2的端口号,<database-name>为Hive中的数据库名,<namespace>为Hudi的Zookeeper命名空间,<username>和<password>为连接HiveServer2的用户名和密码。
对于Maven依赖,需要引入以下jar包:
<dependency>
<groupId>org.apache.hudi</groupId>
<artifactId>hudi-client</artifactId>
<version>0.12.0</version>
</dependency>
<dependency>
<groupId>org.apache.hudi</groupId>
<artifactId>hudi-hadoop-mr-bundle</artifactId>
<version>0.12.0</version>
</dependency>
<dependency>
<groupId>org.apache.hudi</groupId>
<artifactId>hudi-spark-bundle</artifactId>
<version>0.12.0</version>
</dependency>
<dependency>
<groupId>org.apache.hive</groupId>
<artifactId>hive-jdbc</artifactId>
<version>3.1.2</version>
</dependency>
其中,hudi-client为Hudi客户端依赖,hudi-hadoop-mr-bundle为Hadoop MapReduce依赖,hudi-spark-bundle为Spark依赖,hive-jdbc为Hive JDBC驱动依赖
原文地址: https://www.cveoy.top/t/topic/fkKr 著作权归作者所有。请勿转载和采集!