flink115批计算支持的数据源有哪些
Apache Flink 1.15 批处理支持的数据源如下:
-
文件系统(File System):Flink 支持从本地文件系统、HDFS、S3 和 GCS 等文件系统中读取数据。
-
Apache Kafka:Flink 支持从 Kafka 读取数据,并可以将数据写入 Kafka。
-
Apache HBase:Flink 支持从 HBase 中读取数据,并可以将数据写入 HBase。
-
Apache Cassandra:Flink 支持从 Cassandra 中读取数据,并可以将数据写入 Cassandra。
-
JDBC 数据库:Flink 支持从各种 JDBC 数据库(如 MySQL、PostgreSQL、Oracle 等)中读取数据,并可以将数据写入这些数据库。
-
Elasticsearch:Flink 支持从 Elasticsearch 中读取数据,并可以将数据写入 Elasticsearch。
-
Apache Flume:Flink 支持从 Flume 中读取数据,并可以将数据写入 Flume。
-
Apache NiFi:Flink 支持从 NiFi 中读取数据,并可以将数据写入 NiFi。
-
Apache Ignite:Flink 支持从 Ignite 中读取数据,并可以将数据写入 Ignite。
-
Apache Beam:Flink 支持通过 Apache Beam 中的适配器读取和写入数据。
-
自定义数据源:Flink 支持通过实现自定义数据源接口来读取和写入数据
原文地址: https://www.cveoy.top/t/topic/eCUc 著作权归作者所有。请勿转载和采集!