以下是可能的Scala语句:

import org.apache.flink.streaming.api.scala._
import java.io.FileWriter

val env = StreamExecutionEnvironment.getExecutionEnvironment
val strStream = env.fromElements('hadoop is power', 'Spark is Fast', 'Flink is better')
val outputFile = "/home/hadoop/output.txt"

// 将每个元素写入文件
strStream.map(x => x + "\n").writeUsingOutputFormat(new FileWriter(outputFile)).setParallelism(1)

env.execute("Write to File")

解释:

  1. 导入必要的类和包。

  2. 创建一个StreamExecutionEnvironment对象,这是构建流处理应用程序的入口点。

  3. 使用fromElements方法从给定的元素序列中创建一个DataStream对象。

  4. 设置指定输出文件的路径。

  5. 使用map方法为每个元素添加换行符,并将结果写入指定文件中。使用setParallelism方法将并行度设置为1,以保持输出的顺序。

  6. 执行程序并将其命名为'Write to File'。

使用Scala DataStream API将字符串集合写入文件

原文地址: https://www.cveoy.top/t/topic/ozjF 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录