是的,完全可以。 Flink 的 Kafka Connector 原生支持动态分区发现(Dynamic Partition Discovery)。只要配置得当,正在运行的 Flink 作业会通过一个后台线程定期向 Kafka 集群拉取最新的 Metadata。一旦发现 Topic 增加了新的 Partition,Flink 会自动将其分配给现有的 Source Subtask 进行消费,全程不需要重启作业。 以下是针对不同 Flink API 的具体配置方法,以及在生产环境中使用该特性的重要注意事项。 --- 一、 如何配置自动发现? 根据你使用的 Flink API 版本不同,配置方式有所区别: 1. 新版 DataStream API (Flink 1.14+ 使用 ) 在最新的 中,分区发现是默认开启的,默认间隔为 5 分钟。你可以通过 修改发现间隔时间: (注:如果想关闭自动发现,将该值设为 即可) 2. 老版 DataStream API (Flink 1.14 之前使用 ) 在老版本中,该功能默认是关闭的。需要在 中增加特定的配置项: 3. Flink SQL / T...