Flink 1.9 实战:使用 SQL 读取 Kafka 并写入 MySQL( 九 )

  • flink-json-1.9.0-sql-jar.jar
    http://central.maven.org/maven2/org/apache/flink/flink-json/1.9.0/flink-json-1.9.0-sql-jar.jar

  • flink-jdbc_2.11-1.9.0.jar
    http://central.maven.org/maven2/org/apache/flink/flink-jdbc_2.11/1.9.0/flink-jdbc_2.11-1.9.0.jar

  • mysql-connector-java-5.1.48.jar
    https://dev.mysql.com/downloads/connector/j/5.1.html

  • 3.将 flink-1.9.0/conf/flink-conf.yaml 中的 taskmanager.numberOfTaskSlots 修改成 10 , 因为我们的演示任务可能会消耗多于1个的 slot 。
    4.在 flink-1.9.0 目录下执行 ./bin/start-cluster.sh , 启动集群 。

    运行成功的话 , 可以在 http://localhost:8081 访问到 Flink Web UI 。

    另外 , 还需要将 Flink 的安装路径填到 flink-sql-submit 项目的 env.sh 中 , 用于后面提交 SQL 任务 , 如我的路径是

    推荐阅读