如何将 Apache Spark 与 MySQL 集成以将数据库表作为 Spark 数据帧读取?

2021-11-12 00:00:00 apache-spark mysql

我想使用 Apache Spark 和 MySQL 运行我现有的应用程序.

I want to run my existing application with Apache Spark and MySQL.

推荐答案

来自 pySpark,它对我有用:

From pySpark, it work for me :

dataframe_mysql = mySqlContext.read.format("jdbc").options(
    url="jdbc:mysql://localhost:3306/my_bd_name",
    driver = "com.mysql.jdbc.Driver",
    dbtable = "my_tablename",
    user="root",
    password="root").load()

相关文章