如何将 Apache Spark 与 MySQL 集成以将数据库表作为 Spark 数据帧读取?
我想使用 Apache Spark 和 MySQL 运行我现有的应用程序.
I want to run my existing application with Apache Spark and MySQL.
推荐答案
来自 pySpark,它对我有用:
From pySpark, it work for me :
dataframe_mysql = mySqlContext.read.format("jdbc").options(
url="jdbc:mysql://localhost:3306/my_bd_name",
driver = "com.mysql.jdbc.Driver",
dbtable = "my_tablename",
user="root",
password="root").load()
相关文章