首页
Python
Java
前端
数据库
Linux
Chatgpt专题
开发者工具箱
paimon0.9专题
本地spark3.5(不整合hive) 集成paimon0.9
spark官网下载集成hadoop的spark包: spark-3.5.1-bin-hadoop3....解压后 环境变量配置 SPARK_HOMEspark-defaults.conf 中增加一行配置(避免启动spark-sql报错hive元数据连不上): spark.sql.catalogImplementation=hive打开paimon官网: https://paimon.ap
阅读更多...