1. 程式人生 > >spark sql 支援多級目錄

spark sql 支援多級目錄

當表的分割槽有子目錄時,spark sql預設是不支援的,可以用以下設定:

在hive cli裡直接set mapreduce.input.fileinputformat.input.dir.recursive=true;就可以正常使用spark sql引擎
在程式碼層面可以嘗試
.set("spark.hive.mapred.supports.subdirectories","true")
.set("spark.hadoop.mapreduce.input.fileinputformat.input.dir.recursive","true")