今天在調試sparksql的時候,查詢分區信息,
SELECT T.PROD_INST_ID ,T.PROD_ID ,T.STATUS_CD ,T.FIRST_FINISH_DATE ,T.BEGIN_RENT_DATE ,T.PAYMENT_MODE_CD ,T.CREATE_DATE , T.ACC_NUM FROM CRM_DB.ITG_PROD_INST T WHERE DAY_ID='20170212' AND PROV_ID='842' 竟然報錯:
deploy.SparkSubmit.main(SparkSubmit.scala)
java.lang.RuntimeException:Expected only partition pruning predicates: (isnotnull(PROV_ID#531) &&(PROV_ID#531 = 842))
但是在hive中查詢是可以的。
后來經過一點一點測試發現,原來分區名稱不能是大寫,必須小寫才行。
新聞熱點
疑難解答