今天在調(diào)試sparksql的時(shí)候,查詢分區(qū)信息,
SELECT T.PROD_INST_ID ,T.PROD_ID ,T.STATUS_CD ,T.FIRST_FINISH_DATE ,T.BEGIN_RENT_DATE ,T.PAYMENT_MODE_CD ,T.CREATE_DATE , T.ACC_NUM FROM CRM_DB.ITG_PROD_INST T WHERE DAY_ID='20170212' AND PROV_ID='842' 竟然報(bào)錯(cuò):
deploy.SparkSubmit.main(SparkSubmit.scala)
java.lang.RuntimeException:Expected only partition pruning predicates: (isnotnull(PROV_ID#531) &&(PROV_ID#531 = 842))
但是在hive中查詢是可以的。
后來(lái)經(jīng)過(guò)一點(diǎn)一點(diǎn)測(cè)試發(fā)現(xiàn),原來(lái)分區(qū)名稱不能是大寫,必須小寫才行。
新聞熱點(diǎn)
疑難解答
圖片精選