:29: error: overloaded method value join with alternatives:(right: org.apache.spark.sql.Dataset[_],joinExprs: org.apache.spark.sql.Column)org.apache.spark.sql.DataFrame


在scala中執行如下代碼,報 join 錯誤!!

scala> val data = itemTotalTime.join(totalTime, "userId")

  錯誤日志如下:

<console>:29: error: overloaded method value join with alternatives:
  
  (right: org.apache.spark.sql.Dataset[_],usingColumns: Seq[String])org.apache.spark.sql.DataFrame <and>
  (right: org.apache.spark.sql.Dataset[_],usingColumn: String)org.apache.spark.sql.DataFrame
 cannot be applied to (Unit, String)
           val data = itemTotalTime.join(totalTime, "userId")
                                    ^

  

 

 

分析:應該是join的一邊是DataFram 一邊是Dataset 的原因,我把這兩個 itemTotalTime、totalTime 都  .toDF 了一下就好了

--------------------------------記錄一下---------------------------------

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM