spark中saveAsTextFile的錯誤


寫了很簡單的一段spark代碼,將結果保存為windows本地文件,執行之后總是報錯NullPointerException

查詢之后 發現是本地缺少hadoop需要的一個文件所致

如果本地已經安裝了hadoop 一般不會有此問題 如果不願安裝 可按照下述方法解決

1)下載需要的文件 winutils.exe

http://social.msdn.microsoft.com/Forums/windowsazure/en-US/28a57efb-082b-424b-8d9e-731b1fe135de/please-read-if-experiencing-job-failures?forum=hdinsight

2) 將此文件放置在某個目錄下,比如C:\winutils\bin\中。

3)在程序的一開始聲明:System.setProperty("hadoop.home.dir", "c:\\winutil\\")

 

轉載自:https://www.cnblogs.com/029zz010buct/p/4680403.html


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM