1、org.apache.hadoop.security.AccessControlException: Permission denied: user=root, access=EXECUTE
spark 建表或者使用hive的jdbc driver的時候出現問題:
解決:
關閉Hdfs的安全檢查(permission checking):將hdfs-xml中 dfs.permissions 屬性的值設置為 false 。但是這種方法的弊端是會導致Hdfs系統中所有的安全特性都被禁用,使Hdfs的安全性降低。在hdfs 的config中搜索就行了
2、failed strict managed table checks due to the following reason: Table is marked as a managed table but is not transactional.

3、sqoop 導入hive表,發現spark讀取的條數和hive的不一致
關閉hive的acid的配置
4、azkaban配置出現azkaban.utils.UndefinedPropertyException: Missing required property 'azkaban.native.lib'問題:
(1)在executor 的bin的同級目錄下打開 plugins/jobtypes 目錄,編輯里面的properties文件,增加azkaban.native.lib=false
(2)修改配置文件:conf/azkaban.properties ,找到azkaban.jobtype.plugin.dir,將jobtypes的絕對路徑填寫上去
(3)重新啟動executor和server。
5、hdfs 出現datanode 起不來,報錯:Cannot set priority of datanode process,這個時候,需要把 hdfs 的配置的目錄的權限給設置成777,如果還不行的話,需要格式化整個hdfs的數據,hdfs namenode -format
6、啟動namenode的時候如果出現退不出safe mode,則需要 hadoop dfsadmin -safemode leave
但是如果出現連接不上namenode的8020端口,則需要:
(1)、退出ambari-server和namenode 所在的 ambari-agent
(2)、執行hdfs namenode -format
(3)、將hdfs的目錄權限設置成777
(4)、重啟ambari-server和angent
這個時候重啟hdfs就不會出現連不上namenode的8020的問題,不過如果不是重啟所有的ambari-agent可能會導致集群的datanode的cluster-id和namenode的對不上,導致datanode起來就退出。這個時候需要把namenode的VERSION里面的cluster-id復制到每一個datanode的VERSION文件里面。
有可能等一會兒就好了....讓子彈飛一會兒...
7、版本:HDP3.0
mapreduce提交任務計算時,job已經結束,但是容器仍不能關閉持續等待五分鍾
INFO[Thread-100] org.apache.hadoop.yarn.event.AsyncDispatcher:Waiting for AsyncDispatcher to drain.Thread state is :WAITINGINFO[Thread-100] org.apache.hadoop.yarn.event.AsyncDispatcher:Waiting for AsyncDispatcher to drain.Thread state is :WAITINGINFO[Thread-100] org.apache.hadoop.yarn.event.AsyncDispatcher:Waiting for AsyncDispatcher to drain.Thread state is :WAITINGINFO[Thread-100] org.apache.hadoop.yarn.event.AsyncDispatcher:Waiting for AsyncDispatcher to drain.Thread state is :WAITINGINFO[Thread-100] org.apache.hadoop.yarn.event.AsyncDispatcher:Waiting for AsyncDispatcher to drain.Thread state is :WAITINGINFO[Thread-100] org.apache.hadoop.yarn.event.AsyncDispatcher:Waiting for AsyncDispatcher to drain.Thread state is :WAITINGINFO[Thread-100] org.apache.hadoop.yarn.event.AsyncDispatcher:Waiting for AsyncDispatcher to drain.Thread state is :WAITING
五分鍾后拋出異常:
org.apache.hadoop.yarn.exceptions.YarnException:Failed while publishing entity
...
Cause By :com.sun.jersey.api.client.ClientHandlerException:java.net.SocketTimeoutException:Read timed out
...
Cause By :java.net.SocketTimeoutException:Read timed out
發生這種情況是因為來自ATSv2的嵌入式HBASE崩潰。
解決這個問題的方法需要重置ATsv2內嵌HBASE數據庫
1.停止Yarn服務
Ambari -> Yarn-Actions -> Stop
2.刪除Zookeeper上的ATSv2 Znode
zookeeper-client -server zookeeper-quorum-serversrmr /atsv2-hbase-unsecure或rmr /atsv2-hbase-secure(如果是kerberized集群)
3.從HDFS移動Hbase時間線服務器Hbase嵌入式數據庫
hdfs dfs -mv /atsv2/hbase/tmp/
4.開始使用紗線服務
Ambari - > Yarn-Actions- > Start
再次重新提交任務,發現程序正常,問題解決
8、superset導出csv 中文字符,修改成gbk編碼:
修改 superset/config.py
CSV_EXPORT = {
'encoding': 'gbk',
}