hadoop配置文件詳解系列(一)-core-site.xml篇


導讀 :關於hadoop的配置文件,目前其它網站資料中都是只寫了幾個常用的屬性配置,但平時可能也會用到其它屬性,這里就一起寫出來,供大家參考。本篇先從core-site.xml開始,后續將繼續進行其它配置文件的梳理。
屬性名稱
屬性值
描述
hadoop.common.configuration.version 0.23.0 配置文件的版本。
hadoop.tmp.dir /tmp/hadoop-${user.name} 其它臨時目錄的父目錄,會被其它臨時目錄用到。
io.native.lib.available TRUE 是否使用本地庫進行bz2和zlib的文件壓縮及編解碼。
hadoop.http.filter.initializers org.apache.hadoop.http.lib.StaticUserWebFilter 一個逗號分隔的類名列表,他們必須繼承於org.apache.hadoop.http.FilterInitializer,相應的過濾器被初始化后,將應用於所有的JSP和Servlet網頁。列表的排序即為過濾器的排序。 
hadoop.security.authorization FALSE 是否啟用service級別的授權。
hadoop.security.instrumentation.requires.admin FALSE 訪問servlets (JMX, METRICS, CONF, STACKS)是否需要管理員ACL(訪問控制列表)的授權。
hadoop.security.authentication simple 有兩個選項,simple和kerberos,兩個的詳細區別就自己百度吧。
hadoop.security.group.mapping org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback 用於ACL用戶組映射的類,默認的實現類是 org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback,定義了JNI是否可用,如果可用,將使用hadoop中的API來實現訪問用戶組解析,如果不可用,將使用ShellBasedUnixGroupsMapping來實現。
hadoop.security.dns.interface   用於確定Kerberos登錄主機的網絡接口的名稱。
hadoop.security.dns.nameserver   用於確定Kerberos登錄主機的地址。
hadoop.security.dns.log-slow-lookups.enabled FALSE 當查詢名稱時間超過閾值時是否進行記錄。
hadoop.security.dns.log-slow-lookups.threshold.ms 1000 接上一個屬性,這個屬性就是設置閾值的。
hadoop.security.groups.cache.secs 300 配置用戶組映射緩存時間的,當過期時重新獲取並緩存。
hadoop.security.groups.negative-cache.secs 30 當無效用戶頻繁訪問,用於設置緩存鎖定時間。建議設置為較小的值,也可以通過設置為0或負數來禁用此屬性。
hadoop.security.groups.cache.warn.after.ms 5000 當查詢用戶組時間超過設置的這個閾值時,則作為警告信息進行記錄。
hadoop.security.groups.cache.background.reload FALSE 是否使用后台線程池重新加載過期的用戶組映射。
hadoop.security.groups.cache.background.reload.threads 3 接上一個屬性,當上個屬性為true時,通過此屬性控制后台線程的數量。
hadoop.security.groups.shell.command.timeout 0s 設置shell等待命令執行時間,如果超時,則命令中止,如果設置為0,表示無限等待。
hadoop.security.group.mapping.ldap.connection.timeout.ms 60000 設置LDAP的連接超時時間,如果為0或負數,表示無限等待。
hadoop.security.group.mapping.ldap.read.timeout.ms 60000 設置LDAP的讀取超時時間,如果為0或負數,表示無限等待。
hadoop.security.group.mapping.ldap.url   LDAP服務器的地址。
hadoop.security.group.mapping.ldap.ssl FALSE 是否使用SSL連接LDAP服務器。
hadoop.security.group.mapping.ldap.ssl.keystore   包含SSL證書的SSL密鑰文件的存儲路徑。
hadoop.security.group.mapping.ldap.ssl.keystore.password.file   包括SSL密鑰文件訪問密碼的文件路徑,如果此屬性沒有設置,並且hadoop.security.group.mapping.ldap.ssl.keystore.password屬性也沒有設置,則直接從LDAP指定文件讀取密碼(注意:此文件只能由運行守護進程的unix用戶讀取,並且應該是本地文件)。
hadoop.security.group.mapping.ldap.ssl.keystore.password   保存SSL密鑰文件訪問密碼的別名,如果此屬性為空,並且hadoop.security.credential.clear-text-fallback屬性為true時,則通過后者獲取密碼。
hadoop.security.credential.clear-text-fallback TRUE 是否將密碼保存為明文。
hadoop.security.credential.provider.path   包含證書類型和位置的文件地址列表。
hadoop.security.credstore.java-keystore-provider.password-file   包含用戶自定義密碼的文件路徑。
hadoop.security.group.mapping.ldap.bind.user   連接到LDAP服務器時的用戶別名,如果LDAP服務器支持匿名綁定,則此屬性可以為空值。
hadoop.security.group.mapping.ldap.bind.password.file   包含綁定用戶密碼的文件的路徑。如果在證書提供程序中沒有配置密碼,並且屬性hadoop.security.group.mapping.ldap.bind.password沒有設置,則從文件讀取密碼。注意:此文件只能由運行守護進程的UNIX用戶讀取,並且應該是本地文件。
hadoop.security.group.mapping.ldap.bind.password   綁定用戶的密碼。此屬性名用作從憑據提供程序獲取密碼的別名。如果無法找到密碼,hadoop.security.credential.clear-text-fallback是真的,則使用此屬性的值作為密碼。
hadoop.security.group.mapping.ldap.base   LDAP連接時搜索的根目錄。
hadoop.security.group.mapping.ldap.userbase   指定用戶LDAP連接時搜索的根目錄。如果不設置此屬性,則使用hadoop.security.group.mapping.ldap.base屬性的值。
hadoop.security.group.mapping.ldap.groupbase   指定用戶組LDAP連接時搜索的根目錄。如果不設置此屬性,則使用hadoop.security.group.mapping.ldap.base屬性的值。
hadoop.security.group.mapping.ldap.search.filter.user (&(objectClass=user)(sAMAccountName={0})) 搜索LDAP用戶時提供的額外的篩選器。
hadoop.security.group.mapping.ldap.search.filter.group (objectClass=group) 搜索LDAP用戶組時提供的額外的篩選器。
hadoop.security.group.mapping.ldap.search.attr.memberof   用戶對象的屬性,用於標識其組對象。
hadoop.security.group.mapping.ldap.search.attr.member member 用戶組對象的屬性,用於標識其有哪些組成員。
hadoop.security.group.mapping.ldap.search.attr.group.name cn 用戶組對象的屬性,用於標識用戶組的名稱。
hadoop.security.group.mapping.ldap.search.group.hierarchy.levels 0 當要確定用戶所屬的用戶組時,此屬性用於指定向上查找的層級數目。如果為0,則表示只查詢當前用戶所屬的直接用戶組,不再向上查找。
hadoop.security.group.mapping.ldap.posix.attr.uid.name uidNumber  posixAccount的屬性,用於成員分組
hadoop.security.group.mapping.ldap.posix.attr.gid.name gidNumber posixAccount的屬性,用戶標識組ID。
hadoop.security.group.mapping.ldap.directory.search.timeout 10000  LDAP SearchControl的屬性,用於在搜索和等待結果時設置最大時間限制。如果需要無限等待時間,設置為0。默認值為10秒。單位為毫秒。
hadoop.security.group.mapping.providers   逗號分隔的提供商名稱,用於用戶組映射。
hadoop.security.group.mapping.providers.combined TRUE 標識提供商提供的級是否可以被組合。
hadoop.security.service.user.name.key   此屬性用於指定RPC調用的服務主名稱,適用於相同的RPC協議由多個服務器實現的情況。
fs.azure.user.agent.prefix unknown WASB提供給Azure的前綴,默認包括WASB版本、JAVA運行時版本、此屬性的值等。
hadoop.security.uid.cache.secs 14400 控制緩存的過期時間。
hadoop.rpc.protection authentication 一個逗號分隔的安全SASL連接的保護值列表。
hadoop.security.saslproperties.resolver.class   用於連接時解決QOP的SaslPropertiesResolver。
hadoop.security.sensitive-config-keys secret$ password$ ssl.keystore.pass$ fs.s3.*[Ss]ecret.?[Kk]ey fs.s3a.*.server-side-encryption.key fs.azure.account.key.* credential$ oauth.*token$ hadoop.security.sensitive-config-keys 一個逗號分隔的或多行的正則表達式列表。
hadoop.workaround.non.threadsafe.getpwuid TRUE 一些系統已知在調用getpwuid_r和getpwgid_r有問題,這些調用是非線程安全的。這個問題的主要表現特征是JVM崩潰。如果你的系統有這些問題,開啟這個選項。默認是關閉的。
hadoop.kerberos.kinit.command kinit 用於Kerberos證書的定時更新。
hadoop.kerberos.min.seconds.before.relogin 60 重新嘗試登錄Kerberos的最小時間間隔,單位為秒。
hadoop.security.auth_to_local   將Kerberos主體映射到本地用戶名。
hadoop.token.files   具有Hadoop服務授權令牌的令牌緩存文件列表。
io.file.buffer.size 4096 在序列文件中使用的緩沖區大小。這個緩沖區的大小應該是頁大小(英特爾x86上為4096)的倍數,它決定讀寫操作中緩沖了多少數據。
io.bytes.per.checksum 512 每個檢驗和的字節數,不能大於 io.file.buffer.size屬性的值。
io.skip.checksum.errors FALSE 如果為true,當讀取序列文件時遇到校驗和錯誤,則跳過條目,而不是拋出異常。
io.compression.codecs   一組可用於壓縮/解壓縮的表列表,使用逗號進行分隔。
io.compression.codec.bzip2.library system-native 用於bzip2編解碼的本地代碼庫,可以通過名稱或全路徑來指定該庫。
io.serializations org.apache.hadoop.io.serializer.WritableSerialization, org.apache.hadoop.io.serializer.avro.AvroSpecificSerialization, org.apache.hadoop.io.serializer.avro.AvroReflectSerialization 可用於獲取序列化和反序列化的序列化類的列表。
io.seqfile.local.dir ${hadoop.tmp.dir}/io/local 存儲中間數據文件的本地目錄。
io.map.index.skip 0 跳過索引的數量。
io.map.index.interval 128 MapFile由兩部分組成:數據文件和索引文件。在每個設置的時間間隔后,會根據寫入的數據文件內容,創建索引對應的索引文件內容。
fs.defaultFS file:/// 默認文件系統的名稱。通常指定namenode的URI地址,包括主機和端口。
fs.default.name file:/// 不建議使用此屬性,建議用fs.defaultFS屬性代替。
fs.trash.interval 0 檢查點被刪除的時間間隔,單位為分鍾。此屬性可以在服務器和客戶端上配置。如果服務器上被禁用,則檢查客戶端配置,如果服務器上被啟用,則忽略客戶端配置。
fs.trash.checkpoint.interval 0 檢查點之間的時間間隔,此屬性的值應該小於fs.trash.interval屬性的值。每次檢查指針運行時,它都會創建一個新的檢查點,並移除在幾分鍾前創建的檢查點。
fs.protected.directories   一個逗號分隔的目錄列表,即使是空的,也不能被超級用戶刪除。此設置可用於防止重要系統目錄因管理員錯誤而意外刪除。 
fs.AbstractFileSystem.file.impl org.apache.hadoop.fs.local.LocalFs file的抽象文件類。
fs.AbstractFileSystem.har.impl org.apache.hadoop.fs.HarFs har的抽象文件類。
fs.AbstractFileSystem.hdfs.impl org.apache.hadoop.fs.Hdfs hdfs的抽象文件類。
fs.AbstractFileSystem.viewfs.impl org.apache.hadoop.fs.viewfs.ViewFs viewfs的抽象文件類。
fs.viewfs.rename.strategy SAME_MOUNTPOINT 允許在多個掛載點間重命名。
fs.AbstractFileSystem.ftp.impl org.apache.hadoop.fs.ftp.FtpFs ftp的抽象文件類。
fs.AbstractFileSystem.webhdfs.impl org.apache.hadoop.fs.WebHdfs webhdfs的抽象文件類。
fs.AbstractFileSystem.swebhdfs.impl org.apache.hadoop.fs.SWebHdfs swebhdfs的抽象文件類。
fs.ftp.host 0.0.0.0 ftp的連接服務器。
fs.ftp.host.port 21 ftp的連接服務器端口。
fs.ftp.data.connection.mode ACTIVE_LOCAL_DATA_CONNECTION_MODE ftp客戶端的數據連接模式,有如下選項ACTIVE_LOCAL_DATA_CONNECTION_MODE,PASSIVE_LOCAL_DATA_CONNECTION_MODE 和PASSIVE_REMOTE_DATA_CONNECTION_MODE。
fs.ftp.transfer.mode BLOCK_TRANSFER_MODE ftp的數據傳輸模式,有如下選項 STREAM_TRANSFER_MODE,BLOCK_TRANSFER_MODE 和COMPRESSED_TRANSFER_MODE。
fs.df.interval 60000 磁盤使用統計情況的刷新時間間隔。
fs.du.interval 600000 文件空間使用統計情況的刷新時間間隔。
fs.s3.awsAccessKeyId   S3使用的AWS訪問密鑰ID。
fs.s3.awsSecretAccessKey   S3使用的AWS密鑰.
fs.s3.block.size 67108864 S3使用的塊大小。
fs.s3.buffer.dir ${hadoop.tmp.dir}/s3 該目錄用於發送S3前的臨時本地目錄。
fs.s3.maxRetries 4 在向應用程序發出故障之前,讀取或寫入文件到S3的最大重試次數。
fs.s3.sleepTimeSeconds 10 在每次S3重試之間的睡眠時間間隔。
fs.swift.impl org.apache.hadoop.fs.swift.snative.SwiftNativeFileSystem OpenStack Swift Filesystem的實現類。
fs.automatic.close TRUE 當為true時,FileSystem的實例會在程序退出時關閉,為false時,不自動退出。
fs.s3n.awsAccessKeyId   S3本地文件系統使用的AWS訪問密鑰ID。
fs.s3n.awsSecretAccessKey   S3本地文件系統使用的AWS密鑰.
fs.s3n.block.size 67108864 S3本地文件系統使用的塊大小。
fs.s3n.multipart.uploads.enabled FALSE 為true時,允許多個上傳到本地S3。當上傳一個的大小超過fs.s3n.multipart.uploads.block.size屬性的大小,則將其分割成塊。
fs.s3n.multipart.uploads.block.size 67108864 多上傳到本地S3時的塊大小,默認大小為64MB。
fs.s3n.multipart.copy.block.size 5368709120 多拷貝時的塊大小,默認大小為5GB。
fs.s3n.server-side-encryption-algorithm   為S3指定服務器端加密算法。默認情況下未設置,而當前唯一允許的值是AES256。
fs.s3a.access.key   S3A文件系統使用的AWS訪問密鑰ID。
fs.s3a.secret.key   S3A文件系統使用的AWS密鑰。
fs.s3a.aws.credentials.provider   一組com.amazonaws.auth.AWSCredentialsProvider的實現類,按照順序加載和查詢。
fs.s3a.session.token   當使用org.apache.hadoop.fs.s3a.TemporaryAWSCredentialsProvider時的會話令牌。
fs.s3a.security.credential.provider.path   hadoop.security.credential.provider.path屬性的一個子集
fs.s3a.connection.maximum 15 S3A的最大連接數。
fs.s3a.connection.ssl.enabled TRUE 是否啟用SSL連接到S3A。
fs.s3a.endpoint   AWS S3 連接終端。
fs.s3a.path.style.access FALSE 啟用S3A path style訪問,即禁用默認虛擬的互聯網行為。
fs.s3a.proxy.host   S3A連接代理的主機名。
fs.s3a.proxy.port   S3A連接代理的端口,如果未設置,默認為80或443。
fs.s3a.proxy.username   S3A連接代理的用戶名。
fs.s3a.proxy.password   S3A連接代理的密碼。
fs.s3a.proxy.domain   S3A連接代理的域。
fs.s3a.proxy.workstation   S3A連接代理的工作站。
fs.s3a.attempts.maximum 20 當出現錯誤時的最大重試次數。
fs.s3a.connection.establish.timeout 5000 Socket連接建立超時時間,單位為毫秒。
fs.s3a.connection.timeout 200000 Socket連接保持時間,單位為毫秒。
fs.s3a.socket.send.buffer 8192 Socket 發送緩沖大小,單位為字節。
fs.s3a.socket.recv.buffer 8192 Socket 接收緩沖大小,單位為字節。
fs.s3a.paging.maximum 5000 在讀取目錄列表時,從S3A同時請求的密鑰最大數量。
fs.s3a.threads.max 10 文件請求的最大並發線程數。
fs.s3a.threads.keepalivetime 60 線程空間多長時間后,即終止。單位為秒。
fs.s3a.max.total.tasks 5 可以並發執行的操作數。
fs.s3a.multipart.size 100M upload或copy操作,當文件超過多大時,即拆分。單位可以為K/M/G/T/P。
fs.s3a.multipart.threshold 2147483647 upload或copy或rename操作,當文件超過多大時,即拆分。單位可以為K/M/G/T/P,不寫表示字節。
fs.s3a.multiobjectdelete.enable TRUE 當啟用時,多個單對象的刪除,被單個多對象的刪除替代,以減少請求數。
fs.s3a.acl.default   選項有Private、PublicRead,、PublicReadWrite、 AuthenticatedRead、LogDeliveryWrite、 BucketOwnerRead、 or BucketOwnerFullControl。
fs.s3a.multipart.purge FALSE 當為true時,清除多文件上傳失敗時的文件。
fs.s3a.multipart.purge.age 86400 清理多文件上傳的最小秒數。
fs.s3a.server-side-encryption-algorithm   為S3A指定服務器端加密算法,可以為 'AES256' (for SSE-S3)、 'SSE-KMS' 或 'SSE-C'.
fs.s3a.server-side-encryption.key   如果 fs.s3a.server-side-encryption-algorithm屬性值為'SSE-KMS' or 'SSE-C',則使用特定的加密密鑰。在SSE-C的情況下,這個屬性的值應該是Base64編碼的密鑰,在SSE-KMS的情況下,如果該屬性為空,則使用默認的S3KMS密鑰,否則應將該屬性設置為特定的KMS密鑰ID。
fs.s3a.signing-algorithm   重寫默認簽名算法。
fs.s3a.block.size 32M S3A的塊大小。
fs.s3a.buffer.dir ${hadoop.tmp.dir}/s3a 用於緩沖上傳文件的目錄。
fs.s3a.fast.upload FALSE 是否啟用基於增量塊的快速上傳機制。
fs.s3a.fast.upload.buffer disk 選項可以為disk/array/bytebuffer。
fs.s3a.fast.upload.active.blocks 4 單個輸出流可以激活的最大塊數。
fs.s3a.readahead.range 64K 在關閉和重新打開S3 HTTP連接之前在seek()提前讀取的字節。
fs.s3a.user.agent.prefix   設置一個自定義值,作為發送到S3的HTTP請求的頭部。
fs.s3a.metadatastore.authoritative FALSE 當為true時,允許元數據作為真實的數據源。
fs.s3a.metadatastore.impl org.apache.hadoop.fs.s3a.s3guard.NullMetadataStore 實現S3A的元數據存儲類的完全限定名。
fs.s3a.s3guard.cli.prune.age 86400000 刪除命令執行后,元數據在設定時間后被刪除,單位為毫秒。
fs.s3a.impl org.apache.hadoop.fs.s3a.S3AFileSystem S3A文件系統的實現類 。
fs.s3a.s3guard.ddb.region   AWS DynamoDB連接域。
fs.s3a.s3guard.ddb.table   DynamoDB操作表名,如果此屬性沒有被設置,則使用S3的桶名。
fs.s3a.s3guard.ddb.table.create FALSE 當為true時,S3A客戶端將允許創建不存在的表。
fs.s3a.s3guard.ddb.table.capacity.read 500 讀操作的吞吐量設置。
fs.s3a.s3guard.ddb.table.capacity.write 100 寫操作的吞吐量設置。
fs.s3a.s3guard.ddb.max.retries 9 批量DynamoDB操作報錯或取消前的最大重試次數。
fs.s3a.s3guard.ddb.background.sleep 25 批量刪除時,每個刪除間的時間間隔,單位為毫秒。
fs.AbstractFileSystem.s3a.impl org.apache.hadoop.fs.s3a.S3A S3A抽象文件系統的實現類。
fs.wasb.impl org.apache.hadoop.fs.azure.NativeAzureFileSystem 原生Azure文件系統的實現類。
fs.wasbs.impl org.apache.hadoop.fs.azure.NativeAzureFileSystem$Secure 安全原生Azure文件系統的實現類。
fs.azure.secure.mode FALSE 當為true時,允許 fs.azure.NativeAzureFileSystem使用SAS密鑰與Azure存儲進行通信。
fs.azure.local.sas.key.mode FALSE 當為true時,fs.azure.NativeAzureFileSystem使用本地SAS密鑰生成,當為false,此屬性無意義。
fs.azure.sas.expiry.period 90d 生成的SAS密鑰過期時間,單位可以是ms(millis), s(sec), m(min), h(hour), d(day) 。
fs.azure.authorization FALSE 當為true時,啟用WASB的授權支持。
fs.azure.authorization.caching.enable TRUE 當為true時,開戶授權結果的緩存。
fs.azure.saskey.usecontainersaskeyforallaccess TRUE 當為true時,使用容器內的SAS密鑰訪問blob,專用密鑰無效。
fs.adl.impl org.apache.hadoop.fs.adl.AdlFileSystem  
fs.AbstractFileSystem.adl.impl org.apache.hadoop.fs.adl.Adl  
io.seqfile.compress.blocksize 1000000 塊壓縮序列文件中壓縮的最小塊大小。
io.mapfile.bloom.size 1048576 BloomMapFile中的bloom過濾器大小。
io.mapfile.bloom.error.rate 0.005 BloomMapFile中的bloom過濾器的假負率,默認是0.5%。
hadoop.util.hash.type murmur Hash的默認實現,有兩個選項murmur和jenkins。
ipc.client.idlethreshold 4000 定義連接的閾值數量,之后將檢查連接是否空閑。
ipc.client.kill.max 10 定義一次斷開的客戶端的最大數量。
ipc.client.connection.maxidletime 10000 空間連接斷開時間,單位為毫秒。
ipc.client.connect.max.retries 10 客戶端重新建立服務器連接的重試次數。
ipc.client.connect.retry.interval 1000 兩次重新建立連接之間的時間間隔,單位為毫秒。
ipc.client.connect.timeout 20000 客戶端通過socket連接到服務器的超時時間。
ipc.client.connect.max.retries.on.timeouts 45 客戶端通過socket重新連接到服務器的重試次數。
ipc.client.tcpnodelay TRUE 當為true時,使用TCP_NODELAY標志繞過Nagle的算法傳輸延遲。
ipc.client.low-latency FALSE 當為true時,使用低延遲在QoS標記。
ipc.client.ping TRUE 當為true時,如果讀取響應超時,則向服務器發送ping命令。
ipc.ping.interval 60000 等待服務器響應的超時時間,單位為毫秒。當ipc.client.ping屬性為true時,客戶端將在不接收字節的情況下發送Ping命令。
ipc.client.rpc-timeout.ms 0 等待服務器響應的超時時間,單位為毫秒。當ipc.client.ping屬性為true,並且這個屬性的時間比 ipc.ping.interval屬性的值大時,這個屬性的時間將被修改為 ipc.ping.interval的最大倍數。
ipc.server.listen.queue.size 128 接受客戶端連接的服務器的偵聽隊列的長度。
ipc.server.log.slow.rpc FALSE 此設置有助於排除各種服務的性能問題。如果這個值設置為true,將被記錄請求。
ipc.maximum.data.length 67108864 服務器可以接受的最大IPC消息長度(字節)。
ipc.maximum.response.length 134217728 服務器可以接受的最大IPC消息長度(字節)。設置為0禁用。
hadoop.security.impersonation.provider.class   ImpersonationProvider接口的實現類,用於授權一個用戶是否可以模擬特定用戶。如果未指定,則使用DefaultImpersonationProvider實現。
hadoop.rpc.socket.factory.class.default org.apache.hadoop.net.StandardSocketFactory 默認使用SocketFactory,參數格式為package.FactoryClassName。
hadoop.rpc.socket.factory.class.ClientProtocol   連接到DFS的SocketFactory,如果為空,則使用 hadoop.rpc.socket.class.default屬性的值。
hadoop.socks.server   SocksSocketFactory使用的SOCKS服務器的地址(主機:端口)。
net.topology.node.switch.mapping.impl org.apache.hadoop.net.ScriptBasedMapping DNSToSwitchMapping的默認實現,其調用net.topology.script.file.name屬性的值來解析節點名稱。
net.topology.impl org.apache.hadoop.net.NetworkTopology NetworkTopology的默認實現,它是典型的三層拓撲結構。
net.topology.script.file.name   該腳本被用於解析DNS的名稱,例如,腳本將接收host.foo.bar,然后返回 /rack1。
net.topology.script.number.args 100 net.topology.script.file.name屬性中參數的最大數量。
net.topology.table.file.name   當net.topology.node.switch.mapping.impl屬性的值為 org.apache.hadoop.net.TableMapping時適用,表示一個拓撲文件。該文件格式是兩列文本,列由空白分隔。第一列是DNS或IP地址,第二列指定地址映射的機架。如果沒有找到對應於集群中的主機的條目,則假設默認機架。
file.stream-buffer-size 4096 流文件的緩沖區大小,這個大小應該是頁大小的位數(X86為4096)。
file.bytes-per-checksum 512 每個校驗和的字節數。
file.client-write-packet-size 65536 客戶機寫入的數據包大小。
file.blocksize 67108864 塊大小。
file.replication 1 復制因子。
s3.stream-buffer-size 4096 流文件的緩沖區大小,這個大小應該是頁大小的位數(X86為4096)。
s3.bytes-per-checksum 512 每個校驗和的字節數,該數值不能大於 s3.stream-buffer-size屬性的值。
s3.client-write-packet-size 65536 客戶機寫入的數據包大小。
s3.blocksize 67108864 塊大小。
s3.replication 3 復制因子。
s3native.stream-buffer-size 4096 流文件的緩沖區大小,這個大小應該是頁大小的位數(X86為4096)。
s3native.bytes-per-checksum 512 每個校驗和的字節數,該數值不能大於 s3native.stream-buffer-size屬性的值。
s3native.client-write-packet-size 65536 客戶機寫入的數據包大小。
s3native.blocksize 67108864 塊大小。
s3native.replication 3 復制因子。
ftp.stream-buffer-size 4096 流文件的緩沖區大小,這個大小應該是頁大小的位數(X86為4096)。
ftp.bytes-per-checksum 512 每個校驗和的字節數,該數值不能大於ftp.stream-buffer-size屬性的值。
ftp.client-write-packet-size 65536 客戶機寫入的數據包大小。
ftp.blocksize 67108864 塊大小。
ftp.replication 3 復制因子。
tfile.io.chunk.size 1048576 chunk大小,單位為字節,默認為1MB。
tfile.fs.output.buffer.size 262144 FSDataOutputStream中使用的緩沖區大小。
tfile.fs.input.buffer.size 262144 FSDataInputStream使用的緩沖區大小。
hadoop.http.authentication.type simple 定義了Oozie HTTP終端的認證方式,支持simple和kerberos。
hadoop.http.authentication.token.validity 36000 驗證令牌的有效時長,單位為秒。
hadoop.http.authentication.signature.secret.file ${user.home}/hadoop-http-auth-signature-secret 簽署認證令牌的簽名秘密。同樣的秘密應該用於JT/NN/DN/TT配置。
hadoop.http.authentication.cookie.domain   用於存儲身份驗證令牌的HTTP Cookie域。為了授權在所有Hadoop節點Web控制台上正確工作,必須正確設置域。重要事項:當使用IP地址時,瀏覽器忽略具有域設置的Cookie。為了使該設置正常工作,集群中的所有節點必須配置為具有主機名的URL。
hadoop.http.authentication.simple.anonymous.allowed TRUE 當使用'simple'認證時,是否允許匿名請求。
hadoop.http.authentication.kerberos.principal HTTP/_HOST@LOCALHOST HTTP終端中使用的Kerberos principal,該principal必須以 'HTTP/'開頭。
hadoop.http.authentication.kerberos.keytab ${user.home}/hadoop.keytab keytab文件的位置。
hadoop.http.cross-origin.enabled FALSE 是否啟用cross-origin (CORS)過濾器。
hadoop.http.cross-origin.allowed-origins * 需要cross-origin (CORS)支持的web服務的來源列表,用逗號分隔。
hadoop.http.cross-origin.allowed-methods GET,POST,HEAD 需要cross-origin (CORS)支持的方法列表,用逗號分隔。
hadoop.http.cross-origin.allowed-headers X-Requested-With,Content-Type,Accept,Origin 需要cross-origin (CORS)支持的web服務的的頭部,用逗號分隔。
hadoop.http.cross-origin.max-age 1800 需要cross-origin (CORS)支持的web服務緩存支持秒數。
dfs.ha.fencing.methods   fencing方法列表。
dfs.ha.fencing.ssh.connect-timeout 30000 SSH連接超時時長,單位為毫秒。
dfs.ha.fencing.ssh.private-key-files   SSH私鑰文件。
hadoop.http.staticuser.user dr.who 呈現內容時在靜態Web篩選器上進行過濾的用戶名,比如在HDFS web UI中的過濾。
ha.zookeeper.quorum   ZooKeeper服務器地址列表,用逗號分隔,可以被ZKFailoverController用於自動故障轉移。
ha.zookeeper.session-timeout.ms 5000 ZKFC連接到ZooKeeper的超時時長,將該值設置為較低的值意味着服務器崩潰將被更快地檢測到,但在瞬態錯誤或網絡錯誤的情況下,就會使故障轉移過於激進。
ha.zookeeper.parent-znode /hadoop-ha ZKFC下的存儲信息的znode。
ha.zookeeper.acl world:anyone:rwcda znode使用的ZooKeeper ACL列表,用逗號分隔。格式同ZooKeeper CLI。如果ACL本身包含秘密,那么您可以指定一個文件的路徑,用“@”符號前綴,並且該配置的值將從內部加載。
ha.zookeeper.auth   連接到ZooKeeper時,將該列表加入到認證列表,此列表用逗號分隔。
hadoop.ssl.keystores.factory.class org.apache.hadoop.security.ssl.FileBasedKeyStoresFactory 用於檢索證書的密鑰存儲工廠。
hadoop.ssl.require.client.cert FALSE 是否需要客戶端證書。
hadoop.ssl.hostname.verifier DEFAULT 提供HttpsURL連接主機名驗證器。有以下選項:DEFAULT, STRICT, STRICT_IE6, DEFAULT_AND_LOCALHOST 和 ALLOW_ALL。
hadoop.ssl.server.conf ssl-server.xml 提取SSL服務器密鑰存儲信息的資源文件,這個文件通過在classpath中查詢。默認為hadoop下的conf/ 目錄。
hadoop.ssl.client.conf ssl-client.xml 提取SSL客戶端密鑰存儲信息的資源文件,這個文件通過在classpath中查詢。默認為hadoop下的conf/ 目錄。
hadoop.ssl.enabled FALSE 不建議使用,建議用dfs.http.policy and yarn.http.policy代替。
hadoop.ssl.enabled.protocols TLSv1,SSLv2Hello,TLSv1.1,TLSv1.2 支持的SSL協議列表。The supported SSL protocols.
hadoop.jetty.logs.serve.aliases TRUE 對於jetty的服務是否啟用別名。
fs.permissions.umask-mode 22 創建文件或目錄時的umask。例如"022" (符號表示就是 u=rwx,g=r-x,o=r-x ),或者 "u=rwx,g=rwx,o=" (用八進制表示就是007)。
ha.health-monitor.connect-retry-interval.ms 1000 重試連接到服務的頻率。
ha.health-monitor.check-interval.ms 1000 多久檢查一次服務
ha.health-monitor.sleep-after-disconnect.ms 1000 在異常RPC錯誤之后,休眠多長時間。
ha.health-monitor.rpc-timeout.ms 45000 實際 monitorHealth() 調用超時時間。
ha.failover-controller.new-active.rpc-timeout.ms 60000 FC等待新任務的超時時間,在設置時間內有新任務,即重新進入激活狀態。
ha.failover-controller.graceful-fence.rpc-timeout.ms 5000 FC等待舊任務的超時時間,然后進入待機。
ha.failover-controller.graceful-fence.connection.retries 1 graceful fencing中FC連接的重試次數。
ha.failover-controller.cli-check.rpc-timeout.ms 20000 CLI (manual) FC等待monitorHealth, getServiceState的超時時間。
ipc.client.fallback-to-simple-auth-allowed FALSE 當客戶端被配置為嘗試安全連接,但嘗試連接到不安全的服務器時,該服務器可以指示客戶端切換到SASL SIMPLE(非安全)認證。此設置控制客戶端是否將接受來自服務器的此指令。當FALSE(默認)時,客戶端將不允許退回到簡單的身份驗證,並將中止連接。 
fs.client.resolve.remote.symlinks TRUE 在訪問遠程Hadoop文件系統時,是否解析符號連接。當為false時,如果遇到符號連接,則觸發異常。此設置對於本地文件系統不適用,對於本地文件系統,會自動解析符號連接。
nfs.exports.allowed.hosts * rw 默認情況下,所有客戶端都可以導出。該屬性的值包含機構號和訪問權限,由空格分隔。機器名稱的格式可以是一個單一的主機,一個java正則表達式,或一個IPv4地址。訪問特權使用RW或RO來指定機器的讀/寫權限。如果未提供訪問特權,則默認為只讀。條目由“;”分隔。例如:“192.1680.0/22RW;主機。*.Stase\.com;Hoo1.Test.Org Ro;”。只有更新了NFS網關之后,才能重新啟動該屬性。
hadoop.user.group.static.mapping.overrides dr.who=; 用戶到組的靜態映射。如果指定的用戶在系統中可用,則這將覆蓋組。換句話說,這些用戶不會出現組查找,而是使用在這個配置中映射的組。映射應采用這種格式。USER1=GROMP1,GROP2;USER2=;USER3= GROP2;默認“DR.WH=”將考慮“D.WHO”作為沒有組的用戶。
rpc.metrics.quantile.enable FALSE 當為true,並且rpc.metrics.percentiles.intervals屬性為一組逗號分隔的度量時,將在百分位50/75/90/95/99時,加入rpc metrics。
rpc.metrics.percentiles.intervals   接上一屬性,和rpc.metrics.quantile.enable配合使用。
hadoop.security.crypto.codec.classes.EXAMPLECIPHERSUITE   對於給定的加密編解碼器的前綴,包含一個逗號分隔的給定密碼編解碼器(例如EXAMPLECIPHERSUITE)的實現類。如果可用的話,第一個實現將被使用,其他的則是回退。
hadoop.security.crypto.codec.classes.aes.ctr.nopadding org.apache.hadoop.crypto.OpensslAesCtrCryptoCodec, org.apache.hadoop.crypto.JceAesCtrCryptoCodec AES/CTR/NopAudio的加密編解碼器實現類,用逗號分隔。如果可用的話,第一個實現將被使用,其他的則是回退。
hadoop.security.crypto.cipher.suite AES/CTR/NoPadding 用於加密編解碼器的密碼套件。
hadoop.security.crypto.jce.provider   CryptoCodec中使用的JCE提供程序名稱。
hadoop.security.crypto.buffer.size 8192 CryptoInputStream和CryptoOutputStream使用的緩沖區大小。
hadoop.security.java.secure.random.algorithm SHA1PRNG java安全隨機算法。
hadoop.security.secure.random.impl   安全隨機的實現。
hadoop.security.random.device.file.path /dev/urandom OS安全隨機設備文件路徑。
hadoop.security.key.provider.path   在管理區域密鑰時使用的密鑰提供程序。對於HDFS客戶端,提供程序路徑將與NAMENODE的提供程序路徑相同。 
fs.har.impl.disable.cache TRUE 當為true時,不緩存“HAR”文件系統實例。
hadoop.security.kms.client.authentication.retry-count 1 在認證失敗時重試連接到KMS的次數。
hadoop.security.kms.client.encrypted.key.cache.size 500 EncryptedKeyVersion緩存隊列的大小。
hadoop.security.kms.client.encrypted.key.cache.low-watermark 0.3f 如果EncryptedKeyVersion緩存隊列大小低於watermark,隊列將被重新調度填充。
hadoop.security.kms.client.encrypted.key.cache.num.refill.threads 2 重新填充EncryptedKeyVersion緩存隊列的線程數。
hadoop.security.kms.client.encrypted.key.cache.expiry 43200000 密鑰過期時間,默認為12小時。
hadoop.security.kms.client.timeout 60 KMS連接超時時間。
hadoop.security.kms.client.failover.sleep.base.millis 100 在故障轉移嘗試之間以指數形式增加時長,這是迄今為止嘗試的數目的函數,具有+/- 50%的隨機因子。此選項指定在故障轉移計算中使用的基值。第一次故障轉移將立即重試。第二次故障轉移嘗試將延遲至少hadoop.security.client.failover.sleep.base.millis屬性的值之后……單位為毫秒
hadoop.security.kms.client.failover.sleep.max.millis 2000 在故障轉移嘗試之間以指數形式增加時長,這是迄今為止嘗試的數目的函數,具有+/- 50%的隨機因子。此選項指定在故障轉移之間等待的最大值。具體來說,兩個故障轉移嘗試之間的時間將不超過 hadoop.security.client.failover.sleep.max.millis屬性的值,單位為毫秒。
ipc.server.max.connections 0 服務器接受的最大並發連接數。
hadoop.registry.rm.enabled FALSE 是否在YARN Resource Manager中啟用注冊表。
hadoop.registry.zk.root /registry 注冊表的根zookeeper節點。
hadoop.registry.zk.session.timeout.ms 60000 Zookeeper會話超時時間,單位為毫秒。
hadoop.registry.zk.connection.timeout.ms 15000 Zookeeper連接超時時間,單位為毫秒。
hadoop.registry.zk.retry.times 5 Zookeeper連接重試最大次數。
hadoop.registry.zk.retry.interval.ms 1000 Zookeeper連接重試間隔。
hadoop.registry.zk.retry.ceiling.ms 60000 Zookeeper重試的時長限制,單位為毫秒。
hadoop.registry.zk.quorum localhost:2181 綁定注冊表的zookeeper的主機名列表。
hadoop.registry.secure FALSE 注冊表是否是安全的。
hadoop.registry.system.acls sasl:yarn@, sasl:mapred@, sasl:hdfs@ 可以安全訪問注冊表的 zookeeper ACL列表。
hadoop.registry.kerberos.realm   Kerberos域。
hadoop.registry.jaas.context Client 定義 JAAS上下文的密鑰,用於安全模式中。
hadoop.shell.missing.defaultFs.warning FALSE 如果fs.defaultFS屬性未設置,則在hdfs中啟用shell命令打印警告信息。 
hadoop.shell.safely.delete.limit.num.files 100 使用hadoop fs -rm的-safe選項,以避免意外刪除大目錄。 當啟用時,如果要刪除的文件數量大於該限制,則-RM命令需要確認。默認的限制是100個文件。如果限制為0或在-RM命令中未指定安全性,則禁用警告。
fs.client.htrace.sampler.classes   hadoop文件系統客戶端使用的HTrace Samplers類名。
hadoop.htrace.span.receiver.classes   hadoop中使用的Span Receivers類名。
hadoop.http.logs.enabled TRUE 當為true時,啟用hadoop守護進程上的/logs終端。
fs.client.resolve.topology.enabled FALSE 是否使用net.topology.node.switch.mapping.impl屬性的值來計算客戶端到遠程機器之間的網絡距離。
fs.adl.impl org.apache.hadoop.fs.adl.AdlFileSystem  
fs.AbstractFileSystem.adl.impl org.apache.hadoop.fs.adl.Adl  
adl.feature.ownerandgroup.enableupn FALSE 為了獲得最佳性能,建議使用FALSE。
fs.adl.oauth2.access.token.provider.type ClientCredential 定義了Azure Active Directory OAuth2訪問令牌提供程序類型。
fs.adl.oauth2.client.id   OAuth2客戶端ID。
fs.adl.oauth2.credential   OAuth2訪問密鑰。
fs.adl.oauth2.refresh.url   OAuth2令牌終端。
fs.adl.oauth2.refresh.token   OAuth2刷新令牌。
fs.adl.oauth2.access.token.provider   OAuth2訪問令牌提供程序的類名。
fs.adl.oauth2.msi.port   MSI令牌服務的本地端口,端口是在創建Azure VM時被指定的。如果未被指定,則用默認的50342。
fs.adl.oauth2.devicecode.clientapp.id   ADD本地app的ID。
hadoop.caller.context.enabled FALSE 當為true時,附加的內容會被寫入到namenode的log。
hadoop.caller.context.max.size 128 調用內容的最大字節數。
hadoop.caller.context.signature.max.size 40 服務器中允許簽名的最大字節。
seq.io.sort.mb 100 當使用SequenceFile.Sorter時,可以用於排序的緩沖區總大小。單位為兆字節。默認情況下,每個合並流為1MB。
seq.io.sort.factor 100 當使用SequenceFile.Sorter時,允許同時合並的流數量。
hadoop.zk.address   ZooKeeper服務器地址。
hadoop.zk.num-retries 1000 嘗試連接到ZooKeeper的數量。
hadoop.zk.retry-interval-ms 1000 連接到ZooKeeper的重試時間間隔,單位為毫秒。
hadoop.zk.timeout-ms 10000 ZooKeeper會話超時時間,單位為毫秒。 
hadoop.zk.acl world:anyone:rwcda 用於ZooKeeper znode的ACL。
hadoop.zk.auth   為hadoop.zk.acl屬性中的ACL指定認證方式。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM