關於hdfs中的core-site.xml,hdfs-site.xml,mapred-site.xml文件配置詳解


配置hadoop,主要是配置core-site.xml,hdfs-site.xml,mapred-site.xml三個配置文件,默認下來,這些配置文件都是空的,所以很難知道這些配置文件有哪些配置可以生效,上網找的配置可能因為各個hadoop版本不同,導致無法生效。瀏覽更多的配置,有兩個方法:     

/usr/local/hadoop2.6/hadoop-2.6.0-cdh5.9.0/etc/hadoop   # 配置文件路徑

1.選擇相應版本的hadoop,下載解壓后,搜索*.xml,找到core-default.xml,hdfs-default.xml,mapred-default.xml,這些就是默認配置,可以參考這些配置的說明和key,配置hadoop集群。

2.瀏覽apache官網,三個配置文件鏈接如下:

core-site.xml是全局配置,hdfs-site.xml和mapred-site.xml分別是hdfs和mapred的局部配置。
 
 

2 常用的端口配置2.1  HDFS端口

參數
描述
默認
配置文件
例子值
fs.default.name namenode
namenode RPC交互端口
8020
core-site.xml
hdfs://master:8020/
dfs.http.address
NameNode web管理端口
50070
hdfs- site.xml
0.0.0.0:50070
dfs.datanode.address
datanode 控制端口
50010
hdfs -site.xml
0.0.0.0:50010
dfs.datanode.ipc.address
datanode的RPC服務器地址和端口
50020
hdfs-site.xml
0.0.0.0:50020
dfs.datanode.http.address
datanode的HTTP服務器和端口
50075
hdfs-site.xml
0.0.0.0:50075

2.2  MR端口

參數
描述
默認
配置文件
例子值
mapred.job.tracker
job-tracker交互端口
8021
mapred-site.xml
hdfs://master:8021/
job
tracker的web管理端口
50030
mapred-site.xml
0.0.0.0:50030
mapred.task.tracker.http.address
task-tracker的HTTP端口
50060
mapred-site.xml
0.0.0.0:50060

2.3  其它端口

參數
描述
默認
配置文件
例子值
dfs.secondary.http.address
secondary NameNode web管理端口
50090
hdfs-site.xml
0.0.0.0:50090
         
         

3 三個缺省配置參考文件說明3.1  

core-default.xml

序號
參數名
參數值
參數說明
1
hadoop.tmp.dir                     
/tmp/hadoop-${user.name}                             
臨時目錄設定
2
hadoop.native.lib                  
true                                                
使用本地hadoop庫標識。
3
hadoop.http.filter.initializers   
 
http服務器過濾鏈設置                        
4
hadoop.security.group.mapping      
org.apache.hadoop.security.ShellBasedUnixGroupsMapping
組內用戶的列表的類設定
5
hadoop.security.authorization      
false                                                
服務端認證開啟
6
hadoop.security.authentication     
simple                                                
無認證或認證設置
7
hadoop.security.token.service.use_ip
true                                                
是否開啟使用IP地址作為連接的開關
8
hadoop.logfile.size               
10000000                                             
日志文件最大為10M
9
hadoop.logfile.count
10                                                   
日志文件數量為10個
10
io.file.buffer.size
4096
流文件的緩沖區為4K
11
io.bytes.per.checksum
512
校驗位數為512字節
12
io.skip.checksum.errors
false
校驗出錯后是拋出異常還是略過標識。True則略過。
13
io.compression.codecs
org.apache.hadoop.io.compress.DefaultCodec,
org.apache.hadoop.io.compress.GzipCodec,
org.apache.hadoop.io.compress.BZip2Codec,
org.apache.hadoop.io.compress.SnappyCodec
壓縮和解壓的方式設置
14
io.serializations
org.apache.hadoop.io.serializer.WritableSerialization
序例化和反序列化的類設定
15
fs.default.name
file:///                                            
缺省的文件URI標識設定。
16
fs.trash.interval
0                                                   
文件廢棄標識設定,0為禁止此功能
17
fs.file.impl
org.apache.hadoop.fs.LocalFileSystem               
本地文件操作類設置
18
fs.hdfs.impl
org.apache.hadoop.hdfs.DistributedFileSystem        
HDFS文件操作類設置
19
fs.s3.impl
org.apache.hadoop.fs.s3.S3FileSystem               
S3文件操作類設置
20
fs.s3n.impl            
org.apache.hadoop.fs.s3native.NativeS3FileSystem
S3文件本地操作類設置
21
fs.kfs.impl            
org.apache.hadoop.fs.kfs.KosmosFileSystem
KFS文件操作類設置.
22
fs.hftp.impl            
org.apache.hadoop.hdfs.HftpFileSystem
HTTP方式操作文件設置
23
fs.hsftp.impl           
org.apache.hadoop.hdfs.HsftpFileSystem
HTTPS方式操作文件設置
24
fs.webhdfs.impl         
org.apache.hadoop.hdfs.web.WebHdfsFileSystem
WEB方式操作文件類設置
25
fs.ftp.impl            
org.apache.hadoop.fs.ftp.FTPFileSystem
FTP文件操作類設置
26
fs.ramfs.impl           
org.apache.hadoop.fs.InMemoryFileSystem
內存文件操作類設置
27
fs.har.impl            
org.apache.hadoop.fs.HarFileSystem
壓縮文件操作類設置.
28
fs.har.impl.disable.cache
true
是否緩存har文件的標識設定
29
fs.checkpoint.dir      
${hadoop.tmp.dir}/dfs/namesecondary
備份名稱節點的存放目前錄設置
30
fs.checkpoint.edits.dir     
${fs.checkpoint.dir}
備份名稱節點日志文件的存放目前錄設置
31
fs.checkpoint.period        
3600
動態檢查的間隔時間設置
32
fs.checkpoint.size         
67108864
日志文件大小為64M
33
fs.s3.block.size            
67108864
寫S3文件系統的塊的大小為64M
34
fs.s3.buffer.dir            
${hadoop.tmp.dir}/s3
S3文件數據的本地存放目錄
35
fs.s3.maxRetries            
4
S3文件數據的償試讀寫次數
36
fs.s3.sleepTimeSeconds      
10
S3文件償試的間隔
37
local.cache.size            
10737418240
緩存大小設置為10GB
38
io.seqfile.compress.blocksize
1000000
壓縮流式文件中的最小塊數為100萬
39
io.seqfile.lazydecompress   
true
塊是否需要壓縮標識設定
40
io.seqfile.sorter.recordlimit
1000000
內存中排序記錄塊類最小為100萬
41
io.mapfile.bloom.size
1048576
BloomMapFiler過濾量為1M
42
io.mapfile.bloom.error.rate
0.005
 
43
hadoop.util.hash.type
murmur
缺少hash方法為murmur
44
ipc.client.idlethreshold
4000
連接數據最小閥值為4000
45
ipc.client.kill.max
10
一個客戶端連接數最大值為10
46
ipc.client.connection.maxidletime
10000
斷開與服務器連接的時間最大為10秒
47
ipc.client.connect.max.retries
10
建立與服務器連接的重試次數為10次
48
ipc.server.listen.queue.size
128
接收客戶連接的監聽隊例的長度為128
49
ipc.server.tcpnodelay
false
開啟或關閉服務器端TCP連接算法
50
ipc.client.tcpnodelay
false
開啟或關閉客戶端TCP連接算法
51
webinterface.private.actions
false
Web交互的行為設定
52
hadoop.rpc.socket.factory.class.default      
org.apache.hadoop.net.StandardSocketFactory
缺省的socket工廠類設置
53
hadoop.rpc.socket.factory.class.ClientProtocol
 
與dfs連接時的缺省socket工廠類
54
hadoop.socks.server                          
 
服務端的工廠類缺省設置為SocksSocketFactory.
55
topology.node.switch.mapping.impl            
org.apache.hadoop.net.ScriptBasedMapping
 
56
topology.script.file.name                    
   
57
topology.script.number.args                  
100
參數數量最多為100
58
hadoop.security.uid.cache.secs               
14400
 

3.2  hdfs-default.xml

序號
參數名
參數值
參數說明
1
dfs.namenode.logging.level      
info         
輸出日志類型
2
dfs.secondary.http.address      
0.0.0.0:50090
備份名稱節點的http協議訪問地址與端口                                                                                    
3
dfs.datanode.address            
0.0.0.0:50010
數據節點的TCP管理服務地址和端口
4
dfs.datanode.http.address        
0.0.0.0:50075
數據節點的HTTP協議訪問地址和端口
5
dfs.datanode.ipc.address         
0.0.0.0:50020
數據節點的IPC服務訪問地址和端口
6
dfs.datanode.handler.count      
3            
數據節點的服務連接處理線程數
7
dfs.http.address                 
0.0.0.0:50070
名稱節點的http協議訪問地址與端口
8
dfs.https.enable                 
false        
支持https訪問方式標識
9
dfs.https.need.client.auth      
false        
客戶端指定https訪問標識
10
dfs.https.server.keystore.resource
ssl-server.xml
Ssl密鑰服務端的配置文件
11
dfs.https.client.keystore.resource
ssl-client.xml
Ssl密鑰客戶端的配置文件
12
dfs.datanode.https.address      
0.0.0.0:50475
數據節點的HTTPS協議訪問地址和端口
13
dfs.https.address               
0.0.0.0:50470
名稱節點的HTTPS協議訪問地址和端口
14
dfs.datanode.dns.interface      
default      
數據節點采用IP地址標識
15
dfs.datanode.dns.nameserver      
default      
指定DNS的IP地址
16
dfs.replication.considerLoad     
true         
加載目標或不加載的標識
17
dfs.default.chunk.view.size      
32768         
瀏覽時的文件塊大小設置為32K
18
dfs.datanode.du.reserved         
0            
每個卷預留的空閑空間數量
19
dfs.name.dir                     
${hadoop.tmp.dir}/dfs/name
存貯在本地的名字節點數據鏡象的目錄,作為名字節點的冗余備份
20
dfs.name.edits.dir               
${dfs.name.dir}         
存貯文件操作過程信息的存貯目錄
21
dfs.web.ugi                     
webuser,webgroup         
Web接口訪問的用戶名和組的帳戶設定
22
dfs.permissions                  
true                     
文件操作時的權限檢查標識。
23
dfs.permissions.supergroup      
supergroup               
超級用戶的組名定義
24
dfs.block.access.token.enable   
false                    
數據節點訪問令牌標識
25
dfs.block.access.key.update.interval
600                     
升級訪問鑰時的間隔時間
26
dfs.block.access.token.lifetime   
600                     
訪問令牌的有效時間
27
dfs.data.dir                        
${hadoop.tmp.dir}/dfs/data
數據節點的塊本地存放目錄
28
dfs.datanode.data.dir.perm         
755                     
數據節點的存貯塊的目錄訪問權限設置
29
dfs.replication                    
3                        
缺省的塊復制數量
30
dfs.replication.max                 
512                     
塊復制的最大數量
31
dfs.replication.min               
1                        
塊復制的最小數量
32
dfs.block.size                     
67108864                 
缺省的文件塊大小為64M
33
dfs.df.interval                    
60000                     
磁盤空間統計間隔為6秒
34
dfs.client.block.write.retries     
3                        
塊寫入出錯時的重試次數
35
dfs.blockreport.intervalMsec      
3600000                  
塊的報告間隔時為1小時
36
dfs.blockreport.initialDelay      
0                        
塊順序報告的間隔時間
37
dfs.heartbeat.interval            
3                        
數據節點的心跳檢測間隔時間
38
dfs.namenode.handler.count         
10                       
名稱節點的連接處理的線程數量
39
dfs.safemode.threshold.pct         
0.999f                  
啟動安全模式的閥值設定
40
dfs.safemode.extension            
30000                    
當閥值達到量值后擴展的時限
41
dfs.balance.bandwidthPerSec        
1048576                  
啟動負載均衡的數據節點可利用帶寬最大值為1M
42
dfs.hosts                          
 
可與名稱節點連接的主機地址文件指定。
43
dfs.hosts.exclude                  
 
不充計與名稱節點連接的主機地址文件設定
44
dfs.max.objects                    
0
文件數、目錄數、塊數的最大數量
45
dfs.namenode.decommission.interval
30
名稱節點解除命令執行時的監測時間周期
46
dfs.namenode.decommission.nodes.per.interval
5      
名稱節點解除命令執行是否完檢測次數
47
dfs.replication.interval                  
3      
名稱節點計算數據節點的復制工作的周期數.
48
dfs.access.time.precision                  
3600000
充許訪問文件的時間精確到1小時
49
dfs.support.append                        
false   
是否充許鏈接文件指定
50
dfs.namenode.delegation.key.update-interval
86400000
名稱節點上的代理令牌的主key的更新間隔時間為24小時
51
dfs.namenode.delegation.token.max-lifetime
604800000
代理令牌的有效時間最大值為7天
52
dfs.namenode.delegation.token.renew-interval
86400000
代理令牌的更新時間為24小時
53
dfs.datanode.failed.volumes.tolerated      
0      
決定停止數據節點提供服務充許卷的出錯次數。0次則任何卷出錯都要停止數據節點

3.3  mapred-default.xml

序號
參數名
參數值
參數說明
1
hadoop.job.history.location
 
作業跟蹤管理器的靜態歷史文件的存放目錄。
2
hadoop.job.history.user.location
 
可以指定具體某個作業的跟蹤管理器的歷史文件存放目錄
3
mapred.job.tracker.history.completed.location
 
已完成作業的歷史文件的存放目錄
4
io.sort.factor
10         
排完序的文件的合並時的打開文件句柄數
5
io.sort.mb
100        
排序文件的內存緩存大小為100M
6
io.sort.record.percent
0.05      
排序線程阻塞的內存緩存剩余比率
7
io.sort.spill.percent
0.80      
當緩沖占用量為該值時,線程需要將內容先備份到磁盤中。
8
io.map.index.skip
0         
索引條目的間隔設定
9
mapred.job.tracker
local      
作業跟蹤管理器是否和MR任務在一個進程中
10
mapred.job.tracker.http.address
0.0.0.0:50030
作業跟蹤管理器的HTTP服務器訪問端口和地址
11
mapred.job.tracker.handler.count         
10        
作業跟蹤管理器的管理線程數,線程數比例是任務管理跟蹤器數量的0.04
12
mapred.task.tracker.report.address        
127.0.0.1:0
任務管理跟蹤器的主機地址和端口地址
13
mapred.local.dir                          
${hadoop.tmp.dir}/mapred/local
MR的中介數據文件存放目錄
14
mapred.system.dir                        
${hadoop.tmp.dir}/mapred/system
MR的控制文件存放目錄
15
mapreduce.jobtracker.staging.root.dir     
${hadoop.tmp.dir}/mapred/staging
每個正在運行作業文件的存放區
16
mapred.temp.dir                           
${hadoop.tmp.dir}/mapred/temp  
MR臨時共享文件存放區   
17
mapred.local.dir.minspacestart            
0                              
MR本地中介文件刪除時,不充許有任務執行的數量值。
18
mapred.local.dir.minspacekill            
0                              
MR本地中介文件刪除時,除非所有任務都已完成的數量值。
19
mapred.tasktracker.expiry.interval        
600000                        
任務管理跟蹤器不發送心跳的累計時間間隔超過600秒,則任務管理跟蹤器失效
20
mapred.tasktracker.resourcecalculatorplugin
 
指定的一個用戶訪問資源信息的類實例
21
mapred.tasktracker.taskmemorymanager.monitoring-interval
5000   
監控任務管理跟蹤器任務內存使用率的時間間隔
22
mapred.tasktracker.tasks.sleeptime-before-sigkill      
5000   
發出進程終止后,間隔5秒后發出進程消亡信號
23
mapred.map.tasks                                       
2      
每個作業缺省的map任務數為2
24
mapred.reduce.tasks                                    
1      
每個作業缺省的reduce任務數為1
25
mapreduce.tasktracker.outofband.heartbeat              
false  
讓在任務結束后發出一個額外的心跳信號
26
mapreduce.tasktracker.outofband.heartbeat.damper      
1000000
當額外心跳信號發出量太多時,則適當阻止
27
mapred.jobtracker.restart.recover                     
false  
充許任務管理器恢復時采用的方式
28
mapred.jobtracker.job.history.block.size               
3145728
作業歷史文件塊的大小為3M
29
mapreduce.job.split.metainfo.maxsize                  
10000000
分隔元信息文件的最大值是10M以下
30
mapred.jobtracker.taskScheduler                     
org.apache.hadoop.mapred.JobQueueTaskScheduler
設定任務的執行計划實現類
31
mapred.jobtracker.taskScheduler.maxRunningTasksPerJob
 
作業同時運行的任務數的最大值
32
mapred.map.max.attempts                             
4   
Map任務的重試次數
33
mapred.reduce.max.attempts                          
4   
Reduce任務的重試次數
34
mapred.reduce.parallel.copies                        
5   
在復制階段時reduce並行傳送的值。
35
mapreduce.reduce.shuffle.maxfetchfailures           
10   
取map輸出的最大重試次數
36
mapreduce.reduce.shuffle.connect.timeout            
180000
REDUCE任務連接任務管理器獲得map輸出時的總耗時是3分鍾         
37
mapreduce.reduce.shuffle.read.timeout               
180000
REDUCE任務等待map輸出數據的總耗時是3分鍾
38
mapred.task.timeout                                 
600000
如果任務無讀無寫時的時間耗時為10分鍾,將被終止
39
mapred.tasktracker.map.tasks.maximum               
2   
任管管理器可同時運行map任務數為2
40
mapred.tasktracker.reduce.tasks.maximum            
2   
任管管理器可同時運行reduce任務數為2
41
mapred.jobtracker.completeuserjobs.maximum
100   
當用戶的完成作業數達100個后,將其放入作業歷史文件中
42
mapreduce.reduce.input.limit               
-1     
Reduce輸入量的限制。
43
mapred.job.tracker.retiredjobs.cache.size  
1000   
作業狀態為已不在執行的保留在內存中的量為1000
44
mapred.job.tracker.jobhistory.lru.cache.size
5      
作業歷史文件裝載到內存的數量
45
mapred.child.java.opts                     
-Xmx200m
啟動task管理的子進程時的內存設置
46
mapred.child.env                           
 
子進程的參數設置
47
mapred.child.ulimit                        
 
虛擬機所需內存的設定。
48
mapred.cluster.map.memory.mb               
-1     
 
49
mapred.cluster.reduce.memory.mb            
-1     
 
50
mapred.cluster.max.map.memory.mb           
-1     
 
51
mapred.cluster.max.reduce.memory.mb        
-1     
 
52
mapred.job.map.memory.mb                  
-1     
 
53
mapred.job.reduce.memory.mb               
-1     
 
54
mapred.child.tmp                           
/tmp   
Mr任務信息的存放目錄
55
mapred.inmem.merge.threshold               
1000   
內存中的合並文件數設置
56
mapred.job.shuffle.merge.percent           
0.66   
 
57
mapred.job.shuffle.input.buffer.percent   
0.70   
 
58
mapred.job.reduce.input.buffer.percent     
0.0   
 
59
mapred.map.tasks.speculative.execution     
true   
Map任務的多實例並行運行標識
60
mapred.reduce.tasks.speculative.execution  
true   
Reduce任務的多實例並行運行標識
61
mapred.job.reuse.jvm.num.tasks
1           
每虛擬機運行的任務數
62
mapred.min.split.size
0           
Map的輸入數據被分解的塊數設置
63
mapred.jobtracker.maxtasks.per.job
-1         
一個單獨作業的任務數設置
64
mapred.submit.replication
10         
提交作業文件的復制級別
65
mapred.tasktracker.dns.interface
default     
任務管理跟蹤器是否報告IP地址名的開關
66
mapred.tasktracker.dns.nameserver
default     
作業和任務管理跟蹤器之間通訊方式采用的DNS服務的主機名或IP地址
67
tasktracker.http.threads
40         
http服務器的工作線程數量
68
mapred.task.tracker.http.address
0.0.0.0:50060
任務管理跟蹤器的http服務器的地址和端口
69
keep.failed.task.files
false      
失敗任務是否保存到文件中
70
mapred.output.compress
false      
作業的輸出是否壓縮
71
mapred.output.compression.type
RECORD      
作業輸出采用NONE, RECORD or BLOCK三種方式中一種壓縮的寫入到流式文件
72
mapred.output.compression.codec
org.apache.hadoop.io.compress.DefaultCodec
壓縮類的設置
73
mapred.compress.map.output
false                                    
Map的輸出是否壓縮
74
mapred.map.output.compression.codec
org.apache.hadoop.io.compress.DefaultCodec
Map的輸出壓縮的實現類指定
75
map.sort.class
org.apache.hadoop.util.QuickSort         
排序鍵的排序類指定
76
mapred.userlog.limit.kb
0                                       
每個任務的用戶日志文件大小
77
mapred.userlog.retain.hours
24                                       
作業完成后的用戶日志留存時間為24小時
78
mapred.user.jobconf.limit
5242880                                 
Jobconf的大小為5M
79
mapred.hosts
 
可與作業管理跟蹤器連接的主機名
80
mapred.hosts.exclude
 
不可與作業管理跟蹤器連接的主機名
81
mapred.heartbeats.in.second                    
100               
作業管理跟蹤器的每秒中到達的心跳數量為100
82
mapred.max.tracker.blacklists                  
4                  
任務管理跟蹤器的黑名單列表的數量
83
mapred.jobtracker.blacklist.fault-timeout-window
180               
任務管理跟蹤器超時180分鍾則訪任務將被重啟
84
mapred.jobtracker.blacklist.fault-bucket-width
15                 
 
85
mapred.max.tracker.failures                    
4                  
任務管理跟蹤器的失敗任務數設定
86
jobclient.output.filter                        
FAILED            
控制任務的用戶日志輸出到作業端時的過濾方式
87
mapred.job.tracker.persist.jobstatus.active   
false              
是否持久化作業管理跟蹤器的信息
88
mapred.job.tracker.persist.jobstatus.hours     
0                  
持久化作業管理跟蹤器的信息的保存時間
89
mapred.job.tracker.persist.jobstatus.dir      
/jobtracker/jobsInfo
作業管理跟蹤器的信息存放目錄
90
mapreduce.job.complete.cancel.delegation.tokens
true               
恢復時是否變更領牌   
91
mapred.task.profile                           
false              
任務分析信息是否建設標志
92
mapred.task.profile.maps                       
0-2               
設置map任務的分析范圍
93
mapred.task.profile.reduces                    
0-2               
設置reduce任務的分析范圍
94
mapred.line.input.format.linespermap           
1                  
每次切分的行數設置
95
mapred.skip.attempts.to.start.skipping         
2                  
在跳轉模式未被設定的情況下任務的重試次數                                                                                    
96
mapred.skip.map.auto.incr.proc.count           
true               
MapRunner在調用map功能后的增量處理方式設置
97
mapred.skip.reduce.auto.incr.proc.count        
true               
在調用reduce功能后的增量處理方式設置
98
mapred.skip.out.dir                             
 
跳過記錄的輸出目錄
99
mapred.skip.map.max.skip.records               
0                  
 
100
mapred.skip.reduce.max.skip.groups            
0                  
 
101
job.end.retry.attempts                        
0                  
Hadoop償試連接通知器的次數  
102
job.end.retry.interval                        
30000              
通知償試回應的間隔操作為30秒
103
hadoop.rpc.socket.factory.class.JobSubmissionProtocol
 
指定與作業跟蹤管理器的通訊方式,缺省是采用rpc方式
104
mapred.task.cache.levels                           
2     
任務緩存級別設置
105
mapred.queue.names                                 
default
分隔作業隊例的分隔符設定
106
mapred.acls.enabled                                 
false
指定ACL訪問控制列表
107
mapred.queue.default.state                           
RUNNING
定義隊列的狀態
108
mapred.job.queue.name                              
default
已提交作業的隊列設定
109
mapreduce.job.acl-modify-job                        
 
指定可修改作業的ACL列表
110
mapreduce.job.acl-view-job                          
 
指定可瀏臨作業的ACL列表
111
mapred.tasktracker.indexcache.mb                    
10   
任務管理跟蹤器的索引內存的最大容器
112
mapred.combine.recordsBeforeProgress               
10000
在聚合處理時的記錄塊數
113
mapred.merge.recordsBeforeProgress                  
10000
在匯總處理時的記錄塊數
114
mapred.reduce.slowstart.completed.maps              
0.05  
 
115
mapred.task.tracker.task-controller                 
org.apache.hadoop.mapred.DefaultTaskController
任務管理器的設定
116
mapreduce.tasktracker.group                          
 
任務管理器的組成員設定
117
mapred.healthChecker.script.path                    
 
腳本的絕對路徑指定,這些腳本是心跳服務的
118
mapred.healthChecker.interval                       
60000                                       
節點心跳信息的間隔
119
mapred.healthChecker.script.timeout                 
600000                                       
 
120
mapred.healthChecker.script.args                    
 
參數列表
121
mapreduce.job.counters.limit                        
120                                          
作業計數器的最小值


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM