一個導致JVM物理內存消耗大的Bug


概述

最近我們公司在幫一個客戶查一個JVM的問題(JDK1.8.0_191-b12),發現一個系統老是被OS Kill掉,是內存泄露導致的。在查的過程中,陰差陽錯地發現了JVM另外的一個Bug。這個Bug可能會導致大量物理內存被使用,我們已經反饋給了社區,並得到快速反饋,預計在OpenJDK8最新版中發布(JDK11中也存在這個問題)。
image.png

PS:用戶的那個問題最終也解決了,定位下來算是C2的一個設計缺陷導致大量內存被使用,安全性上沒有得到保障。

找出消耗大內存的線程

接下來主要分享下這個BUG的發現過程,先要客戶實時跟蹤進程的情況,當內存使用明顯上升的時候,通過/proc/<pid>/smaps,看到了不少64MB的內存分配,Rss也基本消耗完了。

7fd690000000-7fd693f23000 rw-p 00000000 00:00 0 
Size:              64652 kB
Rss:               64652 kB
Pss:               64652 kB
Shared_Clean:          0 kB
Shared_Dirty:          0 kB
Private_Clean:         0 kB
Private_Dirty:     64652 kB
Referenced:        64652 kB
Anonymous:         64652 kB
AnonHugePages:         0 kB
Swap:                  0 kB
KernelPageSize:        4 kB
MMUPageSize:           4 kB
Locked:                0 kB
VmFlags: rd wr mr mw me nr sd 
7fd693f23000-7fd694000000 ---p 00000000 00:00 0 
Size:                884 kB
Rss:                   0 kB
Pss:                   0 kB
Shared_Clean:          0 kB
Shared_Dirty:          0 kB
Private_Clean:         0 kB
Private_Dirty:         0 kB
Referenced:            0 kB
Anonymous:             0 kB
AnonHugePages:         0 kB
Swap:                  0 kB
KernelPageSize:        4 kB
MMUPageSize:           4 kB
Locked:                0 kB
VmFlags: mr mw me nr sd 

再通過strace命令跟蹤了下系統調用,再回到上面的虛擬地址,我們找到了相關的mmap系統調用

[pid    71] 13:34:41.982589 mmap(0x7fd690000000, 67108864, PROT_NONE, MAP_PRIVATE|MAP_ANONYMOUS|MAP_NORESERVE, -1, 0) = 0x7fd690000000 <0.000107>
執行mmap的線程是71號線程,接着通過jstack把線程dump出來,找到了對應的線程其實是C2 CompilerThread0
"C2 CompilerThread0" #39 daemon prio=9 os_prio=0 tid=0x00007fd8acebb000 nid=0x47 runnable [0x0000000000000000]
   java.lang.Thread.State: RUNNABLE

最后再grep了一下strace的輸出,果然看到這個線程在大量的進行內存分配,總共有2G多。

經典的64M問題

對於64M的問題,是一個非常經典的問題,在JVM中並沒有這種大量分配64M大小的邏輯,因此可以排除JVM特定意義的分配。這其實是glibc里針對malloc函數分配內存的一種機制,glibc從2.10開始提供的一種機制,為了分配內存更加高效,glibc提供了arena的機制,默認情況下在64位下每一個arena的大小是64M,下面是64M的計算邏輯,其中sizeof(long)為8

define DEFAULT_MMAP_THRESHOLD_MAX (4 * 1024 * 1024 * sizeof(long))
define HEAP_MAX_SIZE (2 * DEFAULT_MMAP_THRESHOLD_MAX)

p2 = (char *) MMAP (aligned_heap_area, HEAP_MAX_SIZE, PROT_NONE,
                          MAP_NORESERVE);

一個進程最多能分配的arena個數在64位下是8 * core,32位下是2 * core個

#define NARENAS_FROM_NCORES(n) ((n) * (sizeof (long) == 4 ? 2 : 8))

 {
              int n = __get_nprocs ();

              if (n >= 1)
                narenas_limit = NARENAS_FROM_NCORES (n);
              else
                /* We have no information about the system.  Assume two
                   cores.  */
                narenas_limit = NARENAS_FROM_NCORES (2);
            }

這種分配機制的好處,主要是應對多線程的環境,為每個核留有幾個64M的緩存塊,這樣線程在分配內存的時候因為沒有鎖而變得更高效,如果達到上限了就會去慢速的main_arena里分配了。

可以通過設置環境變量MALLOC_ARENA_MAX來設置64M塊的個數,當我們設置為1的時候就會發現這些64M的內存塊都沒有了,然后都集中分配到一個大區域了,也就是main_arena,說明這個參數生效了。

無意的發現

再回過來思考為什么C2線程會出現大於2G的內存消耗的時候,無意中跟蹤C2這塊代碼發現了如下代碼可能會導致大量內存消耗,這個代碼的位置是nmethod.cpp的nmethod::metadata_do方法,不過這塊如果真的發生的話,肯定不是看到C2的線程大量分配,而是看到VMThread這個線程,因為下面這塊代碼主要是它執行的。

void nmethod::metadata_do(void f(Metadata*)) {
  address low_boundary = verified_entry_point();
  if (is_not_entrant()) {
    low_boundary += NativeJump::instruction_size;
    // %%% Note:  On SPARC we patch only a 4-byte trap, not a full NativeJump.
    // (See comment above.)
  }
  {
    // Visit all immediate references that are embedded in the instruction stream.
    RelocIterator iter(this, low_boundary);
    while (iter.next()) {
      if (iter.type() == relocInfo::metadata_type ) {
        metadata_Relocation* r = iter.metadata_reloc();
        // In this metadata, we must only follow those metadatas directly embedded in
        // the code.  Other metadatas (oop_index>0) are seen as part of
        // the metadata section below.
        assert(1 == (r->metadata_is_immediate()) +
               (r->metadata_addr() >= metadata_begin() && r->metadata_addr() < metadata_end()),
               “metadata must be found in exactly one place”);
        if (r->metadata_is_immediate() && r->metadata_value() != NULL) {
          Metadata* md = r->metadata_value();
          if (md != _method) f(md);
        }
      } else if (iter.type() == relocInfo::virtual_call_type) {
        // Check compiledIC holders associated with this nmethod
        CompiledIC *ic = CompiledIC_at(&iter);
        if (ic->is_icholder_call()) {
          CompiledICHolder* cichk = ic->cached_icholder();
          f(cichk->holder_metadata());
          f(cichk->holder_klass());
        } else {
          Metadata* ic_oop = ic->cached_metadata();
          if (ic_oop != NULL) {
            f(ic_oop);
          }
        }
      }
    }
  }


inline CompiledIC* CompiledIC_at(RelocIterator* reloc_iter) {
  assert(reloc_iter->type() == relocInfo::virtual_call_type ||
      reloc_iter->type() == relocInfo::opt_virtual_call_type, "wrong reloc. info");
  CompiledIC* c_ic = new CompiledIC(reloc_iter);
  c_ic->verify();
  return c_ic;
}

注意上面的CompiledIC *ic = CompiledIC_at(&iter);這段代碼,因為CompiledIC是一個ResourceObj,這種資源會在c heap里分配(malloc),不過他們是和線程進行關聯的,假如我們在某處代碼聲明了ResourceMark,那當執行到這里的時候會標記當前的位置,再接下來線程要分配內存的時候如果線程關聯的內存不夠用,就會malloc一塊插進去並被管理起來,否則會實現內存的復用。當ResourceMark析構函數執行的時候,會將之前的位置還原,后面這個線程如果要分配內存又會從這個位置開始復用內存塊。注意這里說的內存塊和上面的64M內存塊不是一個概念。

因為這段代碼在while循環里,因此存在非常多次數的重復調用,這樣明明在執行完一次之后可以復用內存的地方並不能復用,而可能會導致大量的內存被不斷分配。表現起來可能就是物理內存消耗很大,遠大於Xmx。

這個修復辦法也很簡單,就是在CompiledIC *ic = CompiledIC_at(&iter);前加上ResourceMark rm;即可。

這個問題主要發生的場景是針對頻繁大量做Class Retransform或者Class Redefine的場景。所以如果系統里有這種agent的時候還是要稍微注意下這個問題。

這個問題發現后我們給社區提了patch,不過后面發現再JDK12中其實已經修復了,但是在之前的版本里的都沒有修復,這個問題提交給社區后,有人很快響應了,並可能在OpenJDK1.8.0-212中被fix。

最后在這里也簡單提下客戶那邊的那個問題,之所以C2線程消耗太大,最主要的原因是存在非常大的方法需要編譯,而這個編譯的過程是需要大量的內存消耗的,正因為如此,才會導致內存突然暴增,所以給大家一個建議,方法不要寫太大啦,如果這個方法調用還很頻繁,那真的會很悲劇的。

 

推薦閱讀:

PerfMa KO 系列之 JVM 參數【Memory篇】

不改一行代碼定位線上性能問題


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM