MySQL實例crash的案例分析


【作者】

王棟:攜程技術保障中心數據庫專家,對數據庫疑難問題的排查和數據庫自動化智能化運維工具的開發有強烈的興趣。

【問題描述】

我們生產環境有一組集群的多台MySQL服務器(MySQL 5.6.21),不定期的會crash,但error log中只記錄了重啟信息,未記錄crash時的堆棧:

mysqld_safe Number of processes running now: 0
mysqld_safe mysqld restarted

接下來首先排查系統日志/var/log/message文件,crash時沒有其他異常信息,也不是OOM導致的。

【排查思路】

由於日志中未記錄有價值的信息。為定位crash的原因,首先開啟mysql core dump的功能。
下面是開啟core dump的步驟:
1、 在my.cnf文件中增加2個配置項

[mysqld]
core_file
[mysqld_safe]
core-file-size=unlimited

2、修改系統參數,配置suid_dumpable

echo 1 >/proc/sys/fs/suid_dumpable

3、重啟mysql服務,配置生效

【問題分析】

開啟core dump后,服務器再次crash時生成了core file。
用gdb分析生成的core file,可以看到crash時的堆棧信息如下:

從函數table_esms_by_digest::delete_all_rows可以看出觸發crash的是truncate table events_statements_summary_by_digest操作。
我們內部有個DML的分析工具,用來統計數據庫每分鍾增刪改查的訪問量。該工具的數據源是events_statements_summary_by_digest表,采集程序會每一分鍾采集一次這張表的數據,采集完成后執行truncate操作。
暫停這組集群上DML采集程序后MySQL沒有再發生crash。

進一步分析多個core file,發現最終函數的調用都發生在_lf_pinbox_real_free函數上。
結合現場環境,有兩處地方值得分析:

1、 內存的不正常值。當打印該變量時,此處變量的地址偏低,不太正常:

(gdb) p pins->pinbox
$2 = (LF_PINBOX *) 0x1367208

2、紅字部分為pfs逐條釋放digest記錄的操作,正在釋放某行數據時出現錯誤:

void reset_esms_by_digest()
{
  uint index;
  if (statements_digest_stat_array == NULL)
    return;
  PFS_thread *thread= PFS_thread::get_current_thread();
  if (unlikely(thread == NULL))
    return;
  for (index= 0; index < digest_max; index++)
  {
    statements_digest_stat_array[index].reset_index(thread);
    statements_digest_stat_array[index].reset_data();
  }
  digest_index= 1;
}

猜測有兩種可能導致錯誤:
1、高並發下,對內存訪問出現沖突;
2、某個特殊SQL導致,在處理hash時。

在網上搜索類似的問題,有了進一步的進展,基本確定了這個問題是bug導致

如下Mysql的bug report中講述了類似問題
https://bugs.mysql.com/bug.php?id=73979
更詳細的環境描述如下連接中
https://bugs.launchpad.net/percona-server/+bug/1351148

查到5.6.35上的bug fix的修復內容,和我們碰到的情況非常類似。
對比_lf_pinbox_real_free的修改,該部分確實進行很大的調整。

下面是MySQL 5.6.35函數_lf_pinbox_real_free的代碼片段:


static void _lf_pinbox_real_free(LF_PINS *pins)
{
  LF_PINBOX *pinbox= pins->pinbox;
  struct st_match_and_save_arg arg = {pins, pinbox, pins->purgatory};
  pins->purgatory= NULL;
  pins->purgatory_count= 0;
  lf_dynarray_iterate(&pinbox->pinarray,
                      (lf_dynarray_func)match_and_save, &arg);
  if (arg.old_purgatory)
  {
    void *last= arg.old_purgatory;
    while (pnext_node(pinbox, last))
      last= pnext_node(pinbox, last);
    pinbox->free_func(arg.old_purgatory, last, pinbox->free_func_arg);
  }
}

下面是MySQL 5.6.21函數的_lf_pinbox_real_free的代碼片段


static void _lf_pinbox_real_free(LF_PINS *pins)
{
  int npins;
  void *list;
  void **addr= NULL;
  void *first= NULL, *last= NULL;
  LF_PINBOX *pinbox= pins->pinbox;
  npins= pinbox->pins_in_array+1;
  if (pins->stack_ends_here != NULL)
  {
    int alloca_size= sizeof(void *)*LF_PINBOX_PINS*npins;
    if (available_stack_size(&pinbox, *pins->stack_ends_here) > alloca_size)
    {
      struct st_harvester hv;
      addr= (void **) alloca(alloca_size);
      hv.granary= addr;
      hv.npins= npins;
      _lf_dynarray_iterate(&pinbox->pinarray,
                           (lf_dynarray_func)harvest_pins, &hv);
      npins= hv.granary-addr;
      if (npins)
        qsort(addr, npins, sizeof(void *), (qsort_cmp)ptr_cmp);
    }
  }

同時觀察到出問題的集群有指標異常,QPS不到6000,Threads_connected將近8000。(對比其他高並發的集群,QPS在20000以上,Threads_connected也只有300左右)。

排查應用端的連接方式,了解到其中一個應用有近百台應用服務器,可能同時發起請求,卻沒有合理的復用連接,維持大量的連接線程增大了bug觸發的概率。

Bugs Fixed的描述如下:

Miscalculation of memory requirements for qsort operations could result in stack overflow errors in situations with a large number of concurrent server connections. (Bug #73979, Bug #19678930, Bug #23224078)

【解決思路】

我們通過分析crash時的core file文件,找到crash時的觸發條件,暫停DML采集程序(truncate table events_statements_summary_by_digest操作)后恢復。
后面了解到這是MySQL的一個bug,在MySQL 5.6.35版本后已修復。這個bug在應用端與數據庫建立大量的連接時,更容易觸發。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM