原文:ceph報錯"mon.node3 low disk space"

Jewel版cephfs,在磁盤滿過一次后一直報 mon.node low disk space 很奇怪。默認配置磁盤使用率超過 才會報這個。但osd的使用率根本沒這么大。 但是一看 boot目錄已經超過 ,但另外的一個ceph集群 boot也超過 但是沒報錯。 真是奇怪。 查看代碼DataHealthService.cc,於此有關的配置是mon data avail warn 掩耳盜鈴的改法: ...

2021-09-02 18:44 0 104 推薦指數:

查看詳情

ceph mon常用操作

Cluster map 存儲了整個集群的數據的分布以及成員包括mon map ,osd map, pg map,crush map。cluster map不僅存儲在monitor節點,它被復制到集群中的每一個存儲節點,以及和集群交互的client。當因為一些原因,比如設備崩潰、數據遷移 ...

Thu Dec 05 04:50:00 CST 2019 0 1330
Ceph 服務管理之MON服務

部署額外的監視器 一個典型的 Ceph 集群有 3 個或 5 個監控守護進程,它們分布在不同的主機上。如果集群中有五個或更多節點,我們建議部署五個監視器。 隨着集群的增長,Ceph 會自動部署監控守護進程,而隨着集群的縮小,Ceph 會自動縮減監控守護進程。這種自動增長和收縮的順利執行取決於 ...

Fri Mar 04 06:15:00 CST 2022 0 1109
Ceph添加/刪除Monceph.conf)

操作環境 ceph 0.87.7 Openstack liberty ubuntu 14.04 當前ceph配置文件如下 [global]fsid = c010eb34-ccc6-458d-9a03-faccff8991a7mon ...

Wed Nov 22 03:37:00 CST 2017 0 1447
018 Cephmon和osd的刪除和添加

一、OSD管理 1.1 移出故障osd 查看當前節點的osd的id [root@ceph2 ceph]# df -hT 停止故障osd [root@ceph2 ceph]# systemctl stop ceph-osd@0 產看狀態 [root@ceph2 ceph ...

Sat Mar 30 06:32:00 CST 2019 0 1223
Ceph運維】Ceph手動修復mon 集群

目錄 一、背景介紹 二、 解決過程 一、背景介紹 ceph 版本為L版,集群由於異常斷電,導致文件丟失,ceph mon 數據文件store.db/目錄下的sst 文件丟失,所以無法正常啟動。 本集群有三台mon節點,其中有一台mon 節點的服務可以正常 ...

Tue Jan 07 20:18:00 CST 2020 0 1004
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM