专栏电商日志财经减肥爱情
投稿投诉
爱情常识
搭配分娩
减肥两性
孕期塑形
财经教案
论文美文
日志体育
养生学堂
电商科学
头戴业界
专栏星座
用品音乐

分布式存储系统之Ceph集群状态获取及ceph配置文件说明

  今天我们来聊一聊获取ceph集群状态和ceph配置文件说明相关话题;
  Ceph集群状态获取常用命令
  1、cephs:该命令用于输出ceph集群系统状态信息
  提示:cephs主要输出有三类信息,一类是集群相关信息,比如集群id,健康状态;第二类是服务类相关信息,比如集群运行了几个mon节点,几个mgr节点,几个mds,osd和rgw;这些服务都处于什么样的状态等等;我们把这些信息称为集群运行状况,它可以让我们一目了然的了解到集群现有运行状况;第三类信息是数据存储类的信息;比如有多少个存储池,和pg数量;usage用来展示集群使用容量和剩余容量以及总容量;这里需要注意一点,集群显示的总磁盘大小,它不等于可以存储这么多对象数据;因为每一个对象数据都多个副本,所以真正能够存储对象数据的量应该根据副本的数量来计算;默认情况下,我们创建的存储都是副本型存储池,副本数量是3个(其中一个主,两个从),即每一个对象数据都会存储三份,所以真正能够存储对象数据的空间只有总空间的三分之一。
  获取集群的即时状态信息
  2、获取pg的状态
  1hr2hr3hr〔cephadmcephadmincephcluster〕cephpgstat
  304pgs:304activeclean;3。8KiBdata,10GiBused,890GiB900GiBavail
  〔cephadmcephadmincephcluster〕
  3、获取存储池的状态
  1hr2hr3hr4hr5hr6hr7hr8hr9hr10hr11hr12hr13hr14hr15hr16hr17hr18hr19hr20hr21hr22hr23hr24hr25hr26hr〔cephadmcephadmincephcluster〕cephosdpoolstats
  pooltestpoolid1
  nothingisgoingon
  poolrbdpoolid2
  nothingisgoingon
  pool。rgw。rootid3
  nothingisgoingon
  pooldefault。rgw。controlid4
  nothingisgoingon
  pooldefault。rgw。metaid5
  nothingisgoingon
  pooldefault。rgw。logid6
  nothingisgoingon
  poolcephfsmetadatpoolid7
  nothingisgoingon
  poolcephfsdatapoolid8
  nothingisgoingon
  〔cephadmcephadmincephcluster〕
  提示:如果后面没有跟指定的存储表示获取所有存储的状态;
  4、获取存储池大小和空间使用情况
  1hr2hr3hr4hr5hr6hr7hr8hr9hr10hr11hr12hr13hr14hr15hr〔cephadmcephadmincephcluster〕cephdf
  GLOBAL:
  SIZEAVAILRAWUSEDRAWUSED
  900GiB890GiB10GiB1。13
  POOLS:
  NAMEIDUSEDUSEDMAXAVAILOBJECTS
  testpool10B0281GiB0
  rbdpool2389B0281GiB5
  。rgw。root31。1KiB0281GiB4
  default。rgw。control40B0281GiB8
  default。rgw。meta50B0281GiB0
  default。rgw。log60B0281GiB175
  cephfsmetadatpool72。2KiB0281GiB22
  cephfsdatapool80B0281GiB0
  〔cephadmcephadmincephcluster〕
  提示:cephdf输出的内容主要分两大段,第一段是global,全局存储空间用量情况;size表示总空间大小,avail表示剩余空间大小;RAWUSED表示已用到原始存储空间;RAWUSED表示已用原始空间占比重空间的比例;第二段是相关存储空间使用情况;其中MAXAVAIL表示对应存储池能够使用的最大容量;OBJECTS表示该存储池中对象的个数;
  获取存储空间用量详细情况
  1hr2hr3hr4hr5hr6hr7hr8hr9hr10hr11hr12hr13hr14hr15hr〔cephadmcephadmincephcluster〕cephdfdetail
  GLOBAL:
  SIZEAVAILRAWUSEDRAWUSEDOBJECTS
  900GiB890GiB10GiB1。13214
  POOLS:
  NAMEIDQUOTAOBJECTSQUOTABYTESUSEDUSEDMAXAVAILOBJECTSDIRTYREADWRITERAWUSED
  testpool1NANA0B0281GiB002B2B0B
  rbdpool2NANA389B0281GiB5575B19B1。1KiB
  。rgw。root3NANA1。1KiB0281GiB4466B4B3。4KiB
  default。rgw。control4NANA0B0281GiB880B0B0B
  default。rgw。meta5NANA0B0281GiB000B0B0B
  default。rgw。log6NANA0B0281GiB1751757。2KiB4。8KiB0B
  cephfsmetadatpool7NANA2。2KiB0281GiB22220B45B6。7KiB
  cephfsdatapool8NANA0B0281GiB000B0B0B
  〔cephadmcephadmincephcluster〕
  5、检查OSD和MON的状态
  1hr2hr3hr4hr5hr6hr7hr8hr9hr10hr11hr12hr13hr14hr15hr16hr17hr18hr19hr20hr21hr22hr23hr24hr25hr26hr27hr28hr29hr30hr31hr32hr33hr34hr35hr36hr〔cephadmcephadmincephcluster〕cephosdstat
  10osds:10up,10in;epoch:e99
  〔cephadmcephadmincephcluster〕cephosddump
  epoch99
  fsid7fd4a61997674b469cee78b9dfe88f34
  created2022092400:36:13。639715
  modified2022092512:33:15。111283
  flagssortbitwise,recoverydeletes,purgedsnapdirs
  crushversion25
  fullratio0。95
  backfillfullratio0。9
  nearfullratio0。85
  requiremincompatclientjewel
  mincompatclientjewel
  requireosdreleasemimic
  pool1testpoolreplicatedsize3minsize2crushrule0objecthashrjenkinspgnum16pgpnum16lastchange42flagshashpspoolstripewidth0
  pool2rbdpoolreplicatedsize3minsize2crushrule0objecthashrjenkinspgnum64pgpnum64lastchange81flagshashpspool,selfmanagedsnapsstripewidth0applicationrbd
  removedsnaps〔13〕
  pool3。rgw。rootreplicatedsize3minsize2crushrule0objecthashrjenkinspgnum8pgpnum8lastchange84owner18446744073709551615flagshashpspoolstripewidth0applicationrgw
  pool4default。rgw。controlreplicatedsize3minsize2crushrule0objecthashrjenkinspgnum8pgpnum8lastchange87owner18446744073709551615flagshashpspoolstripewidth0applicationrgw
  pool5default。rgw。metareplicatedsize3minsize2crushrule0objecthashrjenkinspgnum8pgpnum8lastchange89owner18446744073709551615flagshashpspoolstripewidth0applicationrgw
  pool6default。rgw。logreplicatedsize3minsize2crushrule0objecthashrjenkinspgnum8pgpnum8lastchange91owner18446744073709551615flagshashpspoolstripewidth0applicationrgw
  pool7cephfsmetadatpoolreplicatedsize3minsize2crushrule0objecthashrjenkinspgnum64pgpnum64lastchange99flagshashpspoolstripewidth0applicationcephfs
  pool8cephfsdatapoolreplicatedsize3minsize2crushrule0objecthashrjenkinspgnum128pgpnum128lastchange99flagshashpspoolstripewidth0applicationcephfs
  maxosd10
  osd。0upinweight1upfrom67upthru96downat66lastcleaninterval〔64,65)192。168。0。71:68021361172。16。30。71:68021361172。16。30。71:68031361192。168。0。71:68031361exists,upbf3649afe3f441a2a5ce8f1a316d344e
  osd。1upinweight1upfrom68upthru96downat66lastcleaninterval〔64,65)192。168。0。71:68001346172。16。30。71:68001346172。16。30。71:68011346192。168。0。71:68011346exists,up7293a12a7b4e4c8682dc0acc15c3349e
  osd。2upinweight1upfrom67upthru96downat66lastcleaninterval〔60,65)192。168。0。72:68001389172。16。30。72:68001389172。16。30。72:68011389192。168。0。72:68011389exists,up96c437c58e824486910f9e98d195e4f9
  osd。3upinweight1upfrom67upthru96downat66lastcleaninterval〔60,65)192。168。0。72:68021406172。16。30。72:68021406172。16。30。72:68031406192。168。0。72:68031406exists,up4659d2a909c749d5bce04d2e65f5198c
  osd。4upinweight1upfrom71upthru96downat68lastcleaninterval〔59,66)192。168。0。73:68021332172。16。30。73:68021332172。16。30。73:68031332192。168。0。73:68031332exists,upde019aa83d2a4079a99eec2da2d4edb9
  osd。5upinweight1upfrom71upthru96downat68lastcleaninterval〔58,66)192。168。0。73:68001333172。16。30。73:68001333172。16。30。73:68011333192。168。0。73:68011333exists,up119c8748af3b4ac4ac746171c90c82cc
  osd。6upinweight1upfrom69upthru96downat68lastcleaninterval〔59,66)192。168。0。74:68001306172。16。30。74:68001306172。16。30。74:68011306192。168。0。74:68011306exists,up08d8dd8bcdfe433883c0b1e2b5c2a799
  osd。7upinweight1upfrom69upthru96downat68lastcleaninterval〔60,65)192。168。0。74:68021301172。16。30。74:68021301172。16。30。74:68031301192。168。0。74:68031301exists,up9de6cbd0bb1b49e9835c3e714a867393
  osd。8upinweight1upfrom73upthru96downat66lastcleaninterval〔59,65)192。168。0。75:68001565172。16。30。75:68001565172。16。30。75:68011565192。168。0。75:68011565exists,up63aaa0b84e524d7482a8fbbe7b48c837
  osd。9upinweight1upfrom73upthru96downat66lastcleaninterval〔59,65)192。168。0。75:68021558172。16。30。75:68021558172。16。30。75:68031558192。168。0。75:68031558exists,up6bf3204ab64c4808a782434a93ac578c
  〔cephadmcephadmincephcluster〕
  除了上述命令来检查osd状态,我们还可以根据OSD在CRUSHMPA中的位置查看osd
  1hr2hr3hr4hr5hr6hr7hr8hr9hr10hr11hr12hr13hr14hr15hr16hr17hr18hr19hr〔cephadmcephadmincephcluster〕cephosdtree
  IDCLASSWEIGHTTYPENAMESTATUSREWEIGHTPRIAFF
  10。87891rootdefault
  90。17578hostcephmgr01
  6hdd0。07809osd。6up1。000001。00000
  7hdd0。09769osd。7up1。000001。00000
  30。17578hostcephmon01
  0hdd0。07809osd。0up1。000001。00000
  1hdd0。09769osd。1up1。000001。00000
  50。17578hostcephmon02
  2hdd0。07809osd。2up1。000001。00000
  3hdd0。09769osd。3up1。000001。00000
  70。17578hostcephmon03
  4hdd0。07809osd。4up1。000001。00000
  5hdd0。09769osd。5up1。000001。00000
  110。17578hostnode01
  8hdd0。07809osd。8up1。000001。00000
  9hdd0。09769osd。9up1。000001。00000
  〔cephadmcephadmincephcluster〕
  提示:从上面的输出信息我们可以看到每台主机上osd编号情况,以及每个OSD的权重;
  检查mon节点状态
  1hr2hr3hr4hr5hr6hr7hr8hr9hr10hr11hr12hr〔cephadmcephadmincephcluster〕cephmonstat
  e3:3monsat{cephmon01192。168。0。71:67890,cephmon02192。168。0。72:67890,cephmon03192。168。0。73:67890},electionepoch18,leader0cephmon01,quorum0,1,2cephmon01,cephmon02,cephmon03
  〔cephadmcephadmincephcluster〕cephmondump
  dumpedmonmapepoch3
  epoch3
  fsid7fd4a61997674b469cee78b9dfe88f34
  lastchanged2022092401:56:24。196075
  created2022092400:36:13。210155
  0:192。168。0。71:67890mon。cephmon01
  1:192。168。0。72:67890mon。cephmon02
  2:192。168。0。73:67890mon。cephmon03
  〔cephadmcephadmincephcluster〕
  提示:上述两条命令都能显示出集群有多少个mon节点,以及对应节点的ip地址和监听端口,以及mon节点编号等信息;cephmonstat除了能显示有多少mon节点和mon的详细信息外,它还显示领导节点的编号,以及选举次数;
  查看仲裁状态
  1hr2hr3hr〔cephadmcephadmincephcluster〕cephquorumstatus
  {electionepoch:18,quorum:〔0,1,2〕,quorumnames:〔cephmon01,cephmon02,cephmon03〕,quorumleadername:cephmon01,monmap:{epoch:3,fsid:7fd4a61997674b469cee78b9dfe88f34,modified:2022092401:56:24。196075,created:2022092400:36:13。210155,features:{persistent:〔kraken,luminous,mimic,osdmapprune〕,optional:〔〕},mons:〔{rank:0,name:cephmon01,addr:192。168。0。71:67890,publicaddr:192。168。0。71:67890},{rank:1,name:cephmon02,addr:192。168。0。72:67890,publicaddr:192。168。0。72:67890},{rank:2,name:cephmon03,addr:192。168。0。73:67890,publicaddr:192。168。0。73:67890}〕}}
  〔cephadmcephadmincephcluster〕
  使用管理套接字查询集群状态
  Ceph的管理套接字接口常用于查询守护进程,套接字默认保存于varrunceph目录,此接口的使用不能以远程方式进程,只能在对应节点上使用;
  命令的使用格式:cephadmindaemonvarruncephsocketname命令;比如获取帮助信息cephadmindaemonvarruncephsocketnamehelp
  1hr2hr3hr4hr5hr6hr7hr8hr9hr10hr11hr12hr13hr14hr15hr16hr17hr18hr19hr20hr21hr22hr23hr24hr25hr26hr27hr28hr29hr30hr31hr32hr33hr34hr35hr36hr37hr38hr39hr40hr41hr42hr43hr44hr45hr46hr47hr48hr49hr50hr51hr52hr53hr54hr55hr56hr57hr58hr59hr60hr61hr62hr〔rootcephmon01〕cephadmindaemonvarruncephcephosd。0。asokhelp
  {
  calcobjectstoredbhistogram:Generatekeyvaluehistogramofkvdb(rocksdb)whichusedbybluestore,
  compact:Commpactobjectstoresomap。WARNING:Compactionprobablyslowsyourrequests,
  configdiff:dumpdiffofcurrentconfiganddefaultconfig,
  configdiffget:dumpdiffget:dumpdiffofcurrentanddefaultconfigsetting,
  configget:configget:gettheconfigvalue,
  confighelp:getconfigsettingschemaanddescriptions,
  configset:configset〔。。。〕:setaconfigvariable,
  configshow:dumpcurrentconfigsettings,
  configunset:configunset:unsetaconfigvariable,
  dumpblacklist:dumpblacklistedclientsandtimes,
  dumpblockedops:showtheblockedopscurrentlyinflight,
  dumphistoricops:showrecentops,
  dumphistoricopsbyduration:showslowestrecentops,sortedbyduration,
  dumphistoricslowops:showslowestrecentops,
  dumpmempools:getmempoolstats,
  dumpobjectstorekvstats:printstatisticsofkvdbwhichusedbybluestore,
  dumpoppqstate:dumpoppriorityqueuestate,
  dumpopsinflight:showtheopscurrentlyinflight,
  dumposdnetwork:Dumposdheartbeatnetworkpingtimes,
  dumppgstatehistory:showrecentstatehistory,
  dumpreservations:showrecoveryreservations,
  dumpscrubs:printscheduledscrubs,
  dumpwatchers:showclientswhichhaveactivewatches,andonwhichobjects,
  flushjournal:flushthejournaltopermanentstore,
  flushstorecache:Flushbluestoreinternalcache,
  getcommanddescriptions:listavailablecommands,
  getheapproperty:getmallocextensionheapproperty,
  getlatestosdmap:forceosdtoupdatethelatestmapfromthemon,
  getmappedpools:dumppoolswhosePG(s)aremappedtothisOSD。,
  getomap:outputentireobjectmap,
  gitversion:getgitsha1,
  heap:showheapusageinfo(availableonlyifcompiledwithtcmalloc),
  help:listavailablecommands,
  injectdataerr:injectdataerrortoanobject,
  injectfull:Injectafulldisk(optionalcounttimes),
  injectmdataerr:injectmetadataerrortoanobject,
  listdevices:listOSDdevices。,
  logdump:dumprecentlogentriestologfile,
  logflush:flushlogentriestologfile,
  logreopen:reopenlogfile,
  objecterrequests:showinprogressosdrequests,
  ops:showtheopscurrentlyinflight,
  perfdump:dumpperfcountersvalue,
  perfhistogramdump:dumpperfhistogramvalues,
  perfhistogramschema:dumpperfhistogramschema,
  perfreset:perfreset:perfresetalloroneperfcountername,
  perfschema:dumpperfcountersschema,
  rmomapkey:removeomapkey,
  setheapproperty:updatemallocextensionheapproperty,
  setrecoverydelay:Delayosdrecoverybyspecifiedseconds,
  setomapheader:setomapheader,
  setomapval:setomapkey,
  smart:probeOSDdevicesforSMARTdata。,
  status:highlevelstatusofOSD,
  triggerdeepscrub:Triggerascheduleddeepscrub,
  triggerscrub:Triggerascheduledscrub,
  truncobj:truncateobjecttolength,
  version:getcephversion
  }
  〔rootcephmon01〕
  比如获取mon01的版本信息
  1hr2hr3hr〔rootcephmon01〕cephadmindaemonvarruncephcephmon。cephmon01。asokversion
  {version:13。2。10,release:mimic,releasetype:stable}
  〔rootcephmon01〕
  获取osd的状态信息
  1hr2hr3hr4hr5hr6hr7hr8hr9hr10hr11hr〔rootcephmon01〕cephadmindaemonvarruncephcephosd。0。asokstatus
  {
  clusterfsid:7fd4a61997674b469cee78b9dfe88f34,
  osdfsid:bf3649afe3f441a2a5ce8f1a316d344e,
  whoami:0,
  state:active,
  oldestmap:1,
  newestmap:114,
  numpgs:83
  }
  〔rootcephmon01〕
  进程的运行时配置
  我们可以使用cephdaemon命令来动态的配置ceph进程,即不停服务动态配置进程;
  比如,获取osd。0的公网地址
  1hr2hr3hr4hr5hr〔rootcephmon01〕cephdaemonosd。0configgetpublicaddr
  {
  publicaddr:192。168。0。71:00
  }
  〔rootcephmon01〕
  获取帮助信息:命令格式:cephdaemon{daemontype}。{id}help
  1hr2hr3hr4hr5hr6hr7hr8hr9hr10hr11hr12hr13hr14hr15hr16hr17hr18hr19hr20hr21hr22hr23hr24hr25hr26hr27hr28hr29hr30hr31hr32hr33hr34hr35hr36hr37hr38hr39hr40hr41hr42hr43hr44hr45hr46hr47hr48hr49hr50hr51hr52hr53hr54hr55hr56hr57hr58hr59hr60hr61hr62hr〔rootcephmon01〕cephdaemonosd。1help
  {
  calcobjectstoredbhistogram:Generatekeyvaluehistogramofkvdb(rocksdb)whichusedbybluestore,
  compact:Commpactobjectstoresomap。WARNING:Compactionprobablyslowsyourrequests,
  configdiff:dumpdiffofcurrentconfiganddefaultconfig,
  configdiffget:dumpdiffget:dumpdiffofcurrentanddefaultconfigsetting,
  configget:configget:gettheconfigvalue,
  confighelp:getconfigsettingschemaanddescriptions,
  configset:configset〔。。。〕:setaconfigvariable,
  configshow:dumpcurrentconfigsettings,
  configunset:configunset:unsetaconfigvariable,
  dumpblacklist:dumpblacklistedclientsandtimes,
  dumpblockedops:showtheblockedopscurrentlyinflight,
  dumphistoricops:showrecentops,
  dumphistoricopsbyduration:showslowestrecentops,sortedbyduration,
  dumphistoricslowops:showslowestrecentops,
  dumpmempools:getmempoolstats,
  dumpobjectstorekvstats:printstatisticsofkvdbwhichusedbybluestore,
  dumpoppqstate:dumpoppriorityqueuestate,
  dumpopsinflight:showtheopscurrentlyinflight,
  dumposdnetwork:Dumposdheartbeatnetworkpingtimes,
  dumppgstatehistory:showrecentstatehistory,
  dumpreservations:showrecoveryreservations,
  dumpscrubs:printscheduledscrubs,
  dumpwatchers:showclientswhichhaveactivewatches,andonwhichobjects,
  flushjournal:flushthejournaltopermanentstore,
  flushstorecache:Flushbluestoreinternalcache,
  getcommanddescriptions:listavailablecommands,
  getheapproperty:getmallocextensionheapproperty,
  getlatestosdmap:forceosdtoupdatethelatestmapfromthemon,
  getmappedpools:dumppoolswhosePG(s)aremappedtothisOSD。,
  getomap:outputentireobjectmap,
  gitversion:getgitsha1,
  heap:showheapusageinfo(availableonlyifcompiledwithtcmalloc),
  help:listavailablecommands,
  injectdataerr:injectdataerrortoanobject,
  injectfull:Injectafulldisk(optionalcounttimes),
  injectmdataerr:injectmetadataerrortoanobject,
  listdevices:listOSDdevices。,
  logdump:dumprecentlogentriestologfile,
  logflush:flushlogentriestologfile,
  logreopen:reopenlogfile,
  objecterrequests:showinprogressosdrequests,
  ops:showtheopscurrentlyinflight,
  perfdump:dumpperfcountersvalue,
  perfhistogramdump:dumpperfhistogramvalues,
  perfhistogramschema:dumpperfhistogramschema,
  perfreset:perfreset:perfresetalloroneperfcountername,
  perfschema:dumpperfcountersschema,
  rmomapkey:removeomapkey,
  setheapproperty:updatemallocextensionheapproperty,
  setrecoverydelay:Delayosdrecoverybyspecifiedseconds,
  setomapheader:setomapheader,
  setomapval:setomapkey,
  smart:probeOSDdevicesforSMARTdata。,
  status:highlevelstatusofOSD,
  triggerdeepscrub:Triggerascheduleddeepscrub,
  triggerscrub:Triggerascheduledscrub,
  truncobj:truncateobjecttolength,
  version:getcephversion
  }
  〔rootcephmon01〕
  提示:cephdaemon获取某个进程的信息时,需要在对应主机上用root执行命令;
  动态设置进程参数有两种方式,一种是通过mon向对应进程发送配置,一种是通过adminsocket发送配置给进程
  通过mon向对应进程发送配置命令格式:cephtell{daemontype}。{daemonidor}injectargs{name}{value}〔{name}{value}〕
  1hr2hr〔cephadmcephadmincephcluster〕cephtellosd。1injectargsdebugosd05
  〔cephadmcephadmincephcluster〕
  提示:这种方式可以在集群任意主机上执行;
  通过adminsocket的方式发送配置命令格式:cephdaemon{daemontype}。{id}set{name}{value}
  1hr2hr3hr4hr5hr〔rootcephmon01〕cephdaemonosd。0configsetdebugosd05
  {
  success:
  }
  〔rootcephmon01〕
  提示:这种方式只能在进程所在主机上执行;
  停止或重启Ceph集群步骤
  停止ceph集群步骤
  1、告知Ceph集群不要将OSD标记为out,命令:cephosdsetnoout
  1hr2hr3hr〔cephadmcephadmincephcluster〕cephosdsetnoout
  nooutisset
  〔cephadmcephadmincephcluster〕
  2、按如下顺序停止守护进程和节点:停止存储客户端网关,如rgw元数据服务器,MDSCephOSDCephManagerCephMonitor;然后关闭对应主机;
  启动ceph集群步骤
  1、以与停止过程相关的顺序启动节点:CephMonitorCephManagerCephOSD元数据服务器,MDS网关,如rgw存储客户端;
  2、删除noout标志,命令cephosdunsetnoout
  1hr2hr3hr〔cephadmcephadmincephcluster〕cephosdunsetnoout
  nooutisunset
  〔cephadmcephadmincephcluster〕
  提示:集群重新启动起来,需要将noout标记取消,以免但真正有osd故障时,能够将osd及时下线,避免将对应存取数据的操作调度到对应osd上进行操作而引发的故障;
  ceph是一个对象存储集群,在生产环境中,如有不慎可能导致不可预估的后果,所以停止和启动顺序都非常重要;上述过程主要是尽量减少丢失数据的几率,但不保证一定不丢数据;
  Ceph配置文件ceph。conf说明
  1hr2hr3hr4hr5hr6hr7hr8hr9hr10hr11hr12hr〔cephadmcephadmincephcluster〕catetccephceph。conf
  〔global〕
  fsid7fd4a61997674b469cee78b9dfe88f34
  moninitialmemberscephmon01
  monhost192。168。0。71
  publicnetwork192。168。0。024
  clusternetwork172。16。30。024
  authclusterrequiredcephx
  authservicerequiredcephx
  authclientrequiredcephx
  〔cephadmcephadmincephcluster〕
  提示:ceph。conf配置文件严格遵守ini配置文件风格的语法和格式;其中井号‘’和冒号‘;’用于注释;ceph。conf主要有〔global〕、〔osd〕、〔mon〕、〔client〕这4个配置段组成;其中global配置段适用于全局配置,即各组件的公共配置;【osd】配置段作用范围是集群所有osd都生效的配置;【mon】作用范围是集群所以mon都生效的配置;【client】作用范围是所有客户端,比如rbd、rgw;
  mon和osd的独有配置段
  上面的【osd】和【mon】配置段都是针对所有osd和mon生效,如果我们只想配置单独某一个osd或mon该怎么配置呢?ceph。conf中我们使用〔type。ID〕来表示某一个osd或mon的配置;比如,我们只想配置osd。0,则我们可以在配置段里写〔osd。0〕来表示该段配置只针对osd。0生效;同样mon也是同样的逻辑,不同于osd的是,mon的ID不是数字;我们可以使用cephmondump来查看mon的ID;
  获取osd的编号
  提示:osd的编号都是数字,从0开始;
  ceph。conf配置段生效优先级
  如果以上公共配置段里的配置和专用配置段的配置重复,则专用配置段覆盖公共配置段里的配置,即专用配置段里的配置生效;配置生效优先级顺序为:【global】小于【osd】、【mon】、【client】;【osd】小于【osd。ID】,【mon】小于【mon。a】;总之配置段作用范围越小,越优先生效;
  ceph配置文件生效优先级
  ceph启动时会按如下顺序查找配置文件
  1、CEPHCONF:该环境变量所指定的配置文件;
  2、cpathpath:命令行使用c选项指定的配置文件路径;
  3、etccephceph。conf:默认配置文件路径
  4、~。cephconfig:当前用户家目录下。cephconfig文件
  5、。ceph。conf:当前用户所在目录下的ceph。conf文件
  配置文件生效顺序是CEPHCONFcpathpathetccephceph。conf~。cephconfig。ceph。conf;
  Ceph配置文件常用的元参数
  ceph配置文件支持用元参数来替换对应配置信息,比如cluster就表示当前Ceph集群的名称;type表示当前服务的类型名称;比如osd、mon;id表示守护进程的标识符,比如以osd。0来说,它的标识符就是0;host表示守护进程所在主机的主机名;name表示当前服务的类型名称和进程标识符的组合;即nametype。id;
  原文链接:https:www。cnblogs。comqiuhom1874p16727820。html

韩信被杀,萧何冷冷地看着他的尸体,说出4个字,被人诟病千年在阅读此文前,诚邀您点击一下关注,既方便您进行讨论与分享,又给您带来不一样的参与感,感谢您的支持。大王要是想争夺天下,除了他无人胜任啊!刘邦听完萧何的话,随后便封了韩信当大将军。韩小米10S升级miui13好用吗?千万别升级,升级后,外放无法听,低音全无,音量小了,系统卡了耗电增加了些,其他还可以,刚升级时微信发不出信息,需要输入法升级到最新版本感觉音质变差了耗电大涨,建议不升不好用不好用,收藏内容太多了手机会怎样,多少天可以删除,怎么删?不会谢谢老师指教玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰玫瑰握手握手鼓掌作揖作揖作揖作揖作揖作揖作揖作揖作揖作揖鼓掌祈祷祈祷祈祷撒花点亮平安胸大的女孩适合穿什么衣服?你好,我是周小鹏,爱我们学院创始人,心理咨询师,专注解决婚恋情感心理问题。不是每个人都能像国际超模一样,同时拥有傲人上围和纤细修长的身材。一般上围丰满的女生,最怕一个不小心被人误认秦始皇陵到底灌溉了多少水银?专家看看附近的石榴树,就知道了过秦始皇墓有言古墓成苍岭,幽宫象紫台。提到中国历史上最为优秀的一个皇帝,或许大家第一时间想到的都是秦始皇。秦始皇凭借着自己的独特才智,成功统一了中原地区,而他所创立的许多制度,也对皇帝暗中将宰相衣服烧了个洞,一年后发现洞还在,下令打开国库两千年前诸葛亮曾有言云静以修身,俭以养德,意在告诫自己的儿子要养成良好的品性。勤俭二字长久以来也被视为是高尚的品德,历史上有关勤俭的故事和典故不胜枚举,许多都流传下来,成为人们教育日军占领大半个中国,为什么打不到重庆?1931年,日本发动了九一八事变,占领了东北,也揭开了日本侵华战争的序幕。七七事变后,日本更是开始全面侵华。无法无天,无恶不作的日本占领了中国大片领土。南京沦陷前,国民政府开始西迁传奇落幕!提出摩尔定律的摩尔,走了中新网3月26日电他留下的遗产改变了这个星球上每个人的生活。人们将永远怀念他。英特尔首席执行官帕特基辛格这样评价摩尔定律的提出者英特尔联合创始人戈登摩尔。英特尔官网发布的戈登摩尔去李大钊黑暗中的播火者北京市东城区五四大街29号,一座用红球的筑红瓦铺顶的工字形建筑战然此立。它历经百年风雨,曾是北京大学文科,校部及图书馆的所在地,被人们称作北大红楼。这里是中国共产主义运动的先驱伟大周杰伦QQ音乐歌迷人数破纪录什么水平?什么水平?用周杰伦的话来说哥就是屌!!刚去看了下QQ音乐周董的粉丝数,已突破3千万大关,达到了惊人的3001万,什么概念呢,我们来对比下就知道有多恐怖了陈奕迅1636。3万林俊杰1有哪些女明星爱喝酒?谢谢你的邀请。娱乐圈爱喝酒的女星,真的有这么一批。这些女星,喝起酒来,豪情万丈,不让须眉娛乐圈有几个不会喝酒的女星?要想在娱乐圈混得风生水起,首先都得会喝酒,不但自己要会喝,还要会
凤凰城下杜兰特缺阵太阳高端局连尝败绩菲尼克斯太阳本周赛果3月9日太阳132101雷霆3月12日太阳119128国王3月14日太阳112123勇士(客场)就在杜兰特复出率队取得三连胜后,太阳再次经历噩耗。北京时间3月9水花兄弟状态出色,一节打懵太阳3月14日NBA常规赛勇士主场迎战太阳的比赛,勇士以123112轻取太阳。汤普森和库里状态出色,首节连续命中三分帮助勇士打出134的梦幻开局。奥科吉3分还以颜色,随后太阳疯狂打铁,巴特勒率领热火险胜爵士,拿下24分8篮板4助攻4抢断吉米巴特勒是美国职业篮球运动员,目前效力于迈阿密热火队。他出生于1990年,身高6英尺7英寸(约201厘米),司职得分后卫和小前锋。巴特勒在2011年NBA选秀中第30顺位被芝加哥字母哥4612仍无缘今日最佳!抱歉,汤普森佛光普照盖过太阳20222023赛季NBA常规赛正在如火如荼的进行中,3月14日比赛结束后,来看下今日赛况以及各队球员数据之最步行者97117不敌活塞步行者队恩沃拉砍下全队最高的20分,安德鲁内姆第二批升级MIUI14机型全部推送,小米10红米note10系列有福了随着MIUI14正式版第一批在今年一月已经推送了,第一批支持的机型是小米12系列,红米k50系列,折叠屏小米MIXFold2,第二批在今年三月已经全部推送,第三批也快了第二批升级M章归隐魅族改姓!吉利能否为魅族20正名?三八节当天,魅族迎来卖身吉利后的最大事件星纪魅族集团正式成立!由李书福得力干将沈子瑜出任集团董事长兼CEO,统抓手机FlymeAuto和XR三大业务条线,成了无争议的新魅族话事人,都2023了,苹果XR值得入手吗?目前,在所有iphone机型中,要说最神奇的一款必须是XR莫属了,无论是作为主力机还是备用机,都是非常值得入手的。优点(1)处理器A12仿生处理器至今性能表现还是仍然很优秀!打任何苹果割韭菜功力大减新配色清库存,开售当天跳水千元钛媒体焦点Apple直营店,钛媒体App拍摄2022年,排名全球第二的苹果拿走了手机市场48的营收和85的利润。这一夸张的数据,证明了苹果在全球市场的地位。只是,过度的自信也让苹果给自己挖了iPhone摊上事,欧盟再出手欧盟又又又对苹果下手iPhone新系列强制换USBC接口的风波刚过苹果独家充电设备可能又被限制今年秋季的iPhone15系列,引人注目的变化之一可能就是更换了USBC接口。不过,此Spotify将停用CarView模式,让驾驶时聆听更轻松您可能还记得Spotify早在2019年就为其Android应用程序推出了一种特殊的CarView模式,具有简化的界面和更大的按钮,以便在旅途中更轻松地操作应用程序。现在CarVi什么是间质干细胞衍生的外泌体外泌体(exosome)是细胞向外分泌出来的小泡泡,许多细胞皆会分泌外泌体至周遭的微环境中,近年研究显示,外泌体扮演着细胞间沟通的角色,甚至会藉由释放至血液循环中来影响远端的细胞或
友情链接:快好找快生活快百科快传网中准网文好找聚热点快软网