加入收藏 | 设为首页 | 会员中心 | 我要投稿 唐山站长网 (https://www.0315zz.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 动态 > 正文

3个生产案例学习Ceph运维技巧

发布时间:2021-03-24 14:51:52 所属栏目:动态 来源:互联网
导读:个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。 Ceph项目最早起源于Sage就读博士期间的工作(最早的成果于2004年发表),并随后贡献给开源社区。在经过了数年的发展之后,目前已得到众多云计算厂商的支持并被广泛应用。 RedHat及OpenS

个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。

Ceph项目最早起源于Sage就读博士期间的工作(最早的成果于2004年发表),并随后贡献给开源社区。在经过了数年的发展之后,目前已得到众多云计算厂商的支持并被广泛应用。

RedHat及OpenStack都可与Ceph整合以支持虚拟机镜像的后端存储。同时Ceph也为Kubernetns提供块,文件,对象存储。

当在各种生产场景中使用Ceph作为网络存储时,我们可能会面临着很多的生产场景。这里有一些案例:

  • 在新集群中部分使用旧的服务器的情况下,将数据迁移到新的Ceph新的实例节点中;
  • 解决Ceph中磁盘空间分配的问题。

为了处理这些问题,我们需要在保持数据完整的同时正确删除OSD。在海量数据的情况下,这一点尤其重要。这就是我们将在本文中介绍的内容。

下述方法适用于各种版本的Ceph (除非特别说明)。另外,我们将考虑到大量数据可以存储在Ceph中这一场景,因此我们将把某些步骤分解成较小的步骤——以防止数据丢失和其他问题。

关于OSD的几句话

由于本文所涉及的三种场景中有两种是与OSD(对象存储守护程序)有关,因此在深入探讨之前,我们先简单讨论一下OSD及其重要性。

首先,应该注意,整个Ceph集群由一组OSD组成。它们越多,Ceph中的可用数据量就越大。因此,OSD的主要目的是跨群集节点存储对象数据,并提供对其的网络访问(用于读取,写入和其他查询)。

通过在不同OSD之间复制对象,可以将复制参数设置为同一级别。这也是您可能会遇到问题的地方(我们将在本文后面提供解决方案)。

案例1:优雅地从Ceph集群中移除OSD

当需要从群集中移除OSD的时候,这很可能是集群硬件变更的需求(例如,将一台服务器替换为另一台服务器)。这也正是我们当前所遇到的场景,同时也是这一实际场景触发我们写了这篇文章。

因此,我们的最终目标是删除服务器上的所有OSD和监视器,以便可以将服务器安全下架。

为了方便起见并避免在执行命令时选择错误的OSD,让我们定义一个单独的变量,其中包含所需OSD的编号。我们将其称为${ID}。从现在开始,此变量将替换我们正在使用的OSD的数量。

(编辑:唐山站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读