文章目录前言一、准备机器1. 修改各自的主机名为上表对应的hostname2. 修改hosts文件3. 确保联通性(管理节点)二、ceph节点安装1. 安装SSH(所有节点)2. 创建部署 CEPH 的用户(所有节点)1) 在各 Ceph 节点创建新用户2) 确保各 Ceph 节点上新创建的用户都有 sudo 权限3. 允许无密码SSH登录(管理节点)1) 生成 SSH 密钥对2) 把公钥拷贝到
1、搭建方法-ceph-deploy:官方的部署工具 -ceph-ansible:红帽的部署工具 -ceph-chef:利用chef进行自动部署Ceph的工具 -puppet-ceph:puppet的ceph模块2、版本Mimic 13版3、部署前提1.关闭SELinux 2.关闭firewalld,并禁止开机自启 3.禁止开机自启 4.网卡 准备两块,一块公网用于对外
转载 2024-06-12 22:36:16
107阅读
第1章 NFS简介1.1 什么是NFSNFS是Network File System的缩写,中文称为网络文件系统,它的主要功能是通过网络(一个局域网)让不同的主机系统之间可以共享文件或目录,NFS的客户端(一般为应用服务器,例如web)可以通过挂载(mount)的方式将NFS服务器共享的数据目录挂载到NFS客户端本地系统中(就是某一个关在点下),从客户端本地看,NFS服务器端共享目录就好像是客户端
转载 2024-06-18 14:04:20
388阅读
之前介绍了 RBD 的使用方法,有了 RBD,远程磁盘挂载的问题就解决了,但 RBD 的问题是不能多个主机共享一个磁盘,如果有一份数据很多客户端都要读写该怎么办呢?这时 CephFS 作为文件系统存储解决方案就派上用场了。1. CephFS 安装在已经部署好的 Ceph 集群上安装 CephFS 还是比较简单的,首先需要安装 MDS,原因是 CephFS 需要统一的元数据管理,所以
**Ceph存储 SSD(固态)速度块,容量小 SATA(磁盘)速度慢,容量大 vim /usr/lib/systemd/system/ :存放配置文件的地方 存储的类型: DAS :(直连存储,硬盘和电脑直接一根线连起来)中间的线分为:ide线sata线 sas线 NAS :(网络附加存储) Samba ,nfs, ftp 文件系统(#格式化过的) SAN :iscsi 块(#没格式化) SDS
Centos7安装ceph集群ceph的特点及介绍高性能摒弃了传统的集中式存储元数据寻址的方案,采用CRUSH算法,数据分布均衡,并行度高。考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房、机架感知等。能够支持上千个存储节点的规模,支持TB到PB级的数据。高可用性副本数可以灵活控制。支持故障域分隔,数据强一致性。多种故障场景自动进行修复自愈。没有单点故障,自动管理。高可扩展性去中心化
本文主要是对Gregory Farnum关于cephfs caps介绍的简单总结,主要介绍caps的基本设计,更深入的的如lock相关代码没有涉及。 文章目录caps基础基本概念caps种类caps permission种类caps combinationpinAuth、Link、XattrFilecaps管理lockcaps如何变更caps相关告警总结caps代码相关caps数据表示和规则fus
先简单介绍一下NFS服务器是什么?   NFS server可以看作是一个FILE SERVER,它可以让你的PC通过网络将远端得NFS SERVER共享出来的档案MOUNT到自己的系统中,在CLIENT看来使用NFS的远端文件就象是在使用本地文件一样。  RPC(Remote Procedure Call)   NFS本身是没有提供信息传输的协议和功能的,但NFS却能让我们通过网络进行资料的分享
转载 2024-08-15 09:52:00
54阅读
当前ceph版本估计只有octopus是最新最稳也是最好用的Linux系统选择CentOS Stream 8因为他维护到2024年,还是很好用的准备3台机所有搭建在192.168.10.25这台机完成192.168.10.25 192.168.10.26 192.168.10.27静态ip 设置nmcli con add con-name $NetName ifname $NetName auto
转载 2024-08-18 08:10:17
143阅读
准备环境 系统版本:centos7.4 x86_64 server 硬件配置:5台vm,1核1G内存,每台node角色的机器至少挂载1块不低于5个G的空闲盘为osd存储 主机名 ip role admin 192.168.153.130 admi
转载 2024-03-29 09:34:34
59阅读
配置ip、hostname等信息安装二进制软件nfs和rpcbind参考链接: , , https://cloud.tencent.com/developer/article/1721166NFS(Network File System)即网络文件系统,是FreeBSD支持的文件系统中的一种,它允许网络中的计算机之间通过TCP/IP网络共享资源。在NFS的应用中,本地NFS的客户端应用可以透明地
转载 2024-05-02 15:51:43
89阅读
分布式存储ceph技术 目录分布式存储ceph技术分布式存储什么是分布式存储分布式存储的特性存储的分类(不完善)cephceph简介ceph的优势ceph架构ceph的基本组件ceph结构ceph存储种类和应用场景块存储文件存储对象存储ceph对象存储的过程拓展(ceph名词解释) 分布式存储什么是分布式存储分布式存储系统,是通过网络将数据分散存储在多台独立的设备上。分布式存储的特性分布式存储系统
存储分类1.本地文件系统 ntfs(wind)、ext2、ext3、ext4、xfs ext2不带日志,3和4带有日志:文件系统的日志作用(防止机器突然断电):所有的数据在给磁盘存数据之前会先给文件系统的日志里面存一份,防止机器突然断电之后数据没有存完,这样它还可以从日志里面重新将数据拷贝到磁盘。 2.网络文件系统----做远程共享
转载 2024-07-27 14:56:05
139阅读
ceph官方文档地址:https://docs.ceph.com/docs/master/start/intro/一、ceph提供的存储1、块存储      块存储主要是将裸磁盘空间整个映射给主机使用的,或在磁盘阵列上划分逻辑卷映射给给主机使用。2、文件存储      文件存储主要是为了克服块存储中文件服务共享的问题,所以有了文件存储。文
Ceph是一个广泛使用的开源分布式存储系统,它提供了高可用性、高可靠性和容错能力。其中的一种常见用法是结合NFS协议来提供分布式的文件共享服务。 NFS(Network File System)是一种在网络上共享文件系统的协议,它允许一个计算机系统像访问本地文件一样访问远程文件系统。结合CephNFS可以让用户在Ceph存储集群上方便地部署和管理NFS共享服务。 通过在Ceph存储集群上部署
原创 2024-03-15 09:43:19
93阅读
NFSCeph在红帽企业操作系统中的应用 在红帽企业操作系统中,NFS(Network File System)和Ceph是两个关键的技术,它们为用户提供了高效的文件共享和分布式存储解决方案。本文将重点介绍这两个技术的相关特性以及它们在红帽企业操作系统中的应用。 首先,我们来了解一下NFSNFS是一种分布式文件系统协议,它允许不同的计算机通过网络共享文件。NFS是红帽企业操作系统中常用的文
原创 2024-01-31 18:46:09
128阅读
目录简介应用NFS工作流程图NFS部署服务端客户端测试NFS文件同步功能NFS配置详解NFS部分参数案例rw,读写权限 (常用)ro,只读权限 (不常用)root_squash,当NFS客户端以root管理员访问时,映射为NFS服务器的匿名用户 (不常用)no_root_squash,当NFS客户端以root管理员访问时,映射为NFS服务器的root管理员 (不常用)all_squash,无论NF
转载 11月前
77阅读
ceph块存储设备手动部署指导Ceph和GPFS比较GPFS于1993年研发,1995年投入商用,适用于高性能计算和并行处理。之前都是共享存储,从3.5版本开始新增了FPO模式,采用Share Nothing架构,性能好历史悠久,支持AIX、LINUX、windows。CEPH从2010年加入LINUX版本,最初设计的RADOS是为其实现一个高性能的文件系统服务的,后来考虑支持块设备、对象存储,向
转载 2024-03-26 21:56:52
121阅读
理解块存储、文件存储和对象存储的应用场景和选择应用场景分布式存储的应用场景相对于其存储接口,现在流行分为三种:对象存储: 也就是通常意义的键值存储,其接口就是简单的 GET、PUT、DEL 和其他扩展,如七牛、又拍、Swift、S3块存储: 这种接口通常以 QEMU Driver 或者 Kernel Module 的方式存在,这种接口需要实现 Linux 的 Block Device 的接口或者
转载 2024-06-05 21:56:41
92阅读
一、Ceph介绍       Ceph是一个Linux PB级分布式文件系统,能够在维护POSIX兼容性的同时加入了复制和容错功能。Ceph号称高可用的分布式存储系统,通过多个MON节点(通常为3个)维护集群的状态及元数据信息,而真正存储数据的OSD节点通过向MON节点汇报状态,并通过CRUSH算法将数据副本布局到相应OSD
  • 1
  • 2
  • 3
  • 4
  • 5