网站建设资讯

NEWS

网站建设资讯

linuxrbd命令 linux deb命令

ceph 块存储rbd的使用,使用普通户创建和挂载rbd

ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool create rbd1-data 32 32

创新互联公司专注于清丰网站建设服务及定制,我们拥有丰富的企业做网站经验。 热诚为您提供清丰营销型网站建设,清丰网站制作、清丰网页设计、清丰网站官网定制、成都小程序开发服务,打造清丰网络公司原创品牌,更为您提供清丰网站排名全网营销落地服务。

pool 'rbd1-data' created

ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool ls

device_health_metrics

mypool

.rgw.root

default.rgw.log

default.rgw.control

default.rgw.meta

myrbd1

cephfs-metadata

cephfs-data

rbd1-data

在存储池启用rbd:

ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool application enable rbd1-data rbd

enabled application 'rbd' on pool 'rbd1-data'

初始化存储池:

ceph@ceph-deploy:~/ceph-cluster$ rbd pool init -p rbd1-data

创建存储池映像文件:

映像文件的管理都是rbd命令来执行,rbd可对映像执行创建,查看,删除,以及创建快照,克隆映像,删除快照,查看快照,快照回滚等管理操作

ceph@ceph-deploy:~/ceph-cluster$ rbd create data-img1 --size 3G --pool rbd1-data --image-format 2 --image-feature layering

ceph@ceph-deploy:~/ceph-cluster$ rbd create data-img2 --size 5G --pool rbd1-data --image-format 2 --image-feature layering

查看存储池映像文件

ceph@ceph-deploy:~/ceph-cluster$ rbd list --pool rbd1-data

data-img1

data-img2

列出映像更多信息

ceph@ceph-deploy:~/ceph-cluster$ rbd list --pool rbd1-data -l

NAME      SIZE  PARENT  FMT  PROT  LOCK

data-img1  3 GiB            2           

data-img2  5 GiB            2

ceph@ceph-deploy:~/ceph-cluster$ rbd --image data-img1 --pool rbd1-data info

rbd image 'data-img1':

size 3 GiB in 768 objects

order 22 (4 MiB objects)

snapshot_count: 0

id: 3ab91c6a62f5

block_name_prefix: rbd_data.3ab91c6a62f5

format: 2

features: layering

op_features:

flags:

create_timestamp: Thu Sep  2 06:48:11 2021

access_timestamp: Thu Sep  2 06:48:11 2021

modify_timestamp: Thu Sep  2 06:48:11 2021

ceph@ceph-deploy:~/ceph-cluster$ rbd --image data-img1 --pool rbd1-data info --format json --pretty-format

{

"name": "data-img1",

"id": "3ab91c6a62f5",

"size": 3221225472,

"objects": 768,

"order": 22,

"object_size": 4194304,

"snapshot_count": 0,

"block_name_prefix": "rbd_data.3ab91c6a62f5",

"format": 2,

"features": [

    "layering"

],

"op_features": [],

"flags": [],

"create_timestamp": "Thu Sep  2 06:48:11 2021",

"access_timestamp": "Thu Sep  2 06:48:11 2021",

"modify_timestamp": "Thu Sep  2 06:48:11 2021"

}

镜像(映像)特性的启用和禁用

特性包括:

layering支持分层快照特性  默认开启

striping条带化

exclusive-lock:支持独占锁  默认开启

object-map 支持对象映射,加速数据导入导出及已用空间特性统计等  默认开启

fast-diff 快速计算对象和快找数据差异对比  默认开启

deep-flatten  支持快照扁平化操作  默认开启

journaling  是否记录日志

开启:

ceph@ceph-deploy:~/ceph-cluster$ rbd feature enable object-map --pool rbd1-data --image data-img1

ceph@ceph-deploy:~/ceph-cluster$ rbd feature enable fast-diff --pool rbd1-data --image data-img1

ceph@ceph-deploy:~/ceph-cluster$ rbd feature enable exclusive-lock --pool rbd1-data --image data-img1

禁止:

ceph@ceph-deploy:~/ceph-cluster$ rbd feature disable object-map --pool rbd1-data --image data-img1

ceph@ceph-deploy:~/ceph-cluster$ rbd feature disable fast-diff --pool rbd1-data --image data-img1

ceph@ceph-deploy:~/ceph-cluster$ rbd feature disable exclusive-lock --pool rbd1-data --image data-img1

客户端使用块设备:

首先要安装ceph-comman,配置授权

[root@ceph-client1 ceph_data]# yum install -y

[root@ceph-client1 ceph_data]# yum install ceph-common -y 

授权,

ceph@ceph-deploy:/etc/ceph$ sudo -i

root@ceph-deploy:~# cd /etc/ceph/           

root@ceph-deploy:/etc/ceph# scp ceph.conf ceph.client.admin.keyring root@192.168.241.21:/etc/ceph

ubuntu系统:

root@ceph-client2:/var/lib/ceph# apt install -y ceph-common

root@ceph-deploy:/etc/ceph# sudo scp ceph.conf ceph.client.admin.keyring ceph@192.168.241.22:/tmp

ceph@192.168.241.22's password:

ceph.conf                                                                                                                  100%  270  117.7KB/s  00:00   

ceph.client.admin.keyring

root@ceph-client2:/var/lib/ceph# cd /etc/ceph/

root@ceph-client2:/etc/ceph# cp /tmp/ceph.c* /etc/ceph/

root@ceph-client2:/etc/ceph# ll /etc/ceph/

total 20

drwxr-xr-x  2 root root 4096 Aug 26 07:58 ./

drwxr-xr-x 84 root root 4096 Aug 26 07:49 ../

-rw-------  1 root root  151 Sep  2 07:24 ceph.client.admin.keyring

-rw-r--r--  1 root root  270 Sep  2 07:24 ceph.conf

-rw-r--r--  1 root root  92 Jul  8 07:17 rbdmap

-rw-------  1 root root    0 Aug 26 07:58 tmpmhFvZ7

客户端映射镜像

root@ceph-client2:/etc/ceph# rbd -p rbd1-data map data-img1

rbd: sysfs write failed

RBD image feature set mismatch. You can disable features unsupported by the kernel with "rbd feature disable rbd1-data/data-img1 object-map fast-diff".

In some cases useful info is found in syslog - try "dmesg | tail".

rbd: map failed: (6) No such device or address

root@ceph-client2:/etc/ceph# rbd feature disable rbd1-data/data-img1 object-map fast-diff

root@ceph-client2:/etc/ceph# rbd -p rbd1-data map data-img1

/dev/rbd0

root@ceph-client2:/etc/ceph# rbd -p rbd1-data map data-img2

格式化块设备admin映射映像文件

查看块设备

root@ceph-client2:/etc/ceph# lsblk

NAME  MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT

sda      8:0    0  20G  0 disk

└─sda1  8:1    0  20G  0 part /

sr0    11:0    1 1024M  0 rom 

rbd0  252:0    0    3G  0 disk

rbd1  252:16  0    5G  0 disk

root@ceph-client2:/etc/ceph# mkfs.ext4 /dev/rbd1

mke2fs 1.44.1 (24-Mar-2018)

Discarding device blocks: done                           

Creating filesystem with 1310720 4k blocks and 327680 inodes

Filesystem UUID: 168b99e6-a3d7-4dc6-9c69-76ce8b42f636

Superblock backups stored on blocks:

32768, 98304, 163840, 229376, 294912, 819200, 884736

Allocating group tables: done                           

Writing inode tables: done                           

Creating journal (16384 blocks): done

Writing superblocks and filesystem accounting information: done

挂在挂设备

root@ceph-client2:/etc/ceph# mkdir /data/data1 -p

root@ceph-client2:/etc/ceph# mount /dev/rbd1 /data/data1/

验证写入数据:

root@ceph-client2:/etc/ceph# cd /data/data1/

root@ceph-client2:/data/data1# cp /var/log/ . -r

root@ceph-client2:/data/data1# ceph df

--- RAW STORAGE ---

CLASS    SIZE    AVAIL    USED  RAW USED  %RAW USED

hdd    220 GiB  213 GiB  7.4 GiB  7.4 GiB      3.37

TOTAL  220 GiB  213 GiB  7.4 GiB  7.4 GiB      3.37

--- POOLS ---

POOL                  ID  PGS  STORED  OBJECTS    USED  %USED  MAX AVAIL

device_health_metrics  1    1      0 B        0      0 B      0    66 GiB

mypool                  2  32  1.2 MiB        1  3.5 MiB      0    66 GiB

.rgw.root              3  32  1.3 KiB        4  48 KiB      0    66 GiB

default.rgw.log        4  32  3.6 KiB      209  408 KiB      0    66 GiB

default.rgw.control    5  32      0 B        8      0 B      0    66 GiB

default.rgw.meta        6    8      0 B        0      0 B      0    66 GiB

myrbd1                  7  64  829 MiB      223  2.4 GiB  1.20    66 GiB

cephfs-metadata        8  32  563 KiB      23  1.7 MiB      0    66 GiB

cephfs-data            9  64  455 MiB      129  1.3 GiB  0.66    66 GiB

rbd1-data              10  32  124 MiB      51  373 MiB  0.18    66 GiB

创建普通用户并授权

root@ceph-deploy:/etc/ceph# ceph auth add client.huahualin mon "allow rw"  osd "allow rwx pool=rbd1-data"

added key for client.huahualin

root@ceph-deploy:/etc/ceph# ceph-authtool --create-keyring ceph.client.huahualin.keyring

creating ceph.client.huahualin.keyring

root@ceph-deploy:/etc/ceph# ceph auth  get client.huahualin -o ceph.client.huahualin.keyring

exported keyring for client.huahualin

使用普通用户创建rbd

root@ceph-deploy:/etc/ceph# scp ceph.conf ceph.client.huahualin.keyring  root@192.168.241.21:/etc/ceph/

普通用户映射镜像

[root@ceph-client1 ~]# rbd --user huahualin --pool rbd1-data map data-img2

/dev/rbd0

使用普通用户挂载rbd

[root@ceph-client1 ~]# mkfs.ext4 /dev/rbd0

[root@ceph-client1 ~]# fdisk -l /dev/rbd0

[root@ceph-client1 ~]# mkdir /data

[root@ceph-client1 ~]# mount  /dev/rbd0 /data

[root@ceph-client1 ~]# df -Th

Filesystem              Type      Size  Used Avail Use% Mounted on

devtmpfs                devtmpfs  475M    0  475M  0% /dev

tmpfs                  tmpfs    487M    0  487M  0% /dev/shm

tmpfs                  tmpfs    487M  7.7M  479M  2% /run

tmpfs                  tmpfs    487M    0  487M  0% /sys/fs/cgroup

/dev/mapper/centos-root xfs        37G  1.7G  36G  5% /

/dev/sda1              xfs      1014M  138M  877M  14% /boot

tmpfs                  tmpfs      98M    0  98M  0% /run/user/0

192.168.241.12:6789:/  ceph      67G  456M  67G  1% /ceph_data

/dev/rbd0              ext4      4.8G  20M  4.6G  1% /data

挂载rbd后会自动加载模块libceph.ko

[root@ceph-client1 ~]# lsmod |grep ceph

ceph                  363016  1

libceph              306750  2 rbd,ceph

dns_resolver          13140  1 libceph

libcrc32c              12644  4 xfs,libceph,nf_nat,nf_conntrack

[root@ceph-client1 ~]# modinfo libceph

filename:      /lib/modules/3.10.0-1160.el7.x86_64/kernel/net/ceph/libceph.ko.xz

license:        GPL

description:    Ceph core library

author:        Patience Warnick patience@newdream.net

author:        Yehuda Sadeh yehuda@hq.newdream.net

author:        Sage Weil sage@newdream.net

retpoline:      Y

rhelversion:    7.9

srcversion:    D4ABB648AE8130ECF90AA3F

depends:        libcrc32c,dns_resolver

intree:        Y

vermagic:      3.10.0-1160.el7.x86_64 SMP mod_unload modversions

signer:        CentOS Linux kernel signing key

sig_key:        E1:FD:B0:E2:A7:E8:61:A1:D1:CA:80:A2:3D:CF:0D:BA:3A:A4:AD:F5

sig_hashalgo:  sha256

如果镜像空间不够用了,我们可以做镜像空间的拉伸,一般不建议减小

查看rdb1-data存储池的镜像

[root@ceph-client1 ~]# rbd ls -p rbd1-data -l

NAME      SIZE  PARENT  FMT  PROT  LOCK

data-img1  3 GiB            2           

data-img2  5 GiB            2 

比如data-img2空间不够了,需要拉伸,将data-img2扩展到8G

[root@ceph-client1 ~]# rbd resize --pool rbd1-data --image data-img2 --size  8G

Resizing image: 100% complete...done.

可以通过fdisk -l查看镜像空间大小,但是通过df -h就看不到

[root@ceph-client1 ~]# lsblk

NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT

sda              8:0    0  40G  0 disk

├─sda1            8:1    0    1G  0 part /boot

└─sda2            8:2    0  39G  0 part

├─centos-root 253:0    0  37G  0 lvm  /

└─centos-swap 253:1    0    2G  0 lvm  [SWAP]

sr0              11:0    1 1024M  0 rom 

rbd0            252:0    0    8G  0 disk /data

[root@ceph-client1 ~]# fdisk -l /dev/rbd0

Disk /dev/rbd0: 8589 MB, 8589934592 bytes, 16777216 sectors

Units = sectors of 1 * 512 = 512 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 4194304 bytes / 4194304 bytes

将挂载设置开机启动

[root@ceph-client1 ~]# vi /etc/rc.d/rc.local

rbd --user huahualin --pool rbd1-data map data-img2

mount /dev/rbd0 /data

[root@ceph-client1 ~]# chmod a+x  /etc/rc.d/rc.local

[root@ceph-client1 ~]# reboot

linux rbd 设备 底层删除了,上层怎么删除

yum remove abc 但是注意了,yum删掉会把很多附带的都删掉,比如绝对不能remove python这样的东西,还有gcc。这些都是系统的底层,你不要可以不用,或者停掉,一般很少去删依赖特别多的服务

rancher2.3.2设置使用ceph的rbd(笔记)

本人算是使用ceph和rancher的小白,最近因为某些原因开始研究rancher以及在rancher中使用ceph,查找了好些资料,发现网上的资料一般是针对比较懂的人看的,或者是旧版本的rancher,对我这种小白来说属于看了一知半解,具体应用又是茫然的。不过好在把各种资料拼凑后,通过实验验证成功了,在这里把自己的笔记写下来供大家参考。

一、前提:安装好rancher与ceph,具体方法网上都能搜到,这里略过,不具体讲了。

二、本次实验版本是rancher2.3.2与ceph( nautilus 14.2.4)

三、1、第一步:密文的建立,这里有个坑,直接通过UI建起的密文,ceph filesystem可以用,但ceph rbd不能用。因为根据官方的说明文档,要使用rbd,密文的类型必须是kubernetes.io/rbd,可是rancher的UI建立密文是没这个选项的,默认是Opaque的,想通过api或yaml改也不成,UI不认。这里必须使用命令的方法来创建:以下为一个例子(key值请换为自己的)。

kubectlcreate secret generic ceph-admin-secret-rbd --from-literal=key=' ' --namespace=default--type=kubernetes.io/rbd

使用命令的入口就是rancher集群仪表盘的“执行kubectl命令行”

建立密文有2点注意:(1)要给使用密文的每一个命名空间建立相应的密文  (2)命令行中ceph-admin-secret是密文的名称,key来源于ceph的/etc/ceph/ceph.client.admin.keyring的KEY原值,K8S里是要求把这个值转化后用,但rancher2.3.2自己会去转化,所以这里直接使用原生值。namespace是命名空间,这个必须事先存在的。type必须是kubernetes.io/rbd

2、第二步,在集群--存储--存储类里添加类,如下图。

3、第三步,建立PVC。到集群-default-工作负载--PVC,

当PVC显示为Bound状态以及出现了大小值,则表示这个PVC建立成功了。同时也可以在ceph上看到相应的images.

这是在ceph上看的。

参考资料:

ceph相关命令

Ceph 存储集群包含两种类型的守护进程:  Ceph 监视器  Ceph OSD 守护进程

RBD是Ceph对外提供的基于块的存储接口

ceph常用命令 

集群状态监控 

ceph -s #显示ceph集群状态

ceph osd tree #显示当前osd树结构 

ceph osd pool ls  显示所有资源池

ceph -w #动态显示ceph当前动态,主要可以观察读写流量 

ceph df #集群的数据用量及其在存储池内的分布情况 

ceph osd df # 查看所有osd使用情况 

ceph osd perf #显示各个osd响应时间,个别响应慢的osd可以考虑踢出集群(慎用) 

设置pool副本数

ceph osd pool get pool-name size #查看pool副本数 

ceph osd pool set pool-name size *** #设置pool副本数 

设置pg和pgp数(一般pg=pgp) 

ceph osd pool get pool-name pg_num #查看pool pg_num

ceph osd pool set pool-name pg_num *** #设置pool pg_num 

ceph osd pool get pool-name pgp_num #查看pool pgp_num 

ceph osd pool set pool-name pgp_num *** #设置pool pgp_num

查看当前ceph配置 ceph --admin-daemon /var/run/ceph/ceph-osd.0.asok config show

rbd常用命令

rbd –p pool-name create rbd-name --size 1G #创建 

rbd –p pool-name list #查看pool下所有块 

rbd –p pool-name info rbd-name #查看块详情 

rbd –p pool-name resize --size *G rbd-name #扩容大小至*G 

rbd –p pool-name resize –size *G rbd-name --allow-shrink #缩容至*G 

rbd –p pool-name rm rbd-name #删除 

快照操作 

rbd –p pool-name snap create rbd-name --snap snap-name #创建快照 

rbd –p pool-name snap ls rbd-name #列出卷的所有快照 

rbd –p pool-name snap rollback rbd-name --snap snap-name #回滚快照 

rbd –p pool-name snap rm rbd-name --snap snap-name #删除快照 

rbd –p pool-name snap protect rbd-name --snap snap-name #保护快照,此时无法删除

rbd –p pool-name snap unprotect rbd-name --snap snap-name #解除保护 

rbd –p pool-name import file-name #导入文件 

krbd使用

rbd –p pool-name create rbd-name --size *G –image-feature layering #创建krbd块

rbd map pool-name/rbd-name #映射到本地 

rbd –p pool-name showmapped #查看映射关系 

rbd unmap pool-name/rbd-name #解除本地映射


网页名称:linuxrbd命令 linux deb命令
网站路径:http://cdweb.net/article/hhgsgg.html