内容简介:一前言分布式文件系统(Distributed File System):文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连.分布式文件系统的设计基于C/S模式
一前言
分布式文件系统(Distributed File System):文件系统管理的物理存储资源不一定直接连接在本地节点上,而是通过计算机网络与节点相连.分布式文件系统的设计基于C/S模式
-
1,什么是Ceph?
Ceph:是一个 Linux PB 级分布式文件系统
特点:
具有高扩展,高可用,高性能的特点
可以提供对象存储,块存储,文件存储
可以提供PB级别的存储空间(PB->TB->GB)
帮助文档: http://docs.ceph.org/start/intro
中文文档: http://docs.ceph.org.cn/
Ceph核心组件:
OSD:存储设备(OSD越多性能越好)
Monitor:集群监控组件(取基数,如3,5,7)
MDS:存放文件系统的元数据(对象存储和块存储不需要该组件)
Client:ceph客户端
二搭建块存储
1,实验环境*虚拟机都是rhel7.4,真机centos7
虚拟机:4台
node1,node2,node3既是OSD,也是Mpnitor
真实机:(centos7)或者重新新建一台虚拟机代替真机也可以
2,安装前准备
1)物理机为所有节点配置yum源服务器。
[root@room9pc01 ~]# yum -y install vsftpd [root@room9pc01 ~]# mkdir /var/ftp/ceph [root@room9pc01 ~]# mount -o loop \ rhcs2.0-rhosp9-20161113-x86_64.iso /var/ftp/ceph #此光盘在网盘里 [root@room9pc01 ~]# systemctl restart vsftpd
2)修改所有节点都需要配置YUM源(这里仅以node1为例)。
[root@node1 ceph-cluster]# cat /etc/yum.repos.d/ceph.repo [mon] name=mon baseurl=ftp://192.168.4.254/ceph/rhceph-2.0-rhel-7-x86_64/MON gpgcheck=0 [osd] name=osd baseurl=ftp://192.168.4.254/ceph/rhceph-2.0-rhel-7-x86_64/OSD gpgcheck=0 [tools] name=tools baseurl=ftp://192.168.4.254/ceph/rhceph-2.0-rhel-7-x86_64/Tools gpgcheck=0
3)修改/etc/hosts并同步到所有主机。
警告:/etc/hosts解析的域名必须与本机主机名一致!!!!
[root@node1 ceph-cluster]# vim /etc/hosts ... ... 192.168.4.10 client 192.168.4.11 node1 192.168.4.12 node2 192.168.4.13 node3
警告:/etc/hosts解析的域名必须与本机主机名一致!!!!
[root@node1 ceph-cluster]# for i in 10 11 12 13 > do > scp /etc/hosts 192.168.4.$i:/etc/ > done [root@node1 ceph-cluster]# for i in 10 11 12 13 > do > scp /etc/yum.repos.d/ceph.repo 192.168.4.$i:/etc/yum.repos.d/ > done
3)配置无密码连接(包括自己远程自己也不需要密码)。
[root@node1 ceph-cluster]# ssh-keygen -f /root/.ssh/id_rsa -N '' #生成密钥 [root@node1 ceph-cluster]# for i in 10 11 12 13 #上传密钥到个个主机 > do > ssh-copy-id 192.168.4.$i > done
3,配置NTP时间同步
1)真实物理机创建NTP服务器。
[root@room9pc01 ~]# yum -y install chrony [root@room9pc01~]# cat /etc/chrony.conf server 0.centos.pool.ntp.org iburst allow 192.168.4.0/24 local stratum 10 [root@room9pc01 ~]# systemctl restart chronyd [root@room9pc01 ~]# iptables -F #如果有防火墙规则,需要清空所有规则
2)其他所有节点与NTP服务器同步时间(以node1为例)。
[root@node1 ceph-cluster]# cat /etc/chrony.conf #server 0.rhel.pool.ntp.org iburst #server 1.rhel.pool.ntp.org iburst #server 2.rhel.pool.ntp.org iburst server 192.168.4.254 iburst [root@node1 ceph-cluster]# systemctl restart chronyd #重启服务 [root@node1 ceph-cluster]# systemctl enable chronyd #设置开机自启
4,准备存储磁盘
直接打开虚拟机管理器添加磁盘,node1,node2,node3每台添加三个10G磁盘
5,部署软件
1)在node1安装部署工具,学习 工具 的语法格式。
[root@node1 ~]# yum -y install ceph-deploy [root@node1 ~]# ceph-deploy --help #查看命令格式
2)创建目录
[root@node1 ~]# mkdir ceph-cluster [root@node1 ~]# cd ceph-cluster/
6,部署Ceph集群
1)创建Ceph集群配置。
[root@node1 ceph-cluster]# ceph-deploy new node1 node2 node3
2)给所有节点安装软件包。
[root@node1 ceph-cluster]# ceph-deploy install node1 node2 node3
3)初始化所有节点的mon服务(主机名解析必须对)
[root@node1 ceph-cluster]# vim ceph.conf #文件最后追加以下内容 public_network = 192.168.4.0/24 #避免会出现如下错误加上这一行 [root@node1 ceph-cluster]# ceph-deploy mon create-initial //拷贝配置文件,并启动mon服务
常见错误及解决方法(非必要操作,有错误可以参考):
如果提示如下错误信息:
[node1][ERROR ] admin_socket: exception getting command descriptions: [Error 2] No such file or directory
解决方案如下(在node1操作):
先检查自己的命令是否是在ceph-cluster目录下执行的!!!!如果时确认是在该目录下执行的create-initial命令,依然保存,可以使用如下方式修复。
[root@node1 ceph-cluster]# vim ceph.conf #文件最后追加以下内容 public_network = 192.168.4.0/24
修改后重新推送配置文件:
[root@node1 ceph-cluster]# ceph-deploy --overwrite-conf config push node1 node2 node3
7,创建OSD
1)准备磁盘分区(node1,node2,node3都要做)
[root@node1 ceph-cluster]# parted /dev/vdb mklabel gpt [root@node1 ceph-cluster]# parted /dev/vdb mkpart primary 1M 50% [root@node1 ceph-cluster]# parted /dev/vdb mkpart primary 50% 100% [root@node1 ceph-cluster]# chown ceph.ceph /dev/vdb1 #授权给ceph用户 [root@node1 ceph-cluster]# chown ceph.ceph /dev/vdb2 提示:重启后失效,要想永久有效,1,把命令写入/etc/rc.local文件中,并给文件赋予执行权限;2,用udev写入权限 //这两个分区用来做存储服务器的日志journal盘
2)初始化清空磁盘数据(仅node1操作即可)
[root@node1 ceph-cluster]# ceph-deploy disk zap node1:vdc node1:vdd [root@node1 ceph-cluster]# ceph-deploy disk zap node2:vdc node2:vdd [root@node1 ceph-cluster]# ceph-deploy disk zap node3:vdc node3:vdd 提示:如果已经初始化过了,需要重新清空磁盘数据,就要取(node1,node2,node3)卸载掉
3)创建OSD存储空间(仅node1操作即可)
[root@node1 ceph-cluster]# ceph-deploy osd create node1:vdc:/dev/vdb1 node1:vdd:/dev/vdb2 //创建osd存储设备,vdc为集群提供存储空间,vdb1提供JOURNAL日志, //一个存储设备对应一个日志设备,日志需要SSD,不需要很大 [root@node1 ceph-cluster]# ceph-deploy osd create node2:vdc:/dev/vdb1 node2:vdd:/dev/vdb2 [root@node1 ceph-cluster]# ceph-deploy osd create node3:vdc:/dev/vdb1 node3:vdd:/dev/vdb2
4)常见错误(非必须操作)
使用osd create创建OSD存储空间时,如提示run 'gatherkeys',可以使用如下命令修复: [root@node1 ceph-cluster]# ceph-deploy gatherkeys node1 node2 node3
8,验证测试
1) 查看集群状态
[root@node1 ceph-cluster]# ceph -s cluster d3266b4f-5c8c-44f3-b11e-7a2cafd1f75b health HEALTH_OK #出现ok就成功了,err就失败了,如果出现warning,执行 systemctl restart ceph\*.service ceph\*.target重启服务 monmap e1: 3 mons at {node1=192.168.4.11:6789/0,node2=192.168.4.12:6789/0,node3=192.168.4.13:6789/0} election epoch 6, quorum 0,1,2 node1,node2,node3 osdmap e42: 6 osds: 6 up, 6 in flags sortbitwise pgmap v323: 64 pgs, 1 pools, 88496 kB data, 5147 objects 503 MB used, 119 GB / 119 GB avail 64 active+clean
2)常见错误(非必须操作)
如果查看状态包含如下信息: health: HEALTH_WARN clock skew detected on node2, node3… clock skew表示时间不同步,解决办法:请先将所有主机的时间都使用NTP时间同步!!! 如果状态还是失败,可以尝试执行如下命令,重启ceph服务: [root@node1 ceph-cluster]# systemctl restart ceph\*.service ceph\*.target
9,创建镜像
1)查看存储池。
[root@node1 ceph-cluster]# ceph osd lspools 0 rbd,
2)创建镜像、查看镜像
两种创建镜像(共享硬盘)方式
方式一(没有指明存储池默认rbd) [root@node1 ceph-cluster]# rbd create demo-image --image-feature layering --size 10G 方式二(指明存储池rbd) [root@node1 ceph-cluster]# rbd create rbd/image --image-feature layering --size 10G [root@node1 ceph-cluster]# rbd list #rbd ls也可以查看镜像 demo-image image [root@node1 ceph-cluster]# rbd info demo-image #查看具体某个镜像信息 rbd image 'demo-image': size 10240 MB in 2560 objects order 22 (4096 kB objects) block_name_prefix: rbd_data.d3aa2ae8944a format: 2 features: layering
10,动态调整镜像大小
1)缩小容量
[root@node1 ceph-cluster]# rbd resize --size 7G image --allow-shrink [root@node1 ceph-cluster]# rbd info image
2)扩容容量
[root@node1 ceph-cluster]# rbd resize --size 15G image [root@node1 ceph-cluster]# rbd info image
11,通过KRBD访问
1)集群内将镜像映射为本地磁盘
[root@node1 ceph-cluster]# rbd map demo-image#使用内核将镜像映射到块设备 /dev/rbd0 [root@node1 ceph-cluster]# lsblk … … rbd0 251:0 0 10G 0 disk #此处为加载识别的块设备 [root@node1 ceph-cluster]# mkfs.xfs /dev/rbd0 #格式化 [root@node1 ceph-cluster]# mount /dev/rbd0 /mnt #挂载使用 [root@node1 ceph-cluster]# df -h #查看当前挂载信息
2)客户端通过KRBD访问
#客户端需要安装ceph-common软件包 #拷贝配置文件(否则不知道集群在哪) #拷贝连接密钥(否则无连接权限) [root@client ~]# yum -y install ceph-common [root@client ~]# scp 192.168.4.11:/etc/ceph/ceph.conf /etc/ceph/ #从集群中下载配置文件 [root@client ~]# scp 192.168.4.11:/etc/ceph/ceph.client.admin.keyring \ /etc/ceph/ #从集群中下载密钥 [root@client ~]# rbd map image #使用内核将镜像映射到块设备 [root@client ~]# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sr0 11:0 1 1024M 0 rom vda 252:0 0 20G 0 disk ├─vda1 252:1 0 1G 0 part /boot └─vda2 252:2 0 19G 0 part ├─rhel-root 253:0 0 17G 0 lvm / └─rhel-swap 253:1 0 2G 0 lvm [SWAP] rbd0 251:0 0 15G 0 disk #此处是使用的网络磁盘 [root@client ~]# rbd showmapped #查看使用的网络镜像(磁盘)信息 id pool image snap device 0 rbd image - /dev/rbd0
3) 客户端格式化、挂载分区并使用
[root@client ~]# mkfs.xfs /dev/rbd0 [root@client ~]# mount /dev/rbd0 /mnt/ [root@client ~]# echo "test" > /mnt/test.txt
12,创建镜像快照
磁盘快照(Snapshot)是针对整个磁盘卷册进行快速的档案系统备份,与其它备份方式最主要的不同点在于「速度」。进行磁盘快照时,并不牵涉到任何档案复制动作。就算数据量再大,一般来说,通常可以在一秒之内完成备份动作。
磁盘快照的基本概念与磁带备份等机制有非常大的不同。在建立磁盘快照时,并不需要复制数据本身,它所作的只是通知LX Series NAS服务器将目前有数据的磁盘区块全部保留起来,不被覆写。这个通知动作只需花费极短的时间。接下来的档案修改或任何新增、删除动作,均不会覆写原本数据所在的磁盘区块,而是将修改部分写入其它可用的磁盘区块中。所以可以说,数据复制,或者说数据备份,是在平常档案存取时就做好了,而且对效能影响极低.
1)创建镜像快照
[root@node1 ceph-cluster]# rbd snap create image --snap image-snap1 [root@node1 ceph-cluster]# rbd snap ls image #查看image的快照 SNAPID NAME SIZE 4 image-snap1 15360 MB
2)删除客户端写入的测试文件
[root@client ~]# rm -rf /mnt/test.txt [root@client ~]# umount /mnt 先卸载再去还原快照,不然会报下面错误
3) 还原快照
[root@node1 ceph-cluster]# rbd snap rollback image --snap image-snap1 #客户端重新挂载分区 [root@client ~]# mount /dev/rbd0 /mnt/ [root@client ~]# ls /mnt test.txt 快照还原问题: [root@client ~]# mount /dev/rbd0 /mnt mount: 文件系统类型错误、选项错误、/dev/rbd0 上有坏超级块、 缺少代码页或助手程序,或其他错误 有些情况下在 syslog 中可以找到一些有用信息- 请尝试 dmesg | tail 这样的命令看看 解决办法: 1,先在客户机卸载 2,在node1在还原快照 2,在客户机上挂载
13,创建快照克隆
1)克隆快照
[root@node1 ceph-cluster]# rbd snap protect image --snap image-snap1 #把快照保护起来 [root@node1 ceph-cluster]# rbd snap rm image --snap image-snap1 //会失败 [root@node1 ceph-cluster]# rbd clone image --snap image-snap1 image-clone --image-feature layering #使用image的快照image-snap1克隆一个新的image-clone镜像
2)查看克隆镜像与父镜像快照的关系
[root@node1 ceph-cluster]# rbd info image-clone rbd image 'image-clone': size 15360 MB in 3840 objects order 22 (4096 kB objects) block_name_prefix: rbd_data.d3f53d1b58ba format: 2 features: layering flags: parent: rbd/image@image-snap1 #克隆镜像很多数据都来自于快照链 #如果希望克隆镜像可以独立工作,就需要将父快照中的数据,全部拷贝一份,但比较耗时!!! [root@node1 ceph-cluster]# rbd flatten image-clone #解除与快照的关系 [root@node1 ceph-cluster]# rbd info image-clone rbd image 'image-clone': size 15360 MB in 3840 objects order 22 (4096 kB objects) block_name_prefix: rbd_data.d3f53d1b58ba format: 2 features: layering flags: #注意,父快照信息没了
14,其他操作
1) 客户端撤销磁盘映射
[root@client ~]# umount /mnt [root@client ~]# rbd showmapped id pool image snap device 0 rbd image - /dev/rbd0 [root@client ~]# rbd unmap /dev/rbd/rbd/image #撤销磁盘映射image
2)删除快照与镜像
[root@node1 ceph-deploy]# rbd snap unprotect image --snap image-snap1 #解除保护 [root@node1 ceph-cluster]# rbd snap rm image --snap image-snap1 #删除快照 [root@node1 ceph-cluster]# rbd list [root@node1 ceph-cluster]# rbd rm image
15,块存储应用案例
1)创建磁盘镜像。
[root@node1 ceph-cluster]# rbd create vm1-image --image-feature layering --size 10G [root@node1 ceph-cluster]# rbd create vm2-image --image-feature layering --size 10G [root@node1 ceph-cluster]# rbd list [root@node1 ceph-cluster]# rbd info vm1-image [root@node1 ceph-cluster]# qemu-img info rbd:rbd/vm1-image image: rbd:rbd/vm1-image file format: raw virtual size: 10G (10737418240 bytes) disk size: unavailable
2)Ceph认证账户。
Ceph默认开启用户认证,客户端需要账户才可以访问,
默认账户名称为client.admin,key是账户的密钥,
可以使用ceph auth添加新账户(案例我们使用默认账户)。
[root@node1 ceph-cluster]# cat /etc/ceph/ceph.conf //配置文件 [global] mon_initial_members = node1, node2, node3 mon_host = 192.168.2.10,192.168.2.20,192.168.2.30 auth_cluster_required = cephx //开启认证 auth_service_required = cephx //开启认证 auth_client_required = cephx //开启认证 [root@node1 ceph-cluster]# cat /etc/ceph/ceph.client.admin.keyring //账户文件 [client.admin] key = AQBTsdRapUxBKRAANXtteNUyoEmQHveb75bISg==
3)部署客户端环境。
注意:这里使用真实机当客户端!!!
客户端需要安装ceph-common软件包,拷贝配置文件(否则不知道集群在哪),
拷贝连接密钥(否则无连接权限)。
[root@room9pc01 ~]# yum -y install ceph-common [root@room9pc01 ~]# scp 192.168.4.11:/etc/ceph/ceph.conf /etc/ceph/ #下载ceph配置文件 [root@room9pc01 ~]# scp 192.168.4.11:/etc/ceph/ceph.client.admin.keyring \ /etc/ceph/ #下载ceph密钥
4)创建KVM虚拟机。
使用virt-manager创建1台普通的KVM虚拟机。名称为vm1
5)配置libvirt secret。
编写账户信息文件(真实机操作)
[root@room9pc01 ~]# vim secret.xml //新建临时文件,内容如下 <secret ephemeral='no' private='no'> <usage type='ceph'> <name>client.admin secret</name> </usage> </secret> #使用XML配置文件创建secret [root@room9pc01 ~]# virsh secret-define --file secret.xml 生成 secret c409ec4c-803b-46bc-b4e4-35dc86a08f85 //随机的UUID,这个UUID对应的有账户信息 编写账户信息文件(真实机操作) --获取client.admin的key,或者直接查看密钥文件 方式一: [root@room9pc01 ~]# ceph auth get-key client.admin 方式二: [root@room9pc01 ~]# cat /etc/ceph/ceph.client.admin.keyring [client.admin] key = AQDExOpbE+W9BxAA9QBqQUAY0tFmSmjOWmS8Nw==
--设置secret,添加账户的密钥
[root@room9pc01 ~]# virsh secret-set-value --secret c409ec4c-803b-46bc-b4e4-35dc86a08f85 --base64 AQDExOpbE+W9BxAA9QBqQUAY0tFmSmjOWmS8Nw== //这里secret后面是之前创建的secret的UUID //base64后面是client.admin账户的密码 //现在secret中既有账户信息又有密钥信息 [root@room9pc01 room2018]# virsh secret-list #查看uuid UUID 用量 -------------------------------------------------------------------------------- c409ec4c-803b-46bc-b4e4-35dc86a08f85 ceph client.admin secret
6)虚拟机的XML配置文件。
每个虚拟机都会有一个XML配置文件,包括:
虚拟机的名称、内存、CPU、磁盘、网卡等信息
[root@room9pc01 ~]# vim /etc/libvirt/qemu/vm1.xml //修改前内容如下 <disk type='file' device='disk'> <driver name='qemu' type='qcow2'/> <source file='/var/lib/libvirt/images/vm1.qcow2'/> <target dev='vda' bus='virtio'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0'/> </disk> 不推荐直接使用vim修改配置文件,推荐使用virsh edit修改配置文件,效果如下: [root@room9pc01] virsh edit vm1 //vm1为虚拟机名称 <disk type='network' device='disk'> <driver name='qemu' type='raw'/> <auth username='admin'> <secret type='ceph' uuid='c409ec4c-803b-46bc-b4e4-35dc86a08f85'/> </auth> <source protocol='rbd' name='rbd/vm1-image'> <host name='192.168.4.11' port='6789'/> </source> <target dev='vda' bus='virtio'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0'/> </disk> 提示:保存退出出现"编辑了域 rhel7.4 XML 配置。"说明成功了 源路经:rbd://192.168.4.11:6789/rbd/vm1-image
Ceph块存储总结:
1,Linux可以直接使用
2,Kvm虚拟机使用,修改kvm虚拟机xml配置文件
二Ceph文件系统(MDS)
1,添加一台新的虚拟机,要求如下:
IP地址:192.168.4.14
主机名:node4(部署元数据服务器)
配置yum源(包括rhel、ceph的源)
与真机主机同步时间([root@node1 ceph-deploy]# scp /etc/chrony.conf root@192.168.4.14:/etc/)
node1允许无密码远程node4 命令:ssh-copy-id root@192.168.4.14
[root@node1 ceph-deploy]#vim /etc/hosts #并拷贝到node1-4,client
192.168.4.10 client
192.168.4.11 node1
192.168.4.12 node2
192.168.4.13 node3
192.168.4.14 node4
2,部署元数据服务器
登陆node4,安装ceph-mds软件包 [root@node1 ceph-cluster]yum -y install ceph-mds 登陆node1部署节点操作 [root@node1 ceph-cluster]# cd /root/ceph-cluster #该目录,是最早部署ceph集群时,创建的目录 [root@node1 ceph-cluster]# ceph-deploy mds create node4 #给nod4拷贝配置文件,启动mds服务 [root@node1 ceph-cluster]# ceph-deploy admin node4 #同步配置文件和key
3,创建存储池
[root@node1 ceph-cluster]ceph osd pool create cephfs_data 128 #创建存储池,对应128个PG [root@node1 ceph-cluster]ceph osd pool create cephfs_metadata 128 #创建存储池,对应128个PG
4,创建Ceph文件系统
[root@node1 ceph-cluster]ceph mds stat //查看mds状态 e2:, 1 up:standby [root@node1 ceph-cluster]ceph fs new myfs1 cephfs_metadata cephfs_data new fs with metadata pool 2 and data pool 1 //注意,现在medadata池,再写data池 //默认,只能创建1个文件系统,多余的会报错 [root@node1 ceph-cluster]ceph fs ls name: myfs1, metadata pool: cephfs_metadata, data pools: [cephfs_data ] [root@node1 ceph-cluster]ceph mds stat e4: 1/1/1 up {0=node4=up:creating}
*5,客户端挂载*
[root@client ~]# mount -t ceph 192.168.4.11:6789:/ /mnt/cephfs/ \ -o name=admin,secret=AQBTsdRapUxBKRAANXtteNUyoEmQHveb75bISg== //注意:文件系统类型为ceph //192.168.4.11为MON节点的IP(不是MDS节点) //admin是用户名,secret是密钥 //密钥可以在/etc/ceph/ceph.client.admin.keyring中找到 [root@client ~]# df -h 文件系统 容量 已用 可用 已用% 挂载点 /dev/mapper/rhel-root 17G 5.2G 12G 31% / devtmpfs 481M 0 481M 0% /dev tmpfs 497M 0 497M 0% /dev/shm tmpfs 497M 7.0M 490M 2% /run tmpfs 497M 0 497M 0% /sys/fs/cgroup /dev/vda1 1014M 161M 854M 16% /boot tmpfs 100M 0 100M 0% /run/user/0 192.168.4.11:6789:/ 120G 512M 120G 1% /mnt/cephfs
三创建对象存储服务器(RGW)
1,部署对象存储服务器
1)准备实验环境,要求如下:
IP地址:192.168.4.15
主机名:node5
配置yum源(包括rhel、ceph的源)#参考上面步骤
与真机主机同步时间 参考上面配置ntp步骤
node1允许无密码远程node5命令:[root@node1 ceph-deploy]# ssh-copy-id root@192.168.4.15
修改node1的/etc/hosts,并同步到所有node1-5主机 #参考上面同步脚本
[root@node1 ceph-cluster]# vim /etc/hosts
... ...
192.168.4.10 client
192.168.4.11 node1
192.168.4.12 node2
192.168.4.13 node3
192.168.4.14 node4
192.168.4.15 node5
2)部署RGW软件包
[root@node1 ceph-deploy]# ceph-deploy install --rgw node5 #给node5安装软件包 [root@node1 ceph-deploy]# ceph-deploy admin node5 #同步配置文件与密钥到node5
3)新建网关实例
[root@node1 ceph-deploy]# ceph-deploy rgw create node5 #启动一个rgw服务 [root@node5 ~]# ps aux |grep radosgw #登陆node5验证服务是否启动 ceph 4109 0.2 1.4 2289196 14972 ? Ssl 22:53 0:00 /usr/bin/radosgw -f --cluster ceph --name client.rgw.node4 --setuser ceph --setgroup ceph [root@node5 ~]# systemctl status ceph-radosgw@\*
4)修改服务端口
登陆node5,RGW默认服务端口为7480,修改为8000或80更方便客户端记忆和使用 [root@node5 ~]# vim /etc/ceph/ceph.conf [client.rgw.node5] host = node5 rgw_frontends = "civetweb port=80" //node5为主机名 //civetweb是RGW内置的一个web服务 [root@node5 ~]# systemctl restart ceph-radosgw@rgw.node4.service #重启服务 [root@node4 ~]# ss -tunlp | grep :80 #查看端口80信息 tcp LISTEN 0 128 *:80 *:* users:(("radosgw",pid=5994,fd=30))
2,客户端测试
1)curl测试
[root@client ~]# curl 192.168.4.15:8000 #出现这个就搭建成功了 <?xml version="1.0" encoding="UTF-8"?><ListAllMyBucketsResult xmlns="http://s3.amazonaws.com/doc/2006-03-01/"><Owner><ID>anonymous</ID><DisplayName></DisplayName></Owner><Buckets></Buckets></ListAllMyBucketsResult> 真机访问:
2)使用第三方软件访问
登陆node5(RGW)创建账户
[root@node5 ~]# radosgw-admin user create \ --uid="testuser" --display-name="First User" … … "keys": [ { "user": "testuser", "access_key": "5E42OEGB1M95Y49IBG7B", "secret_key": "i8YtM8cs7QDCK3rTRopb0TTPBFJVXdEryRbeLGK6" } ], ... ... [root@node5 ~]# radosgw-admin user info --uid=testuser //testuser为用户,key是账户访问密钥
3)客户端安装软件
[root@client ~]# yum install s3cmd-2.0.1-1.el7.noarch.rpm 修改软件配置 [root@client ~]# s3cmd –configure Access Key: 5E42OEGB1M95Y49IBG7B Secret Key: i8YtM8cs7QDCK3rTRopb0TTPBFJVXdEryRbeLGK6 S3 Endpoint [s3.amazonaws.com]: 192.168.4.15:8000 [%(bucket)s.s3.amazonaws.com]: %(bucket)s.192.168.4.15:8000 Use HTTPS protocol [Yes]: No Test access with supplied credentials? [Y/n] Y Save settings? [y/N] y //注意,其他提示都默认回车
4)创建存储数据的bucket(类似于存储数据的目录)
[root@client ~]# s3cmd ls [root@client ~]# s3cmd mb s3://my_bucket Bucket 's3://my_bucket/' created [root@client ~]# s3cmd ls 2018-05-09 08:14 s3://my_bucket [root@client ~]# s3cmd put /var/log/messages s3://my_bucket/log/ [root@client ~]# s3cmd ls 2018-05-09 08:14 s3://my_bucket [root@client ~]# s3cmd ls s3://my_bucket DIR s3://my_bucket/log/ [root@client ~]# s3cmd ls s3://my_bucket/log/ 2018-05-09 08:19 309034 s3://my_bucket/log/messages 测试下载功能 [root@client ~]# s3cmd get s3://my_bucket/log/messages /tmp/ 测试删除功能 [root@client ~]# s3cmd del s3://my_bucket/log/messages
以上所述就是小编给大家介绍的《部署Ceph集群--jluocc》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- docker部署rabbitmq集群
- 部署高可用Kubernetes集群
- Eureka使用及集群部署
- 使用Docker部署RabbitMQ集群
- GreenPlum 5.10.0 集群部署
- Kubernetes上部署rabbitmq集群
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
Big Java Late Objects
Horstmann, Cay S. / 2012-2 / 896.00元
The introductory programming course is difficult. Many students fail to succeed or have trouble in the course because they don't understand the material and do not practice programming sufficiently. ......一起来看看 《Big Java Late Objects》 这本书的介绍吧!