一、对接包上传失败
1. 页面选择错误
原因:错误地在【自动化中心-高级配置-解决方案配置中心】页面上传。
正确的上传页面为:【自动化中心-高级配置-存储池(V5为对接第三方商业存储)】
2. 无【存储池】选项
现象:【自动化中心-高级配置】页面无【存储池】选项
原因: 平台的license未开启商业存储对接功能,需重新申请环境lic并更新
3. 架构不匹配
制作对接包时cpu架构要与云平台底座的架构一致
4. 下载的对接包不完整
需验证对接包的MD5是否与下载文件MD5一致
5. roller dashboard磁盘空间不足
联系二线运维人远,清理roller dashboard并重新上传
二、无法点击开始加载
1. 环境状态异常
节点中存在离线、维护或者离线状态,或者云环境正在升级或扩容。可在【节点管理】页面查看节点状态并恢复节点,或等待环境升级扩容完成
2. 存在失败的配置包
检查【存储池/对接第三方存储】页面或【解决方案配置中心】页面是否存在加载失败或移除失败的对接包。请先完成失败的对接包加载/移除工作,修正配置包状态。若无法完成失败对接包的加载/移除,请联系商业存储对接接口人(陈超喆:chaozhe.chen@easystack.cn)肖鹏(peng.xiao@easystack.cn)
三、对接包加载失败
1. 未安装依赖云产品
确定环境已经安装【块存储】和【计算服务】云产品
2. 环境状态有异常
检查节点是否全部Ready, pod是否存在异常。如果存在异常节点/pod,请联系L2修复环境后重新加载对接包。
3. 查看对接包加载日志,获取详细失败信息
在后台执行如下命令,获取对接包加载日志:
kubectl logs $(kubectl get po -n openstack|grep busybox|head -n 1|awk '{print $1}'|xargs -L 1) -n openstack|grep octopus
四、创建云硬盘失败
1. 云硬盘类型创建错误
现象:
cinder-volume无相关日志
cinder-scheduler日志中显示被所有后端都被CapabilitiesFilter过滤了:
INFO cinder.scheduler.base_filter [req-124566c-as12-asdc-dasa-f12312ca1] Filter removed all host for the request with volume ID 'c8620d8a-akd1-234f-vad2-a2bzasdfxcqr'. Filter results: AvailabilityZobeFilter: (start: 116, end: 116), CapacityFilter: (116, 115), CapabilitiesFilter: (115, 0)
解决方案:
确定云硬盘类型中volume_backend_name的值是否和对接包制作是填写的后端名称一致
2. 服务状态为Down
现象:
- busybox中查看cinder service down
()[root@busybox-openstack-79d84c8d75-shrxx /]# cinder service-list
+------------------+--------------------------+------------+---------+-------+----------------------------+-----------------+
| Binary | Host | Zone | Status | State | Updated_at | Disabled Reason |
+------------------+--------------------------+------------+---------+-------+----------------------------+-----------------+
| cinder-backup | cinder-volume-worker | default-az | enabled | up | 2021-12-13T07:08:47.000000 | - |
| cinder-scheduler | cinder-volume-worker | default-az | enabled | up | 2021-12-13T07:08:46.000000 | - |
| cinder-volume | cinder-volume-worker@exm | default-az | enabled | down | 2021-12-11T06:26:45.000000 | - |
| cinder-volume | cinder-volume-worker@hdd | default-az | enabled | up | 2021-12-13T07:08:49.000000 | - |
+------------------+--------------------------+------------+---------+-------+----------------------------+-----------------+
- 告警消息页面有告警“集群块存储服务停止服务”
- 日志持续输出not sending heartbeat. Service will appear “down”
2021-04-14 00:10:07.933 156 WARNING cinder.volume.manager [req-9bac6f7f-1cc6-4b4a-adf1-c2ac4d0afd05 - - - - -] Update driver status failed: (config name exm) is uninitialized.
2021-04-14 00:10:17.372 156 ERROR cinder.service [-] Manager for service cinder-volume cinder-volume-worker@exm is reporting problems, not sending heartbeat. Service will appear "down".
2021-04-14 00:10:27.373 156 ERROR cinder.service [-] Manager for service cinder-volume cinder-volume-worker@exm is reporting problems, not sending heartbeat. Service will appear "down".
根本原因
都是表面现象,真正原因是driver初始化失败。
解决方案
3. Driver初始化失败
查看cinder-volume pod日志,搜索关键字“Starting volume driver”,就能找到相关初始化日志信息
因为各个存储厂商的驱动内日志信息基本上都不相同(虽然是输出的信息不一致,但问题基本类似),以下以浪潮存储的日志为例。
- 管理网络不通
cinder-volume所在存储节点与存储设备之间的管理网络不通,类似如下报错,此时需要检查网络或商业存储提供的管理IP是否正确
- 身份验证有误
登录存储验证失败,请检查用户名、密码或 ssh-key。
- 存储池名称错误
报错提示存储池错误或存储池不存在,请在存储侧检查存储池是否存在及存储池名称是否正确。
4. 存储池容量不足
cinder-scheduler中存在日志:
ERROR cinder.scheduler.filter.capacity_filter Insufficient free space for volume creation on host cinder-volume-worker@MS7020G2 (requested / avail): 500/50
注意: 在较新的openstack版本中,该日志级别从ERROR改成了WARNING,例如:
2023-06-13 21:36:50.707 1 WARNING cinder.scheduler.filters.capacity_filter capacity_filter.py:189 [None req-28b18e17-714b-41c7-9a74-64a9b9281b21 ea0ad2c2939b4ecf8fb27421594149f3 66de06887f6b45a4911c7bb2d319ebe2 - - -] Insufficient free space for volume creation on host cinder-volume-worker@alcubierre#alcubierre (requested / avail): 100/0.0
若存在此问题,请联系商业存储侧解决存储池容量问题。
5. 只能创建空云硬盘
现象:
- 能够正常创建空云硬盘
- 无法创建系统盘,报错存在日志“Failed to copy image ** to volume **”
- 无法挂载云硬盘,报错“VolumeNotFound: Volume * could not be found”
原因:
挂载时,存储侧添加了映射,但客户端没有扫到目标盘
根本原因:
FC: 该节点未划分FC-Zone
ISCSI: 该节点与iscsi服务器不通,包括节点ipsan网络与存储业务网络不同,存储iscsi target设置异常等。