Inspur AS13000-M2 ユーザーマニュアル

タイプ
ユーザーマニュアル
Page1
尊敬的浪潮存储系统用户
衷心感谢您选用了浪潮存储系统!
本手册介绍了浪潮存储系统的技术特性与系统的安装、设置和使用,有助
于您更详细地了解和便捷地使用本款存储系统。
请将我方产品的包装物交废品收购站回收利用,以利于污染预防,造福人
类。
浪潮电子信息产业股份有限公司拥有本手册的版权。
未经浪潮电子信息产业股份有限公司许可,任何单位和个人不得以任何形
式复制本用户手册。浪潮电子信息产业股份有限公司保留随时修改本手册的权
利。
本手册中的内容如有变动恕不另行通知。
如果您对本手册有疑问或建议,请向浪潮电子信息产业股份有限公司垂
询。
浪潮电子信息产业股份有限公司
2015 7
“浪潮”、“Inspur”是浪潮集团的注册商标
IntelXeon Intel 公司的注册商标。
其他商标分别属于其相应的注册公司
Page2
在您正式使用本存储系统之前,请您先阅读以下声明。只有您阅读了以下声明并且同意
以下各条款后方可正式开始使用本存储系统如果您对以下条款有任何疑问,请和您的
货商联系或直接与我们联系。如您未向我们就以下条款提出疑问并开始使用本系统,则是默
认您已经同意了以下各条款。
1、我们提醒您特别注意:在任何时候,除了我们提示您可以修改的参数以外,您不要
修改本存储系统主板 BIOS 中的任何其他参数。
2、在您使用的存储系统出现任何硬件故障或您希望对硬件进行任何升级时,请您将机
器的详细硬件配置反映给我们的客户服务中心您不要自行拆卸存储系统机箱及机箱内任
硬件设备。
3本存储系统的内存、CPUCPU 散热片风扇、盘托架、硬盘等都是特殊规格的,
请您不要将它们和任何其他型号机器的相应设备混用。
4、您在使用存储系统过程中遇到的任何软件问题,我们希望您首先和相应软件的提供
商联系,由他和我们联系,以方便我们沟通、共同解决您遇到的问题。对于如数据库、网络
管理软件或其他网络产品等的安装、运行问题,我们尤其希望您能够这样处理。
5、如果上架安装本存储系统,请先仔细阅读相关产品手册中的快速安装指南。浪潮致
力于产品功能和性能的持续提升,这可能导致部分功能及操作与手册描述有所差异但不会
影响使用,如果您有任何使用疑难问题,请与我们的客户服务中心联系。
6我们特别提醒您:在使用过程中,注意对您的数据进行必要的备份。
7此为 A级产品在生活环境中,该产品可能会造成无线电干扰在这种情况下,可
能需要用户对其干扰采取切实可行的措施。
8、请仔细阅读并遵守本手册的安全细则。
9、本手册中涉及的各软、硬件产品的标识、名称版权归产品的相应公司拥有。
10、以上声明中,“我们”指代浪潮电子信息产业股份有限公司;浪潮电子信息产业股
份有限公司拥有对以上声明的最终解释权。
Page3
安全细则
1、本系统中的电源设备可能会产生高电压和危险电能,从而导致人身伤害。请勿自
卸下主机盖,拆装、更换系统内部的任何组件,除非另外得到浪潮的通知,否则只有经过浪
潮培训的维修技术人员才有权拆开主机盖及拆装、更换内部组件。
2、请将设备连接到适当的电源,仅可使用额定输入标签上指明的外部电源类型为设备
供电,为保护您的设备免受电压瞬间升高或降低所导致的损坏请使用相关的稳压设备或不
间断电源设备。
3、如果必须使用延长电缆,请使用配有正确接地插头的三芯电缆,并查看延长电缆的
额定值,确保插入延长电缆的所有产品的额定电流总和不超过延长电缆额定电流限制的百分
之八十。
4、请务必使用随机配备的供电组件如电源线、电源插座(如果随机配备)等,为了设
备及使用者的安全,不要随意更换电源电缆或插头。
5、为防止系统漏电造成电击危险,务必将系统和外围设备的电源电缆插入已正确接地
的电源插座。请将 3芯电源线插头插入接地良好、伸手可及的 3芯交流电源插座中,务必使
用电源线的接地插脚,不要使用转接插头或拔下电缆的接地插脚在未安装接地导线及不确
定是否已有适当接地保护的情况下,请勿操作使用本设备,可与电工联系咨询。
6、切勿将任何物体塞入系统的开孔处。如果塞入物体,可能会导致内部组件短路而引
起火灾或电击。
7、请将系统置于远离散热片和有热源的地方,切勿堵塞通风孔。
8、切勿让食物或液体散落在系统内部或其它组件上,不要在高潮湿、高灰尘的环境中
使用产品。
9、用错误型号的电池更换会有爆炸危险,需要更换电池时,请先向制造商咨询并使用
制造商推荐型号相同或相近的电池切勿拆开、挤压、刺戳电池或使其外部接点短路,不要
将其丢入火中或水中,也不要暴露在温度超过 60 氏度的环境中,请勿尝试打开或维修
池,务必合理处置用完的电池,不要将用完的电池及可能包含电池的电路板及其它组件与其
它废品放在一起,有关电池回收请与当地废品回收处理机构联系。
Page4
目录
.................................................................................................................................................. 2
安全细则 .................................................................................................................................................. 3
第一章 系统介绍 .................................................................................................................................. 5
1.1 系统特点 ............................................................................................................................. 5
1.2 系统优势 ............................................................................................................................. 6
1.3 应用领域 ............................................................................................................................. 7
第二章 系统配置 .................................................................................................................................... 8
2.1 时间管理 ............................................................................................................................. 8
2.2 文件系统 ............................................................................................................................. 9
2.3 日志管理 ........................................................................................................................... 10
2.4 客户端挂载 ....................................................................................................................... 12
2.5 目录配额 ........................................................................................................................... 13
2.6 NAS 接入 .......................................................................................................................... 13
2.7 监控管理界 ................................................................................................................... 18
第三章 硬件介绍 .................................................................................................................................. 38
3.1 硬件规格 ........................................................................................................................... 38
3.2 硬件介绍 ........................................................................................................................... 38
3.2.1 机箱前后视图 ..................................................................................................... 39
3.2.2 机箱前控制板 ..................................................................................................... 39
3.2.3 硬盘 ..................................................................................................................... 40
3.2.4 I/0 接口 .............................................................................................................. 41
第四章 常见故障及诊断排 .............................................................................................................. 42
4.1 常见故障 ........................................................................................................................... 42
第一章
系统介
浪潮集群存储系
AS13000-M2
是一款高度模块化,面向中高端存储应用需求的存储平
台,它具有高可靠性高可扩展性、高性能以及简洁易用的管理界面,可以满足高性能计算、
数据库、网站、文件服务、流媒体、文件备份等领域的应用。
1.1
系统特点
1.1.1
异构兼容性
系统支持多种业界标准传输协议,包
NFSCIFS
HTTP
,提供对
Windows
LinuxUNIX
等所有主流操作系统的兼容性支持,并保证不同平台和操作系统数据视图的一致
性,这极大的简化了用户的管理和维护操作使用户无需再关心复杂的存储连接、访问权
限设计。
1.1.2
高性能
优化的网络传输协议保证系统取得高带宽利用率及线性性能增长。
系统的各个数据节点通过
InfiniBand/10GbE
网络互连,采用标准的
TCP/IP
网络传输协
议,实现端到端的吞吐性能提升,QDR IB
网络环境下吞吐量可达
1GB/s
系统的分布式架构确保标准存储节点和元数据节点无瓶颈,文件多节点并发访问。
1.1.3
可扩展性
系统具备灵活的扩展能力可很好应对增长型企业业务持续增长带来的数据和性能的增
长。主要从下面两方面进行扩展:
1)系统存储容量可扩展
系统可在线将存储单元数据扩充至
256
台以上,最大容量达到
64PB。数据存储节点支
SSDSAS
SATA
等目前主流磁盘,单盘容量可达
4TB
2)系统
IO
带宽可扩展
系统可以通过扩展数据节点,为大量的用户提供并发服务,通过数据节点的在线扩展可
以有效的提高系
IO
带宽。系统性能可随集群数据节点数量增加成线形增长,可以在线平
滑、快速地扩展集群节点来提高系统的性能同时也支持单个数据节点的硬件升级扩展CPU
内存),不同层面来提升整个集群系统的整体处理能力。
每个数据节点配置一个
QDR IB
主机接口,单数据节点可提供
GB
以上吞吐带宽。随着系
统中节点的增加,性能呈线性增长可达数
GB
吞吐带宽,满足成千上万客户端并发访
问需求。
1.1.4
可用性和高可靠性
集群系统所有节点均处于工作状态任务被平均的分配到各个节点上;当一台节点发生
故障,任务被自动平滑的分配到其他节点上。在无故障时可用性为
100%;即使有一台节
发生故障,可用性仍为
N-1/N
系统从硬件和软件两个方面进行高可用设计,从而保证系统全
7*24
小时无间断运行
Page5
Page6
关键数据不丢失
1)硬件全冗余设计,整个存储系统中没有任何单点故障,任何部件都可以热更换,
保存储系统 7*24 连续运行。
2) 数据节点间采用机架感知的技术,同一副本不会存放于不同的机架上,当一个数据
节点或机柜因故障不能正常工作时,不会丢失数据,从而保证整个文件系统运行的连续性,
不影响主机业务运行。
3) 数据节点支持多副本存储数据,可以实现数据及时快速恢复,支持不同副本跨机架
存储,有效避免某一机架故障或掉电引起数据丢失,提高数据可靠性。同时支持针对目录颗
粒度的副本策略
1.1.5 可维护性和易用性
系统的控制界面采用了友好的全中Web 显示方式;管理员不需经过长期专业培训,
仅几个小时就可以熟练掌握系统的操作流程提供对存储系统状态监控、事件管理存储系
统故障 Email 报警机制。
支持性能、容量负载均衡;
图形化性能及状态监控;
灵活的故障告警监控机制,提供邮件、日志等告警方式;
支持系统离线方式整体升级、在线滚动升级;
1.2 系统优势
1.2.1 先进的系统架构设计
完全对等的横向可扩展集群架构;
支持异构形式的存储资源;
基于硬件性能的动态数据平衡;
1.2.2 高可靠,高可用性·
支持多副本存储数据,可以实现数据及时快速恢复;
支持不同副本跨机架存储,有效避免某一机架故障或掉电引起数据丢失,提高数据
可靠性;
支持针对目录颗粒度的副本策略;
系统全冗余,无单点故障;
控制器之间采用高可用配置。当元数据控制器出现故障时,可以自动切换到备用元
数据控制器。任何一个控制器出现故障,不影响数据的正常访问;
监控集群通过特定协议进行相互之间的协调,保证整个监控集群就目前整个集群的
Page7
状态达成一致,避免了由于集群中节点对于集群状态的认知不一致而导致的数据异
常现象;
1.2.3
高性能、高扩展
分布式架构确保标准存储节点和元数据节点无瓶颈,文件多节点并发访问;
元数据的缓存机制。引入租约机制,客户端具备了元数据缓存能力,避免了每次元
数据请求都需要与元数据服务器进行通讯,较大幅度提高系统的性能;
支持基于容量的负载均衡,根据容量进行数据迁移,保持系统容量均衡;
支持在线同时增加单个或多个数据节点,系统容量将随之增加
支持在线每次缩减单个数据节点,系统容量将随之减少;
支持在系统增加或删除节点时,容量自动均衡,实现系统弹性高效扩展,实现真正
的在线扩容;
系统支持
64PB
以上的存储容量,整体支持十亿级的文件数量,单目录可以有效支
持千万级的文件数量。
1.2.4
多协议支持
支持
SMBNFSCIFSFTP
多种协议;
1.2.5
便捷管理
实时监控系统运行状态,
全方位的故障诊断机制,极大的降低管理难度
采用副本机制保证数据冗余,降低使用阵列的成本与管理复杂度。
1.3
应用领域
AS13000-M2
的高性能、高扩展、大容量数据存储是其显著特点通过强大的数据处
能力,AS13000-M2
在保证数据存储性能表现的基础上,利用自身创新型的体系架构,最大
可扩展至
PB
级的数据存储容量,这对诸如航空航天、动漫渲染、地质勘探、高性能计算
行业应用客户能够充分满足其数据剧增的存储容量需求解决客户不断增长的存储支出的
难题。
数据密集型领域:互联网、教育、数字图书馆、档案等
高性能计算领域:石油、勘探、地震、高能物理、空间信息处理等
数字媒体领域:视频点播、网络直播、数字电视等
Page8
第二章 系统配置
本部分共包含 6个方面详细的介绍的配置和使用系统的所有步骤通过认真阅读本章
节,管理员将能够熟练操作使用文件系统。
2.1 时间管理
本章介绍关于集群系统时间的管理设置。
2.1.1 关键术语
Ntpd linux 统中常用的一个时间服务,通过配ntpd 服务可以方便的构造本地时
间服务器,并对整个集群进行时间同步。
时间同步是指将整个集群中的所有节(包括客户端)进行时钟同步,所有节点的时间
保持一致(误差不能大于 0.05sec)。
2.1.2 配置时间同步客户端
设置完时间同步服务器以后,在集群的其余所有节点上,同时也需要启动 ntpd 服务
为时间同步客户端,并定时与时间同步服务器端进行时间同步
时间同步客户端/etc/ntp.conf 中需要将 server 设置为时间同步服务器的 IP 地址,时间
同步客户端的/etc/ntp.conf server 的配置如下
server server_ip
修改/etc/ntp/step-tickers 文件,加入服务IP 地址
[root@icfs_node_1 ~]# cat /etc/ntp/step-tickers
12.0.3.6 //时间同步服务器的 IP 地址
启动 ntpd 服务
[root@icfs_node_1 ~]# service ntpd restart
注:集群在启动之前所有节点的时间必须一致(误差小于 0.05S且在文件系统运行过
程中,禁止修改节点时间。
2.1.3 时间同步检
ntpd 服务启动以后,ntpd 服务会每隔 64 秒向时间服务器同步一次时间,可通date
ntpq -p 命令查看时间是否同步。若时间无法同步,可执行以下操作:
[root@icfs_node_5 ~]# service ntpd stop //首先关闭 ntpd 服务
Shutting down ntpd: [ OK ]
[root@icfs_node_5 ~]#ntpdate 12.0.3.6 //手动同步时间,12.0.3.6”为时
间服务器 IP 且开启ntpd 服务
[root@icfs_node_5 ~]#service ntpd start //重启 ntpd 服务
Starting ntpd: [ OK ]
注:如执行以上操作后,间仍未同步,需再次执行上述操作,重复多次执行ntpdate
12.0.3.6”命令。
Page9
2.2 文件系统
2.2.1 关键术语
监控节点负责监控和保存整个集群的状态,记录系统中产生的日志,向外提供客户端
的挂载。
元数据节点负责元数据操作。由于元数据存放于 osd 集群中,所以 mds 实际上是 osd
的客户端之一。
存储节点负责数据文件和元数据文件的存储,提供对象访问接口以及副本、故障恢
等功能。
2.2.2 文件系统操
集群系统操作包含对集群的操作和接口节点的配置。其中,集群的操作包含集群文件系
统初始化、启动、关闭、状态检查等操作接口节点操作包含接口节点多协议的配置、对应
的客户端相关配置以及 NFS 的配置。下面将详细讲述对应的操作命令。
1)系统启动
集群文件系统启动操作用于启动整个集群文件系统。
[root@icfs_node_0 ~]# service icfs a -c /etc/icfs/icfs.conf start
在该命令中,-a 表示集群中所有节点都执行启动操作,-c 表示启动集群需要加载的配置
文件。
2)系统关闭
集群文件系统关闭操作用于关闭整个集群文件系统。
[root@icfs_node_0 ~]# service icfs -a stop
注意
该命令将关闭整个集群,存储服务将不可用。
3)系统重启
集群文件系统重启操作用于对整个集群文件系统进行重启。
[root@icfs_node_0 ~]# service icfs -a restart
注意
该命令将重新启动整个集群,存储服务将暂时不可用。
4)状态检查
集群文件系统状态检查操作用于查看整个集群系统的运行状态
[root@icfs_node_0 ~]# icfs s
Page10
该命令会打印集群系统的状态,包含系统的健康状况以及系统的核心数据状态。
5)故障修复
当集群发生故障时,可以参考如下步骤进行修复:
查看整个集群系统的运行状态。
[root@icfs_node_0 ~]# icfs s
该命令打印当前系统的状态如下:
在大部分情况下,可以使用下面命令进行修复,如要修复 mon.2 节点,可执行以下命
令:
[root@icfs_node_0 ~]# service icfs -a restart mon.2
2.3 日志管理
2.3.1 关键术语
日志是指集群文件系统中在 mon 节点生成的文件系统运行状态日志,可以从该日志查
看当前系统运行状态,系统出现的异常,以及各个节点的状态信息。
2.3.2 日志管理操
1)日志存放位置
集群日志存放mon.0(主 mon节点的/var/log/icfs/目录下,集群整体目录存放在文件
icfs.log 中,其余的各个节点的日志信息都存放于以其角色命名的文件中后缀名统一为.log
例如:mon.0.log
集群日志每天将会被打包,并存放在当前目录下。如下所示
[root@icfs_node_0 icfs]# ll
total 3960
-rw-r--r-- 1 root root 0 Aug 12 03:28 client.admin.log
-rw-r--r-- 1 root root 20 Aug 7 03:31 client.admin.log-20130807.gz
-rw-r--r-- 1 root root 237 Aug 8 03:15 client.admin.log-20130808.gz
-rw-r--r-- 1 root root 1240 Aug 9 03:34 client.admin.log-20130809
-rw-r--r-- 1 root root 166 Aug 10 03:19 client.admin.log-20130810.gz
-rw-r--r-- 1 root root 20 Aug 11 03:31 client.admin.log-20130811.gz
-rw-r--r-- 1 root root 20 Aug 12 03:28 client.admin.log-20130812.gz
-rw------- 1 root root 34701 Aug 12 15:01 icfs.log
-rw------- 1 root root 1269830 Aug 9 03:34 icfs.log-20130809.gz
-rw------- 1 root root 113807 Aug 10 03:19 icfs.log-20130810.gz
-rw------- 1 root root 95068 Aug 11 03:31 icfs.log-20130811.gz
Page11
-rw------- 1 root root 96312 Aug 12 03:28 icfs.log-20130812.gz
-rw-r--r-- 1 root root 0 Aug 12 03:28 mds.0.log
-rw-r--r-- 1 root root 20 Aug 7 03:31 mds.0.log-20130807.gz
-rw-r--r-- 1 root root 20 Aug 8 03:15 mds.0.log-20130808.gz
-rw-r--r-- 1 root root 0 Aug 9 03:34 mds.0.log-20130809
-rw-r--r-- 1 root root 20 Aug 10 03:19 mds.0.log-20130810.gz
-rw-r--r-- 1 root root 20 Aug 11 03:31 mds.0.log-20130811.gz
-rw-r--r-- 1 root root 20 Aug 12 03:28 mds.0.log-20130812.gz
-rw-r--r-- 1 root root 0 Aug 12 03:28 mds.1.log
-rw-r--r-- 1 root root 20 Aug 9 03:34 mds.1.log-20130809.gz
-rw-r--r-- 1 root root 20 Aug 10 03:19 mds.1.log-20130810.gz
-rw-r--r-- 1 root root 20 Aug 11 03:31 mds.1.log-20130811.gz
-rw-r--r-- 1 root root 20 Aug 12 03:28 mds.1.log-20130812.gz
-rw-r--r-- 1 root root 131538 Aug 12 15:05 mon.0.log
-rw-r--r-- 1 root root 20 Aug 7 03:31 mon.0.log-20130807.gz
-rw-r--r-- 1 root root 15963 Aug 8 03:15 mon.0.log-20130808.gz
-rw-r--r-- 1 root root 317585 Aug 9 03:34 mon.0.log-20130809.gz
-rw-r--r-- 1 root root 69608 Aug 10 03:19 mon.0.log-20130810.gz
-rw-r--r-- 1 root root 37036 Aug 11 03:31 mon.0.log-20130811.gz
-rw-r--r-- 1 root root 37503 Aug 12 03:28 mon.0.log-20130812.gz
-rw-r--r-- 1 root root 0 Aug 12 03:28 mon.1.log
-rw-r--r-- 1 root root 157 Aug 9 03:34 mon.1.log-20130809.gz
-rw-r--r-- 1 root root 20 Aug 10 03:19 mon.1.log-20130810.gz
-rw-r--r-- 1 root root 20 Aug 11 03:31 mon.1.log-20130811.gz
-rw-r--r-- 1 root root 20 Aug 12 03:28 mon.1.log-20130812.gz
-rw-r--r-- 1 root root 0 Aug 12 03:28 mon.2.log
-rw-r--r-- 1 root root 158 Aug 9 03:34 mon.2.log-20130809.gz
-rw-r--r-- 1 root root 20 Aug 10 03:19 mon.2.log-20130810.gz
-rw-r--r-- 1 root root 20 Aug 11 03:31 mon.2.log-20130811.gz
-rw-r--r-- 1 root root 20 Aug 12 03:28 mon.2.log-20130812.gz
-rw-r--r-- 1 root root 65254 Aug 12 15:06 osd.0.log
-rw-r--r-- 1 root root 20 Aug 7 03:31 osd.0.log-20130807.gz
-rw-r--r-- 1 root root 7456 Aug 8 03:15 osd.0.log-20130808.gz
-rw-r--r-- 1 root root 246283 Aug 9 03:34 osd.0.log-20130809.gz
-rw-r--r-- 1 root root 13005 Aug 10 03:19 osd.0.log-20130810.gz
2)日志级别设置
在系统运行过程中,当系统某一部分出现问题时,我们一般会打开日志记录看系统
的运行信息。记录详细日志需要消耗系统的资源所以在集群的某一部分出现问题时,只需
对该部分开启记录详细日志功能。例如,集群中的 mds 运行正常,osd 运行不正常只需
要打开 osd 模块的详细日志记录功能。
在查看单节点日志的过程中,有时我们只需要看简单的日志记录即可,不需要看详细的
日志记录,就可以定位到问题,然后我们可以设定该节点日志级别来进行查看。命令格式如
Page12
下:
icfs {daemon-type} tell {daemon id or *} injectargs '--{name} {value} [--{name} {value}]’
例如,当对 osd.0 调整日志级别为 5时,其中,日志级别分为 1-20,20 为最详细级别。
命令如下
[root@icfs_node_0 icfs]# icfs tell osd.0 injectargs '--debug-osd 5'
3)系统日志查看
查看系统日志或节点日志可以用 tail 命令和 more 命令查看,如下所示
[root@icfs_node_0 icfs]# more mon.0.log
2013-08-12 03:28:33.995040 7fbe0c97f700 0 mon.0@0(leader).data_health(40)
update_stats avail 88% total 100791728 used 68
24936 avail 88846792
2013-08-12 03:29:33.995222 7fbe0c97f700 0 mon.0@0(leader).data_health(40)
update_stats avail 88% total 100791728 used 68
24800 avail 88846928
2013-08-12 03:30:33.995398 7fbe0c97f700 0 mon.0@0(leader).data_health(40)
update_stats avail 88% total 100791728 used 68
24812 avail 88846916
2013-08-12 03:31:33.995606 7fbe0c97f700 0 mon.0@0(leader).data_health(40)
update_stats avail 88% total 100791728 used 68
24812 avail 88846916
2.4 客户端挂载
本章节介绍客户端挂载的相关概念和相关操作
2.4.1 关键术语
运行状态文件系统状态检查健康状况正常
挂载状态文件系统在指定客户端是否挂载
挂载目录文件系统在客户端的挂载目录,/mnt/data在此目录下挂载文件系统后,
可以通过此目录查看文件系统的内容
2.4.2 客户端挂载操作
1)Linux 客户端挂载
NFS 服务器端配置完成,可以在 Linux 客户端进行挂载。
[root@client1 ~]# mount -t nfs 10.53.11.118:/mnt/icfs /mnt/nfs
使用 df 命令查看挂载情况。
[root@client1 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
Page13
/dev/sdn1 193G 31G 152G 17% /
tmpfs 16G 0 16G 0% /dev/shm
10.53.11.118:/ 33T 2.7T 31T 9% /mnt/nfs
2)Fuse 客户端挂载
用户态客户端的使用步骤如下:
将集群的配置文icfs.conf 复制到客户/etc/icfs/目录下。
在确保客户端有配置文件时,执行以下挂载命令挂载集群系统,挂载命令格式为:
[root@client1 ~]#icfs-fuse /mount_point
例如,挂载点为/mnt/icfs,则
[root@client1 ~]# icfs-fuse /mnt/icfs
卸载
[root@client1 ~]# umount /mount_point
例如,挂载点为/mnt/icfs,那么卸载执行如下指令,
[root@client1 ~]# umount /mnt/icfs
如果需要将 fuse 挂载设置为开机挂载,请参考下面的指令
[root@client1 ~]# echo "icfs-fuse /mount_point" >> /etc/rc.d/rc.local
2.5 目录配额
设置目录配额:
[root@client ~]#setfattr -n icfs.quota.max_Gbytes -v 100 /mnt/icfs/d1
目前 icfs 系统配额功能支持目录容量配额 max_Gbytes(单位:GB,如果该值设为 0
表示没有设置配额功能
获取配额值:
[root@client ~]#getfattr -n icfs.quota.max_Gbytes /mnt/icfs/d1
2.6 NAS 接入
1)CIFS 共享
在集群配置完 samba 后,就可以在 windows 客户端上的进行访问 icfs 系统操作。具
体操作如下:
假定 samba 服务器端对外提供访问 icfs 系统的 ip 地址为 10.53.11.118,在 windows
“运行”对话框中输入\\10.53.11.118
Page14
2.1
目录界面如下所示:
2.2
2NFS 共享
NFS 是网络文件系统(Network File System)的缩写,是分布式计算系统的一个组成部分
可实现在异种网络上共享和装配远程文件系统其最大的功能就是可以通过网络,让不同操
作系统的计算机可以共享数据,NFS 可以将远程主机上的文件系统挂载到本地系统中,从而
可以像使用本地文件系统中的文件一样使用那些远程文件系统中的文件。
Page15
客户端开启 NFS 服务之后,建立本地挂载目录 nfsclient,然后通mount 令挂载共
享目录到本地,例如客户端 ip 地址为 10.53.11.118共享目录为/mnt/icfs那么挂载命令为:
[root@client ~]mount t nfs 10.53.11.118:/mnt/icfs nfsclient
3FTP 共享
在客户端地址栏输入 ftp://ip 地址,就可以访问了。
4HTTP 共享
两种方式可以直接登录操作,分别Windows 映射网络驱动器、IE 浏览器,其中映射
网络驱动器模式仅支持 Win7 及以上 Windows 版本,IE 浏览器支持 Windows server 2003
以上版本.如有文件上传功能需求,需使用客户端映射网络驱动器实现。
注意
windows 资源管理器对 office 件( docxexcel 等)的支持上,因涉及不同 office
版本和不同用户权限管理,可能导致直接访问或修改不便。
建议用户采用浏览器方式读访问,采用资源管理器方式写访问。
写访问中的修改操作,应采用先下载到本地,修改后上传的方式。
1、映射网络驱动器模式需要修改注册表。下面以 win7 为例说明:
在“开始”搜索程序和文件框内输入regedit,确定。查找到
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\WebClient\Parameters
BasicAuthLevel 值改成 2即同时支持 http https(默认只支https然后重启服
务(win7 cmd 上右键选择以管理员权限运行),键入:
net stop webclient
net start webclient
2、上一节中接口节点 ip 地址为 10.71.14.100,端口号采用默认 80(默认端口不用写)
如果共享根目录下有子目录 test1dir test2dir,配testuser1 用户只有共享目录下 test1dir
的权限,下面win7 为例说明在这种配置情况下两种登陆方式:
映射网络驱动器的方式:testuser1 户登录可以看到共享根目录下全部子目录,但是
没有 test2dir 操作权限。即打开 test2dir 为空
Page16
2.3
2.4
Page17
2.5
web 界面登录的方式:用 testuser1 用户登录只能看到 testuser1 身有权限的目录
2.6
Page18
2.7
2.7 监控管理界面
AS13000-M2 监控管理为 AS13000-M2 集群系统的监控和管理提供了一个统一的平台。
它拥有十分简洁清晰的界面布局不仅实时精准的显示集群系统的详细信息,而且还能进
行集群系统的管理配置。通过该监控系统可实现对集群系统包括存储设备(物理磁盘)、监
控器、存储池、带宽、容量、节点状态以及放置组状态等健康状况的监控反馈,以及对于存
储池的管理操作
AS13000-M2 群的监控管理界面主要包含五个主界面:登录界面、集群概况界面、
储概况界面、曲线图界面以及管理界面。通过登录界面输入正确的用户账号和口令后可以登
录到监控管理系统;集群概况界面显示了整个集群系统的健康状况,包括系统整体状态、
子模块状态、系统带宽状态等;存储概况界面显示了每一个系统节点和每一个物理磁盘的健
康状态、详细信息及其归属关系;通过曲线图界面可以查看集群整体和每一个存储池的 IOPS
以及每个主机的系统整体信息、每个 CPU 核的信息硬盘容量和 IOPS 信息和网络信息等;
通过管理界面可以对集群、存储设备、存储池进行配置、管理,并下载系统的运行日志。
2.7.1 界面登录
登录模块提供了一个简单的用户登录界面,如图 2.8 所示
Page19
2.8 用户登录界面
输入正确的用户名和密码登录成功后系统将自动跳转到集群概况界面。用户名和密码
在系统搭建时创建或者由系统管理员在后台创建、修改。
2.7.2 集群概况
集群概况模块主要是来显示集群的运行信息主要包括:集群的健康状况,存储设备状
态、监控器状态、存储池状态、系统 IOPS、容量信息、主机状态以及放置组的数量、状态
等信息,如图 2.9 示:
2.9 集群概况
1)健康状态
健康状态是用于直观描述集群健康状态的模块,根据集群当前健康状况会提Warning
Page20
或者 Error 等信息以及告警信息的数量,如下图所示,图 2.10 中状态正常,因此右上角为
2.11 中系统中出现 warning因此右上角显示为 点击下方的 warning 或者 Error
可以看到具体的系统异常信息。集群状态定时刷新并显示刷新倒计时时间或者集群状态距
离现在的时间。
2.10 健康状态(a
2.11 健康状态(b
2)存储设备
显示集群中每一个存储设备的运行状态,分为四种具体状态:up/inup/outdown/in
down 四种状态。
up/in 状态:表示存储设备健康。
up/out 状态:表示存储设备运行但是不在集群当中,一般是存储设备已启动尚未加入系
统中。
down/in 态:表示存此时存储设备已经出现故障,但是系统仍然认为该故障在短时间
内可以被修复,不会对该存储设备上的数据进行恢复、重构。
down 状态:表示此时系统认为该存储设备已经不可用,将其踢出集群并开始利用数据
冗余对该存储设备上的数据进行恢复、重构。
在存储设备出down 状态时,说明有存储设备出现故障,具体故障的存储设备可以查
看存储概况界面
  • Page 1 1
  • Page 2 2
  • Page 3 3
  • Page 4 4
  • Page 5 5
  • Page 6 6
  • Page 7 7
  • Page 8 8
  • Page 9 9
  • Page 10 10
  • Page 11 11
  • Page 12 12
  • Page 13 13
  • Page 14 14
  • Page 15 15
  • Page 16 16
  • Page 17 17
  • Page 18 18
  • Page 19 19
  • Page 20 20
  • Page 21 21
  • Page 22 22
  • Page 23 23
  • Page 24 24
  • Page 25 25
  • Page 26 26
  • Page 27 27
  • Page 28 28
  • Page 29 29
  • Page 30 30
  • Page 31 31
  • Page 32 32
  • Page 33 33
  • Page 34 34
  • Page 35 35
  • Page 36 36
  • Page 37 37
  • Page 38 38
  • Page 39 39
  • Page 40 40
  • Page 41 41
  • Page 42 42
  • Page 43 43

Inspur AS13000-M2 ユーザーマニュアル

タイプ
ユーザーマニュアル