2024年4月10日发(作者:依静慧)
DS5000安装配置手册v1.0
目 录
一、 DS5000磁阵配置 ...................................................................................................... 3
1. 磁盘规划 ................................................................................................................... 3
2. 连接磁盘阵列 ........................................................................................................... 3
3. 使用存储管理软件系统 ........................................................................................... 5
4. 创建Array和LUN .................................................................................................. 11
5. 创建第一个LUN ...................................................................................................... 15
6. 增加LUN .................................................................................................................. 21
7. 创建hotspare ........................................................................................................ 21
二、 将LUN映射给主机 ................................................................................................. 25
1. 将磁盘柜与主机正确连接 ..................................................................................... 25
2. Lun与主机映射步骤: .......................................................................................... 26
3. 在主机上使用lun创建VG,LV,FS .................................................................... 35
4. 参数调整 ................................................................................................................. 36
附录......................................................................................................................................... 36
附录一:条带化建议 ..................................................................................................... 36
附录二:-e’x’选项与-S选项说明 .......................................................................... 37
本文档仅供研发内部使用,如需在生产环境使用,请先对指导书各步骤进行验证。
一、
DS5000磁阵配置
1.
磁盘规划
本次磁阵配置为16块硬盘的DS5020,采用RAID5建两个Array。每个array
包含8个盘。每个array上建一个lun,分别是Omc1和Omc2。在主机上
分别对应为hdisk2、hdisk3。
分别将Omc1和Omc2分配到控制器A、B,以分担负荷。
LUN名称
(在Storage
Manager上)
Omc1
Omc2
LUN名称(在LUN大所在RAID
操作系统上) 小(GB) 组
RAID组类
型
磁盘
控制
器
A
B
hdisk2
Hdisk3
200GB
200GB
Array1
Array2
RAID5
RAID5
2.
连接磁盘阵列
DS5020后板示意图其中
Ethernet ports (以太网口)
用于跟PC连接,配
置磁盘
Serial port 串口
Ethernet ports 以太网口
Dual-port drive channel 扩展柜接口
Fibre Channel host channels 主机接口
HBA1
HBA2
DS5020有两个控制器:ControllerA和ControllerB。每个控制器有一个
网口,ControllerA的网口默认IP地址为
192.168.128.101/255.255.255.0,ControllerB的网口默认IP地址为
192.168.128.102/255.255.255.0。
控制台需要配置和DS5020控制器同一网段的IP地址,用来连接DS502,
此网段要求是一个独立的网络,不要加入其它的机器,以免IP地址变更。
3.
使用存储管理软件系统
在DS5000的随机光盘里面带有Storage Manager安装光盘,可以在主流操作系
统如aix/hp-ux/solaris/linux/windows上安装。
在PC机上选择“开始 > 所有程序 > Storage Manager 10 Client > Storage
Manager 10 Client”。
Storage Manager启动后,出现如图所示的窗口。
Storage Manager启动
图中的提示框表明Storage Manager尚未连接任何磁盘阵列,需要Storage Manager自动连
接或用户手工连接磁盘阵列。
选择“Yes”将由Storage Manager自动连接磁盘阵列。
选择“No”将由用户手工连接磁盘阵列。
这里建议选择“No”。
选择“No”,如图点击鼠标右键,选择Add Storage Subsystem
系统弹出“Add Storage Subsystem”对话框,如错误!未找到引用源。所示。
图 3-12
在“Fist Controller”文本框中输入Controller A的IP地址192.168.128.101,在“Second
Controller”中输入ControllerB的IP地址192.168.128.102。
单击“Add”。
Storage Manager开始连接磁盘阵列,如0所示。
Connecting
图3-13
注意,必须保证192.168.128.101、192.168.102两IP地址与PC正常通讯。
连接成功后,系统弹出“Storage Subsystem Added”,询问用户是否需要连接另一个磁盘
阵列,如0所示。
Storage Subsystem Added
这里我们不需要连接另一个磁盘阵列。
单击“No”。
出现如下图所示的窗口。可以看到刚连接成功的磁盘阵列。
Storage Manager
认到存储为Storage Subsystem Unamed,修改存储的名字为DS4700A(此处的名字建议为
DS5020A),操作如下,右击鼠标,点击rename
输入新的名字,点击ok
出现如下界面。点击Yes
出现如下界面,双击DS4700A
如果出现如下的界面,你可以选择设置密码,如果不设置,就选No。
4.
创建Array和LUN
选择Total Unconfigured Capacity,点右键,选择Create Array功能项,进入下图
输入Array name,选择Manual,进入下面的
图示
选择RAID level 为RAID5,将要选择的磁盘Add到select drives(slot表示磁盘所在槽
位)进入如下界面
点击Calculate Capacity,点击finsh,Array创建成功。系统会提示你
是否创建LUN,你可以选择YES,进入创建LUN的创建。
5.
创建第一个LUN
鼠标单击创建好的Array Raid5-2下面的Free Capacity,点击Create Logical Drive,进
入如下图示:
点击下一步,进入如下图示:
示例创建的是LUN名为omc1,大小为700GB,然后选择Customize settings,点击Next,
进入如下图示:
选择Logical Drive I/O characteristics type 为Database,Preferred controller
ownership为SlotA(下一个lun选SlotB,以进行负荷分担;注意配置端必须与被选择的
Slot连通,否则会失败)点击Next,进入如下图示:
选择Host type为AIX,再选择Map later using the mappings view。点击Next
上图提示你是否创建另外一个lun,需要点击Yes,不需要点击No,创建方法与之前一样。
暂时我们就创建一个示列,我们在此选择No
点击OK,此时可以看到LUN omc的状态为
格式化,格式化完成后状态为:
次状态为系统正在
6.
增加LUN
如要创建多个LUN, 选中Free Capacity,单击右键,选中Create Logical
Drive功能项,增加新的LUN。增加LUN操作跟前面增加第一个LUN步骤
一样。
7.
创建hotspare
在storage manager 软件中点击Phyical,点击一块未使用的空盘,鼠标右键- ->hot
spare coverage,见下图:
选择Manually assign individual drives.点击ok完成。表示hotspare硬盘,表
示已使用硬盘,表示已未使用硬盘。
查看hotspare是否起作用,操作如下:
Drive –>Hot Spare Coverage
选择View/change current hot spare coverage
看到array protected:yes 说明此raid收hot spare保护。
二、
将LUN映射给主机
1.
将磁盘柜与主机正确连接
DS4700的联接示意图
2.
Lun与主机映射步骤:
1. 在主机上输入cfgmgr –v命令,回车,命令执行完后,再次运行到storage
manager软件中
2. 查看主机上的光纤卡的WWN,命令如下:
lsdev –Cc adapter | grep fcs(确认机器配置了几块光纤卡)
lscfg –vl fcs0 (查看fcs0光纤卡的wwn和位置)
[root@p550B /] # lscfg -vl fcs0
fcs0 N-P1-C4-T1 FC Adapter
10N8620
1C948086F3
.001C
D76625
Customer Card 5759
10N8620
Device Specific.(ZM)........3
10000000C9955646
(P1表示主机,C4第四个IO插槽,T1表示上面的一个光纤口)10000000C9955646 (wwn)
3. 用Storage manage 软件登录到存储上,点节mapping,右键点击Default
group -->define -->host,填写host 名为p550B,点击Next
进入如下界面,点击Refresh,可以看到wwn,选择一个对应主机的wwn,alias的名字为
p550B_fcs0,点击add,另外一块卡同样方法操作,名字为p550B_fcs1
点击Next,进入如下图示:
选择host type为AIX。点击Next
选择No,至此就完成了一台主机的映射。另外一台主机同样操作。
4. 如果需要两台主机共享一台DS4700上的LUN,我们再创建一个Host Group,
之后,讲p550A和p550B直接添加到此Host Group。之后的lun映射对象
选择创建的Host Group。
步骤如下:
右键点击Default group -->define -->host group,填写host group
名为power group ,将所需要添加到powergroup中的host都 add到
powergroup,
点击ok,host group 创建完成。
5. 讲lun映射到主机
选择 Mappingundefined mappings ,选择omc1,右击选择defined
additional mapping
选择powergroup,lun 建议从2开始,选定omc1,点击add。
6. 在主机端认出lun。
➢ 原来主机的磁盘如下:
[root@p550B /] # lspv
hdisk0 00c15b868a97d3bc rootvg
active
➢ 现在再在主机上输入cfgmgr –v命令后,再用lspv命令看到如下结
果
[root@p550B /] # lspv
hdisk0 00c15b868a97d3bc rootvg
active
hdisk1 none None
➢ 初始化磁盘
命令chdev –l pv_name –a pv=yes,初始化后,会显示一串序号,如
[root@p550B /] # chdev -l hdisk1 -a pv=yes
hdisk1 changed
[root@p550B /] # lspv
hdisk0 00c15b868a97d3bc rootvg
active
hdisk1 00c15b86ec33e634 None
none
3.
在主机上使用lun创建VG,LV,FS
crfs -v jfs2 -d data1lv -m /datafile/u01
root@p550B /] # df -g
Filesystem GB blocks Free %Used Iused %Iused Mounted on
/dev/hd4 2.00 1.77 12% 15404 4% /
/dev/hd2 6.00 2.81 54% 61905 9% /usr
➢ 建立VG
mkvg -S -y'datavg' -s'128' '-n' hdisk2 hdisk3
-s 128 指定物理分区大小PP SIZE=128MB
往VG加磁盘
如需要另外再加盘hdisk4加入datavg
# extendvg datavg hdisk4
➢ 创建LV ,
【重要说明】
注意根据规划调整创建lv大小的值。LV容量=PP个数*PP SIZE
lsvg datavg命令输出中有PP的大小
VG STATE: active PP SIZE:
128 megabyte(s)
/usr/sbin/mklv -y data1lv -t jfs2 -e x -x 20000 datavg 18 hdisk2
hdisk3
-y data1lv是lv的名称
-t jfs2 是lv的类型
-s 条带化为128K,条带化在hdisk2和hdisk3上
-e x表示一个讲lv最大化分布到hdisk2和hdisk3上
-x 20000表示一个lv最大含lp的个数 (这个可动态调整)
➢ 创建jfs2的文件系统
–A
用df 命令来查看,文件系统是否已经挂载。
/dev/hd9var 2.00 1.69 16% 7479 2% /var
/dev/hd3 5.00 0.82 84% 13568 7% /tmp
/dev/fwdump 1.50 1.50 1% 9 1% /var/adm/ras/platform
/dev/hd1 30.00 14.22 53% 34606 2% /home
/dev/hd11admin 2.00 2.00 1% 5 1% /admin
/proc - - - - - /proc
/dev/hd10opt 4.00 3.79 6% 8868 1% /opt
/dev/livedump 0.25 0.25 1% 4 1% /var/adm/ras/livedump
/dev/data1lv 4.00 4.00 1% 4 1% /datafile/u01
4.
参数调整
系统参数:
chdev –l sys0 –a iostat=true –P
chdev –l sys0 –a maxuproc=3000 –P
chdev –l sys0 –a maxpout=33 –a minpout=24 (注意该项在AIX6.1上默认值分别为
8193、4096,不需要调整)
队列设置:
默认hdiskX上队列长度为10,fcsX上长度为200;对于随机访问性应用,一般建议适当增
大:
chdev –l hdiskX –a queue_depth=16 –P
chdev –l fcsX –a num_cmd_elems=256 -P
其中X为磁盘或光纤卡的逻辑序号。
附录
附录一:条带化建议
一般建议同时使用软件以及硬件方式条带化,以获得最大性能加速:
附录二:-e’x’选项与-S选项说明
本case中采用了-S1M的方式建卷。
这两个选项有效的前提是磁阵提供了多个独立的LUN, 最好各个LUN对应的硬盘集合没有交
集,否则均衡分布LUN之间流量没有实际意义.
mklv -e'x'建的逻辑卷(对应于smitty mklv时inter policy选择maximum)按PP进行条
带化,PP大小可以在建卷组(volume group)时指定, 一般默认64MB或者128MB. mklv
'-SSize'建的逻辑卷按Size大小条带化, 这样的条带分布更加均匀,但是计算量较多,对
CPU的消耗一般略大一些. 需要根据应用的情况而定,如果应用瓶颈在CPU,则建议使用
-e’x’, 如果在磁阵,则建议使用’-SSize’,如’-S1M’.
目前AIX5.3后续版本已支持4K~128MB的条带大小,但需要直接使用命令创建, 对于这种情况
建议使用1M大小的条带, 这样基本能够达到CPU使用率与磁阵性能的平衡. (ORACLE一般的
推荐是超过
DB_BLOCK_SIZE *DB_FILE_MULTI_BLOCK_READ_COUNT, 此值一般在64K
左右
).
但是需要注意的是, 如果使用RAID0方式对后续扩容的灵活度会有一定程度的影响. 如果使
用-e’x’则增加任意数量的卷之后直接reorgvg就可以完成调整;但是条带化方式增加卷必
须是条带宽度的倍数,并且没有直接的调整方式, 而且扩容后的IO均衡性会受到一定程度的
影响.
注意:
超过128K的条带大小在低版本AIX smitty mklv中不能显示,必须手工使用mklv命令创建. 在
AIX5.2中条带大小不能超过LTG(Logic Track Group)大小,在AIX5.3中不能超过PP的大小。
2024年4月10日发(作者:依静慧)
DS5000安装配置手册v1.0
目 录
一、 DS5000磁阵配置 ...................................................................................................... 3
1. 磁盘规划 ................................................................................................................... 3
2. 连接磁盘阵列 ........................................................................................................... 3
3. 使用存储管理软件系统 ........................................................................................... 5
4. 创建Array和LUN .................................................................................................. 11
5. 创建第一个LUN ...................................................................................................... 15
6. 增加LUN .................................................................................................................. 21
7. 创建hotspare ........................................................................................................ 21
二、 将LUN映射给主机 ................................................................................................. 25
1. 将磁盘柜与主机正确连接 ..................................................................................... 25
2. Lun与主机映射步骤: .......................................................................................... 26
3. 在主机上使用lun创建VG,LV,FS .................................................................... 35
4. 参数调整 ................................................................................................................. 36
附录......................................................................................................................................... 36
附录一:条带化建议 ..................................................................................................... 36
附录二:-e’x’选项与-S选项说明 .......................................................................... 37
本文档仅供研发内部使用,如需在生产环境使用,请先对指导书各步骤进行验证。
一、
DS5000磁阵配置
1.
磁盘规划
本次磁阵配置为16块硬盘的DS5020,采用RAID5建两个Array。每个array
包含8个盘。每个array上建一个lun,分别是Omc1和Omc2。在主机上
分别对应为hdisk2、hdisk3。
分别将Omc1和Omc2分配到控制器A、B,以分担负荷。
LUN名称
(在Storage
Manager上)
Omc1
Omc2
LUN名称(在LUN大所在RAID
操作系统上) 小(GB) 组
RAID组类
型
磁盘
控制
器
A
B
hdisk2
Hdisk3
200GB
200GB
Array1
Array2
RAID5
RAID5
2.
连接磁盘阵列
DS5020后板示意图其中
Ethernet ports (以太网口)
用于跟PC连接,配
置磁盘
Serial port 串口
Ethernet ports 以太网口
Dual-port drive channel 扩展柜接口
Fibre Channel host channels 主机接口
HBA1
HBA2
DS5020有两个控制器:ControllerA和ControllerB。每个控制器有一个
网口,ControllerA的网口默认IP地址为
192.168.128.101/255.255.255.0,ControllerB的网口默认IP地址为
192.168.128.102/255.255.255.0。
控制台需要配置和DS5020控制器同一网段的IP地址,用来连接DS502,
此网段要求是一个独立的网络,不要加入其它的机器,以免IP地址变更。
3.
使用存储管理软件系统
在DS5000的随机光盘里面带有Storage Manager安装光盘,可以在主流操作系
统如aix/hp-ux/solaris/linux/windows上安装。
在PC机上选择“开始 > 所有程序 > Storage Manager 10 Client > Storage
Manager 10 Client”。
Storage Manager启动后,出现如图所示的窗口。
Storage Manager启动
图中的提示框表明Storage Manager尚未连接任何磁盘阵列,需要Storage Manager自动连
接或用户手工连接磁盘阵列。
选择“Yes”将由Storage Manager自动连接磁盘阵列。
选择“No”将由用户手工连接磁盘阵列。
这里建议选择“No”。
选择“No”,如图点击鼠标右键,选择Add Storage Subsystem
系统弹出“Add Storage Subsystem”对话框,如错误!未找到引用源。所示。
图 3-12
在“Fist Controller”文本框中输入Controller A的IP地址192.168.128.101,在“Second
Controller”中输入ControllerB的IP地址192.168.128.102。
单击“Add”。
Storage Manager开始连接磁盘阵列,如0所示。
Connecting
图3-13
注意,必须保证192.168.128.101、192.168.102两IP地址与PC正常通讯。
连接成功后,系统弹出“Storage Subsystem Added”,询问用户是否需要连接另一个磁盘
阵列,如0所示。
Storage Subsystem Added
这里我们不需要连接另一个磁盘阵列。
单击“No”。
出现如下图所示的窗口。可以看到刚连接成功的磁盘阵列。
Storage Manager
认到存储为Storage Subsystem Unamed,修改存储的名字为DS4700A(此处的名字建议为
DS5020A),操作如下,右击鼠标,点击rename
输入新的名字,点击ok
出现如下界面。点击Yes
出现如下界面,双击DS4700A
如果出现如下的界面,你可以选择设置密码,如果不设置,就选No。
4.
创建Array和LUN
选择Total Unconfigured Capacity,点右键,选择Create Array功能项,进入下图
输入Array name,选择Manual,进入下面的
图示
选择RAID level 为RAID5,将要选择的磁盘Add到select drives(slot表示磁盘所在槽
位)进入如下界面
点击Calculate Capacity,点击finsh,Array创建成功。系统会提示你
是否创建LUN,你可以选择YES,进入创建LUN的创建。
5.
创建第一个LUN
鼠标单击创建好的Array Raid5-2下面的Free Capacity,点击Create Logical Drive,进
入如下图示:
点击下一步,进入如下图示:
示例创建的是LUN名为omc1,大小为700GB,然后选择Customize settings,点击Next,
进入如下图示:
选择Logical Drive I/O characteristics type 为Database,Preferred controller
ownership为SlotA(下一个lun选SlotB,以进行负荷分担;注意配置端必须与被选择的
Slot连通,否则会失败)点击Next,进入如下图示:
选择Host type为AIX,再选择Map later using the mappings view。点击Next
上图提示你是否创建另外一个lun,需要点击Yes,不需要点击No,创建方法与之前一样。
暂时我们就创建一个示列,我们在此选择No
点击OK,此时可以看到LUN omc的状态为
格式化,格式化完成后状态为:
次状态为系统正在
6.
增加LUN
如要创建多个LUN, 选中Free Capacity,单击右键,选中Create Logical
Drive功能项,增加新的LUN。增加LUN操作跟前面增加第一个LUN步骤
一样。
7.
创建hotspare
在storage manager 软件中点击Phyical,点击一块未使用的空盘,鼠标右键- ->hot
spare coverage,见下图:
选择Manually assign individual drives.点击ok完成。表示hotspare硬盘,表
示已使用硬盘,表示已未使用硬盘。
查看hotspare是否起作用,操作如下:
Drive –>Hot Spare Coverage
选择View/change current hot spare coverage
看到array protected:yes 说明此raid收hot spare保护。
二、
将LUN映射给主机
1.
将磁盘柜与主机正确连接
DS4700的联接示意图
2.
Lun与主机映射步骤:
1. 在主机上输入cfgmgr –v命令,回车,命令执行完后,再次运行到storage
manager软件中
2. 查看主机上的光纤卡的WWN,命令如下:
lsdev –Cc adapter | grep fcs(确认机器配置了几块光纤卡)
lscfg –vl fcs0 (查看fcs0光纤卡的wwn和位置)
[root@p550B /] # lscfg -vl fcs0
fcs0 N-P1-C4-T1 FC Adapter
10N8620
1C948086F3
.001C
D76625
Customer Card 5759
10N8620
Device Specific.(ZM)........3
10000000C9955646
(P1表示主机,C4第四个IO插槽,T1表示上面的一个光纤口)10000000C9955646 (wwn)
3. 用Storage manage 软件登录到存储上,点节mapping,右键点击Default
group -->define -->host,填写host 名为p550B,点击Next
进入如下界面,点击Refresh,可以看到wwn,选择一个对应主机的wwn,alias的名字为
p550B_fcs0,点击add,另外一块卡同样方法操作,名字为p550B_fcs1
点击Next,进入如下图示:
选择host type为AIX。点击Next
选择No,至此就完成了一台主机的映射。另外一台主机同样操作。
4. 如果需要两台主机共享一台DS4700上的LUN,我们再创建一个Host Group,
之后,讲p550A和p550B直接添加到此Host Group。之后的lun映射对象
选择创建的Host Group。
步骤如下:
右键点击Default group -->define -->host group,填写host group
名为power group ,将所需要添加到powergroup中的host都 add到
powergroup,
点击ok,host group 创建完成。
5. 讲lun映射到主机
选择 Mappingundefined mappings ,选择omc1,右击选择defined
additional mapping
选择powergroup,lun 建议从2开始,选定omc1,点击add。
6. 在主机端认出lun。
➢ 原来主机的磁盘如下:
[root@p550B /] # lspv
hdisk0 00c15b868a97d3bc rootvg
active
➢ 现在再在主机上输入cfgmgr –v命令后,再用lspv命令看到如下结
果
[root@p550B /] # lspv
hdisk0 00c15b868a97d3bc rootvg
active
hdisk1 none None
➢ 初始化磁盘
命令chdev –l pv_name –a pv=yes,初始化后,会显示一串序号,如
[root@p550B /] # chdev -l hdisk1 -a pv=yes
hdisk1 changed
[root@p550B /] # lspv
hdisk0 00c15b868a97d3bc rootvg
active
hdisk1 00c15b86ec33e634 None
none
3.
在主机上使用lun创建VG,LV,FS
crfs -v jfs2 -d data1lv -m /datafile/u01
root@p550B /] # df -g
Filesystem GB blocks Free %Used Iused %Iused Mounted on
/dev/hd4 2.00 1.77 12% 15404 4% /
/dev/hd2 6.00 2.81 54% 61905 9% /usr
➢ 建立VG
mkvg -S -y'datavg' -s'128' '-n' hdisk2 hdisk3
-s 128 指定物理分区大小PP SIZE=128MB
往VG加磁盘
如需要另外再加盘hdisk4加入datavg
# extendvg datavg hdisk4
➢ 创建LV ,
【重要说明】
注意根据规划调整创建lv大小的值。LV容量=PP个数*PP SIZE
lsvg datavg命令输出中有PP的大小
VG STATE: active PP SIZE:
128 megabyte(s)
/usr/sbin/mklv -y data1lv -t jfs2 -e x -x 20000 datavg 18 hdisk2
hdisk3
-y data1lv是lv的名称
-t jfs2 是lv的类型
-s 条带化为128K,条带化在hdisk2和hdisk3上
-e x表示一个讲lv最大化分布到hdisk2和hdisk3上
-x 20000表示一个lv最大含lp的个数 (这个可动态调整)
➢ 创建jfs2的文件系统
–A
用df 命令来查看,文件系统是否已经挂载。
/dev/hd9var 2.00 1.69 16% 7479 2% /var
/dev/hd3 5.00 0.82 84% 13568 7% /tmp
/dev/fwdump 1.50 1.50 1% 9 1% /var/adm/ras/platform
/dev/hd1 30.00 14.22 53% 34606 2% /home
/dev/hd11admin 2.00 2.00 1% 5 1% /admin
/proc - - - - - /proc
/dev/hd10opt 4.00 3.79 6% 8868 1% /opt
/dev/livedump 0.25 0.25 1% 4 1% /var/adm/ras/livedump
/dev/data1lv 4.00 4.00 1% 4 1% /datafile/u01
4.
参数调整
系统参数:
chdev –l sys0 –a iostat=true –P
chdev –l sys0 –a maxuproc=3000 –P
chdev –l sys0 –a maxpout=33 –a minpout=24 (注意该项在AIX6.1上默认值分别为
8193、4096,不需要调整)
队列设置:
默认hdiskX上队列长度为10,fcsX上长度为200;对于随机访问性应用,一般建议适当增
大:
chdev –l hdiskX –a queue_depth=16 –P
chdev –l fcsX –a num_cmd_elems=256 -P
其中X为磁盘或光纤卡的逻辑序号。
附录
附录一:条带化建议
一般建议同时使用软件以及硬件方式条带化,以获得最大性能加速:
附录二:-e’x’选项与-S选项说明
本case中采用了-S1M的方式建卷。
这两个选项有效的前提是磁阵提供了多个独立的LUN, 最好各个LUN对应的硬盘集合没有交
集,否则均衡分布LUN之间流量没有实际意义.
mklv -e'x'建的逻辑卷(对应于smitty mklv时inter policy选择maximum)按PP进行条
带化,PP大小可以在建卷组(volume group)时指定, 一般默认64MB或者128MB. mklv
'-SSize'建的逻辑卷按Size大小条带化, 这样的条带分布更加均匀,但是计算量较多,对
CPU的消耗一般略大一些. 需要根据应用的情况而定,如果应用瓶颈在CPU,则建议使用
-e’x’, 如果在磁阵,则建议使用’-SSize’,如’-S1M’.
目前AIX5.3后续版本已支持4K~128MB的条带大小,但需要直接使用命令创建, 对于这种情况
建议使用1M大小的条带, 这样基本能够达到CPU使用率与磁阵性能的平衡. (ORACLE一般的
推荐是超过
DB_BLOCK_SIZE *DB_FILE_MULTI_BLOCK_READ_COUNT, 此值一般在64K
左右
).
但是需要注意的是, 如果使用RAID0方式对后续扩容的灵活度会有一定程度的影响. 如果使
用-e’x’则增加任意数量的卷之后直接reorgvg就可以完成调整;但是条带化方式增加卷必
须是条带宽度的倍数,并且没有直接的调整方式, 而且扩容后的IO均衡性会受到一定程度的
影响.
注意:
超过128K的条带大小在低版本AIX smitty mklv中不能显示,必须手工使用mklv命令创建. 在
AIX5.2中条带大小不能超过LTG(Logic Track Group)大小,在AIX5.3中不能超过PP的大小。