您好,欢迎来到伴沃教育。
搜索
您的当前位置:首页正文

IBMPowerVM实战手册

来源:伴沃教育
IBM PowerVM 实战手册,第 1 部分 : 前言及设计

内容摘要:本文结合作者几年来对 IBM 虚拟化微分区的成熟经验,并以宝信实验室的 2 台 55A 的实际部署为例,论述了 IBM 的 PowerVM 虚拟化服务的详细过程,对有兴趣和开始实施 PowerVM 的同仁相信有很大的帮助。 前言

为什么服务器需要虚拟化

可以有效控制服务器数量,提高资源利用率。

利用 IBM 的 PowerVM 技术,我们实现了 1 台 p570 划分 20 个分区,如果实际购买机器,至少需要 20 台 p510。 节能减排,降低投资 .

显而易见,服务器虚拟化可以省电省散热省空间,大量减少 PCI 卡等等投资。拿宝信实验室举例,1 台 p55A 能顶掉原来 10 台 p52A,空间节省 75%,电节省 80%,散热减少 80%,投资也至少减少 70%,长期下来节能效果相当惊人。 简化服务器的部署、管理

利用 IBM 的 PowerVM 技术,可以使得服务器的环境完全一致,使得加上 NIM 安装技术的成功率大大提高,可以在短短 60 分钟内,部署 8 台以上的虚拟服务器,由于 APV 和 IBM 硬件控制台(HM

C)密不可分,也就可以很方便地实现了这些虚拟服务器远程管理,包括启停、调整系统资源等等。

模拟各类操作系统和各个资源不同的机器,实现良好的学习测试实验环境 。

对于 IBM 的 PowerVM 技术,目前支持 AIX5.3、AIX6.1,部分 Linux,可以模拟多台从 0.1CPU,128 MB 到小于物理机器资源的机器。

PowerVM 的主要组成部分及概念

最新的 PowerVM 是在基于 IBM POWER 处理器的硬件平台上提供的具有行业领先水平的虚拟化技术家族。它是 IBM Power System 虚拟化技术全新和统一的品牌(逻辑分区,微分区,Hypervisor,虚拟 I/O 服务器,APV,PowerVM Lx86,Live Partition Mobility)。大家对 2004 年即出现的 APV 应该记忆犹新,随着 Power6 的推出和 i 和 p 系列的合并,APV 也发展成为 PowerVM。 PowerVM 有三个版本,分别是 PowerVM Express Edition,PowerVM Standard Edition,PowerVM Enterprise Edition。对于 Power6,PowerVM 新支持 Multiple Shared Processor Pools 功能和 Live Partition Mobility 功能。

下面就其主要部分介绍一下,以方便后面实战部分的阅读。 微分区(Micro-Partitioning)

微分区改变了 POWER 系列服务器的整个规划结构。实施 APV 后,可以在资源分配方面提供更大的灵活性和细分能力。添加处理器的部分处理能力而不是整个处理器,还能够帮助客户更好地利用服务器。使用工作负载管理器(WLM)和 PLM 有助于更好地优化这些资源。

现在,分区要么是专用的处理器分区(按整个处理器的增量来分配处理能力),要么是共享的处理器分区(使用微分区);不会出现两者的组合。使用微分区时,可以将一组处理器分配到共享处理器池(SPP),然后使 LPAR 可以(根据在池中获得的容量和优先级)使用这些处理器。此时,服务器上仅有一个 SPP 可用,但多个 LPAR 可以共享这些资源。 虚拟 I/O 服务器

APV 功能部件的关键组件之一是虚拟 I/O 服务器。该设施可以提供 I/O 虚拟化和网络资源虚拟化。虚拟 I/O 服务器是一个分区,用于提供 I/O 资源共享,还用于为一个或多个客户机 LPAR 托管虚拟盘、光存储和 SEA。 虚拟 LAN

虚拟 LAN 不是 APV 的一部分,它只需要 POWER5 系统上有 AIX 5L V5.3 或支持的 Linux 版本。HMC 用于定义虚拟 LAN 设备,从而使 LPAR 通过内存而非以太网卡连接。一个 LPAR 可

支持多达 256 个虚拟 LAN,每个虚拟 LAN 的传输速度都在 1 到 3 Gbps 之间。在这里,性能是值得关注的一点。如果在分区之间使用物理 LAN 连接,则适配器以 LAN 的传输速度运行,而不是以通常快许多的内存传输速度运行。由于适配器能够自行处理其任务,所以需要的处理器开销非常少。如果使用 VLAN,数据传输/交换速度会更快,因为两个分区之间基本上是内存传送。但是,这种传输需要处理器的参与。这两种传输方式的速度可能各有不同,视具体情况而定。但总的来说,VLAN 比物理互连要快。 共享以太网适配器

SEA 是一种与 APV 一起提供的 POWER5 中的新服务,它支持多个分区共享虚拟 I/O 服务器上的物理适配器。它实际上起着第 2 层网桥的作用,在客户机中的虚拟以太网适配器和主机服务器中的实际适配器之间路由数据。网络适配器共享是通过虚拟 I/O 服务器上配置的 SEA 实现的。通过虚拟 I/O 服务器,数据或者在实际网络中流动,或者经由 Hypervisor 流向实际分区。 虚拟 SCSI

在 I/O 方面,使用虚拟 SCSI 服务器共享磁盘和适配器。虚拟 SCSI 服务器运行在虚拟 I/O 服务器上,它能够支持您在一个物理磁盘上分配多个逻辑卷(LV)。然后,您可以将每个 LV 导出到不同的客户机 LPAR。客户机 LPAR 会将这些 LV 视为常规 SCSI 磁盘,而它们实际上可能是通过光纤连接到服务器。例如,您可以使

用一个 146GB 磁盘驱动器,将它划分为 3 个 45 Gb LV 并将它们用作 3 个不同 LPAR 的引导磁盘。

总的来说,这些概念相互独立。为便于后面阅读和实践,我们主要弄清 2 个大的概念:微分区和 VIO server 即可,以下是我个人的白话理解:

微分区 可以理解成可以小于 1 个 CPU 并和其他分区充分共享 CPU 的 LPAR,内存的使用和 LPAR 没有什么不同。它可以使用 VIO server 共享出来的网卡和存储,也可以不用。

VIO server 是一个特殊的分区,负责共享 I/O( 网卡和存储 ) 供其他分区使用。不仅仅是微分区,实际也可以供一般 LPAR 使用,只是考虑到性能的原因,一般不这么做。其中网卡通过实际网卡通过 SEA 勾连转换为共享虚拟网卡,通过 虚拟 LAN 和各个分区连通,同时使得各个分区可以通过共享虚拟网卡的桥接与外界联系。共享存储是通过设置虚拟 SCSI 卡 vhost,可以把 VIO server 的 lv 或磁盘,(新 powerVM 还可以包括文件)映射给 vhost,实际 vhost 对应到其他分区就是一块 SCSI卡,可以供其他分区使用。 实验环境说明: 机器一览表

备注 微分

设备名 配置

IBM P55A(机架式):4* 1.9GHz ,32GB 内存,底板集成双口双绞线网卡,1×双

ss55aa0

1 口千兆双绞线网卡,1×双口 4Gb HBA 卡,1×显卡,HDD:2*146GB 15Krpm,DVD-ROM,内置 DAT72 带机,冗余电源,AIX 5.3,2×异步卡,HMC,虚拟分区

区主服务器

Eternus 4000 Module 3000

ET4K M300 rack mount;4GB Cache Memory

sse4km300a01

(2x1GBx2CM);FC (4Gbps) host interface (4-portx2CA) E4KM300;146GB/15Krpm disk drive siglex13;500GB/7.2Krpm(single)X4;

Brocade Silkworm 210E(机架式机箱,带快速上架导轨)

磁盘阵列

ss210ea01,ss210eb01

16 块 4G 短波光纤模块,16 口激活,带相应管理软件

SAN 交换机

实验环境示意图 规划设计 规划前的需求调研

在做规划之前,或者说一个准备实施微分区的服务器来说,至少需要调查了解各个分区系统的以下相关情况,这些都可能影响到微分区的配置和划分。

各个微分区负载应用特点

如 CPU、内存、网络等特别是 I/O 的负载的侧重。 各个微分区网络需求

包括网段的划分、路由、网络设备的冗余等等在系统上线前的状况和可提供条件,以及实施运行过程中可能出现的变更。 各个微分区存储需求

包括存储的大小,性能的要求,以后扩展的需要。 微分区的设计

本文由于是实验室环境,性能要求不高,所以网卡和 HBA 卡设备都由 VIO server 共享出来。实际使用时,对于性能要求较高的微分区,网卡和 HBA 卡可以单独划分给某个分区。当然需要设计和购买相应的卡。 分区规划

考虑到实验室实际情况,本次实施只划分了 10 个微分区,但实际可以更多,可以事后再追加。

分区名 ss55aa01 ss55aa11 ss55aa12 ss55aa13 ss55aa14

名称 vio server

微分区 1

微分区 2

微分区 3

微分区 4

ss55aa15 ss55aa16 ss55aa17 ss55aa18 ss55aa19 ss55aa20

微分区 5

微分区 6

微分区 7

微分区 8

微分区 9

微分区 10

CPU 的设计

这些微分区为开发测试分区,开发测试的人员为同一批人,所以不太可能所有的分区都同时繁忙,所以做了如下设计:

min 0.3 0.1 0.1 0.1 0.1 0.1 0.1

desire 0.5

max 1

v_min 1

v_desire 2

v_max 4

share_mode

uncapped

权重 128 64

分区名

ss55aa01 ss55aa11 ss55aa12 ss55aa13 ss55aa14 ss55aa15 ss55aa16

0.3 4 1 2 4 uncapped

0.3 4 1 2 4 uncapped 64

0.3 4 1 2 4 uncapped 64

0.3 4 1 2 4 uncapped 64

0.3 4 1 2 4 uncapped 64

0.3 4 1 2 4 uncapped 64

ss55aa17 ss55aa18 ss55aa19 ss55aa20

0.1 0.1 0.1 0.1

0.3 4 1 2 4 uncapped 64

0.3 4 1 2 4 uncapped 64

0.3 4 1 2 4 uncapped 2

0.3 4 1 2 4 uncapped 2

权重越高,是当 CPU 不够分配的时候,按此比例来分配,即 2 个学习分区的权重最低,分配的 CPU 会最少。

注意,此处 VIO server 的 CPU 也为共享,优先级最高,基于以下原因:

CPU 数量有限,专有 CPU 至少为 1 颗,有些浪费。 这是由于该机器为实验室用途,性能要求不高,对 VIO server 的压力不大。

此 powerVM 实际为 power5 的 APV,不能实现 power6 的 Multiple Shared Processor Pools 功能 , 设为专有 CPU 后,将不能自动调整实际 CPU 的使用。

实际使用过程中,如果 CPU 宽裕,对性能有要求,建议采用专有 CPU 模式。

另外,设计虚拟 CPU 时需注意,由于在微分区实际使用时,实际可使用物理 CPU 的个数受限于虚拟 CPU 的个数,即虽然你物理 CPU 的最大值为 16,但如果虚拟 CPU 个数为 4,实际能使用

的 CPU 个数即为 4,所以其最大值最好接近于整个机器的物理 CPU 个数。 内存的设计

考虑到实际情况,前 8 个分区为开发测试环境,后 2 个为学习环境,具体调整根据实际运行后再修正。

desire 768

max 1G

分区名 min 512M 1G

ss55aa01 ss55aa11 ss55aa12 ss55aa13 ss55aa14 ss55aa15 ss55aa16 ss55aa17 ss55aa18 ss55aa19 ss55aa20

3G 6G

1G 3G 6G

1G 3G 6G

1G 3G 6G

1G 3G 6G

1G 3G 6G

1G 3G 6G

1G 128M 128M

3G 512M 512M

6G

1G

1G

网络的设计

由于开发测试也需要模拟运行环境,有可能 2 个网段,并可能做 HA,所以做以下设计:

2 个网段 4 块的千兆网卡 ent0-ent3 可以互联也可以外部连接其他测试机。

ent0,ent1 一个 vlan,ent2、ent3 一个 vlan。以下为 VLAN 号

所有微分区网卡可设计成一样,当然也可不同 :

SCSI ID 4 5 6 7

VLAN 1 1 98 98

IEEE 802.1q 兼容适配器 无 无 无 无

访问外部网干线优先级 无 无 无 无

连接外网 否 否 否 否

由于这些微分区作为开发测试环境的网络负载不是很高,且由于此 55A 仅 2 个内置网口,2 个外置网口,而微分区的网口需求多达 40 个,只能采用 VIO server 来设计网络需求,也同时有力佐证了 PowerVM 的好处。 存储的设计

这里可以看到,每个微分区的 SCSI 存储卡实际是可以对应 VIO server 上的 profile 里一个虚拟 SCSI 卡,即 VIO Server 操作系统里的 vhost。

分区名 微分区 SCSI ID:2

微分区 SCSI ID:3

ss55aa11 111 112

ss55aa12 121 122

ss55aa13 131 132

ss55aa14 141 142

ss55aa15 151 152

ss55aa16 161 162

ss55aa17 171 172

ss55aa18 181 182

ss55aa19 191 192

ss55aa20

201 202

考虑到前 6 个分区会安装数据库,临时性的文件较多,设置00G 的 tempvg,可以根据今后实际情况加以调整。

分区名

rootvg1rootvg2datavgtempvg

ss55aa01

139G

139G

1ss55aa11 ss55aa12 ss55aa13 ss55aa14 ss55aa15 ss55aa16 ss55aa17 ss55aa18 ss55aa19 ss55aa20

20G 20G 50G 100G

20G 20G 50G 100G

20G 20G 50G 100G

20G 20G 50G 100G

20G 20G 50G 100G

20G 20G 50G 100G

20G 20G 50G

20G

20G

50G

20G

20G

50G

20G

20G

50G

VIO server 的设计: 磁盘和 VG 规划设计:

由于通常 rootvg 对磁盘读写性能要求不高,为了便于管理,将 rootvg 放在 2 个大的 vg,然后划分出 lv 来对应,其他划分磁盘 hdisk 一一对应。

lun_id 0x000

vg

disk

大小 200G

55a01_rootvg1 hdisk2

0x001 0x002 0x003 0x004 0x005 0x006 0x007 0x008 0x009 0x00A 0x00B 0x00C 0x00D 0x00E 0x00F 0x010 0x011

55a11_datavg hdisk3 50G

55a12_datavg hdisk4 50G

55a13_datavg hdisk5 50G

55a14_datavg hdisk6 50G

55a15_datavg hdisk7 50G

55a16_datavg hdisk8 50G

55a17_datavg hdisk9 hdisk10 hdisk11 hdisk12 hdisk13 hdisk14 hdisk15 hdisk16 hdisk17 hdisk18 hdisk19

50G

55a18_datavg 50G

55a19_datavg 50G

55a20_datavg ss55a01_tempvg1

ss55a01_tempvg2

ss55a01_tempvg3

ss55a01_tempvg4

ss55a01_tempvg5

ss55a01_tempvg6

ss55a01_rootvg2

50G 100G 100G 100G 100G 100G 100G 200G

rootvg 设计

考虑到空间的原因,rootvg 尽量节省,所以保留的 20G 一个,对于磁盘紧张的机器,可以放在内置盘。如果配置 146G 一个内置盘,取出 VIO server 自身使用约 30G,可以配置 5 个分区,如果配置目前常见的 300G 一个内置盘,也是一个不错的选择。 55aa01_rootvg1:

LV

TYPESIZE rootvg1_55a11

jfs2

20G rootvg1_55a1220G

jfs2

rootvg1_55a1320G

jfs2

rootvg1_55a1420G

jfs2

rootvg1_55a1520G

jfs2

rootvg1_55a1620G

jfs2

rootvg1_55a1720G

jfs2

rootvg1_55a1820G

jfs2

rootvg1_55a1920G

jfs2

rootvg1_55a2020G

jfs2

55aa01_rootvg2:

LV

rootvg2_55a11

rootvg2_55a12

rootvg2_55a13

rootvg2_55a14

rootvg2_55a15

rootvg2_55a16

rootvg2_55a17

rootvg2_55a18

rootvg2_55a19

rootvg2_55a20

TYPE jfs2

SIZE 20G 20G 20G 20G 20G 20G 20G 20G 20G 20G

jfs2

jfs2

jfs2

jfs2

jfs2

jfs2

jfs2

jfs2

jfs2

虚拟适配器设计: 网卡 :

对于微分区,内部网卡此处设计为 2 个网段,即 2 个 VLAN,一个为 1,一个为 98,和 VIO server 内部 vlan 一一对应;对于 VIO server 对外,可以互通,都是新 vlan 为 1。即此处 2 和 99 留有今后扩充,没有使用。因为事后添加需要重起 VIO server。

SCSI ID 11 12 13 14

VLAN 1 2 98 99

IEEE 802.1q 兼容适配器 是 是 是 是

新 VLAN 标示 1 1 1 1

访问外部网干线优先级 1 2 3 4

连接外网 是 是 是 是

存储卡 :

此处设置为任意分区,这样今后方便变化,可根据实际情况加以调整。这里只设计 20 个 vhost,但建议可以设计更多,因为事后添加需要重起 VIO server。

SCSI ID 111

规划微分区

ss55aa11

任意插槽任意分区 是

vhost rootvg rootvg1_55a11

rootvg1_55a11

rootvg1_55a12

rootvg2_55a12

rootvg1_55a13

rootvg2_55a13

rootvg1_55a14

rootvg2_55a14

rootvg1_55a15

data vg 55a11_datavg

55a11_tempvg

55a11_datavg

55a11_tempvg

55a11_datavg

55a11_tempvg

55a11_datavg

55a11_tempvg

55a11_datavg

vhost0

112 vhost1 ss55aa11 是

121 vhost2 ss55aa12 是

122 vhost3 ss55aa12 是

131 vhost4 ss55aa13 是

132 vhost5 ss55aa13 是

141 vhost6 ss55aa14 是

142 151

vhost7 vhost8

ss55aa14 ss55aa15

是 是

152

vhost9 vhost10 vhost11 vhost12 vhost13 vhost14 vhost15 vhost16 vhost17 vhost18 vhost19

ss55aa15

rootvg2_55a15

rootvg1_55a16

rootvg2_55a16

rootvg1_55a17

rootvg2_55a17

rootvg1_55a18

rootvg2_55a18

rootvg1_55a19

rootvg2_55a19

rootvg1_55a20

rootvg2_55a20

55a11_tempvg

55a11_datavg

55a11_tempvg

55a17_datavg

161 ss55aa16 是

162 ss55aa16 是

171 ss55aa17 是

172 ss55aa17 是

55a18_datavg

181 ss55aa18 是

182 ss55aa18 是

55a19_datavg

191 ss55aa19 是

192 ss55aa19 是

55a20_datavg

201 ss55aa20 是

202 ss55aa20 是

网卡设计

根据微分区的 4 块网卡 2 个网段的需求,并考虑可靠性,VIO server 将主板的网卡和外置 PCI 网卡绑成 2 块对外聚合网卡,设计如下:

phy ent ent0

ethernet_Channel ent8

visual ent ent4

vadapter id 11

SEA ent10

ent2

ent8

ent4

11

ent10 ent11 ent11

ent1 ent9 ent5 12

ent3 ent9 ent5 12

总结

以上我们讨论了服务器虚拟化的诸多概念,完成了规划设计。后面的部分中,我们就按照上述设计来实施,由于微分区需要使用 VIO server,为清晰明了,我们先从 VIO server 开始实施,再实施微分区,实际没有先后顺序,但互有关联。

IBM PowerVM 实战手册,第 2 部分 VIO server

准备及安装

VIO server 的 profile 配置

现在我们开始实施了。首先进入 HMC 的服务器界面,创建一个 VIO server 分区,注意这个分区只能用这种方式创建。虽然我们知道 VIO server 实际上是一个 mksysb 的光盘,但选用一般 AIX 分区是无法安装运行的。

分区创建的 ID 为唯一标示,这点和创建一个 AIX 分区没有不同。

如前所述,考虑到为实验室环境,所以这里设为共享,而非专用。

按设计实施,设置 CPU 各个值。 按设计,实施内存值。

这里将所有设备加入 VIO Server, 包括 CD ROM,但记住安装完成后去除 T16 的 IDE CD ROM。实际安装时可以根据设计来不同实施。

下面开始配置 VIO SERVER 的特殊部分,首先将最大适配器数调到 500,便于增加虚拟网卡和存储卡,缺省值远远不够。 我们先来配置需共享的网卡: 按设计配置第一块需共享的虚拟网卡

同样增加其他虚拟网卡,此处 11、12、13、14 共 4 块 下面增加虚拟 SCSI 存储卡 增加第一块卡

同样一直增加到 202 虚拟存储卡,共增加 20 块。这里只设计 20 个 adapter,但建议可以设计更多,因为事后添加需要重起 VIO server。

跟着安装向导,设置为正常启动,以免启动停留在 SMS 菜单。当然事后也可以修改。

可以点击详细信息确认配置

建立完成,此时再逐一确认一下 CPU 设置确认 内存配置确认 设备确认 虚拟网卡确认 虚拟 SCSI 卡确认 开启确认

VIO server 的安装

注:由于以下此处文档事后所补,所以截图中分区名称有所区别,供参考示意。

开始激活该分区(之前请记得把 VIO server 的安装光盘放入光驱):

选择 profile,开启终端窗口 开始启动

按 5 进入 SMS 菜单,选择 CD-ROM 启动安装 接下来实际就是一个 mksysb 的恢复过程。 安装完毕就会自动重起。

总结

以上为 VIO server 分区的 profile 配置和安装,这部分是后面 VIO server 的配置基础,也是这个场景下微分区安装的准备工作之一。接下来,我们将讲述比较关键的 VIO server 的配置,包括为微分区的相关虚拟设备配置等等。

IBM PowerVM 实战手册,第 3 部分 : VIO serve

r 配置及微分区的实施

VIO server 配置 --- 微分区的共享资源设置

VIO server 为有限制的 AIX 操作系统,不允许 root 登录,用户名为 padmin,缺省口令无。

通过 oem_setup_env 进入 AIX 的环境,可以很方便的使用我们熟悉的 AIX 命令达到大多数操作相同的效果,下面会混合使用 2 个环境的命令。 接受许可

第一次开启 VIO server,利用 oem_setup_env 进入 AIX 环境必须接受 license 许可。

login: padmin $ oem_setup_env The I/O Server license must be accepted before running this command. Only the chlang command may be run before accepting the license. To view the license, run the license command with the -view option. If the -lang flag is not specified the license will be displayed in the current locale (set by the chlang command). If the license is not available in the language selected, English will be the default. To accept the license, run the license command with the -accept option. Locale currently set to: \"en_US\". Usage: license {[-view] [-accept]} [-lang Name] license [-ls] 。。。。。 $ license -accept 配置磁盘

在 oem_setup_env 的 AIX 环境下

先建立 2 个 VG,供各个微分区的 rootvg 共享使用 ( 磁盘位置请参考前面的实验环境说明 )

mkvg -y 55aa01_rootvg1 hdisk2 mkvg -y 55aa01_rootvg2 hdisk19 [ss55aa01][padmin][/home/padmin]#lspv NAME PVID VG STATUS hdisk0 000826ef27028dfe rootvg active hdisk1 000826efbaa78248 rootvg active hdisk2 000826ef415056f8 55aa01_rootvg1 active ... hdisk19 55aa01_rootvg2 active 建立 20 个 lv,每个微分区 2 个,可用来做镜像

mklv -y rootvg1_55a11 -t jfs2 55aa01_rootvg1 20G mklv -y rootvg1_55a12 -t jfs2 55aa01_rootvg1 20G mklv -y rootvg1_55a13 -t jfs2 55aa01_rootvg1 20G mklv -y rootvg1_55a14 -t jfs2 55aa01_rootvg1 20G mklv -y rootvg1_55a15 -t jfs2 55aa01_rootvg1 20G ... ... ... mklv -y rootvg2_55a15 -t jfs2 55aa01_rootvg2 20G mklv -y rootvg2_55a16 -t jfs2 55aa01_rootvg2 20G mklv -y rootvg2_55a17 -t jfs2 55aa01_rootvg2 20G mklv -y rootvg2_55a18 -t jfs2 55aa01_rootvg2 20G mklv -y rootvg2_55a19 -t jfs2 55aa01_rootvg2 20G mklv -y rootvg2_55a20 -t jfs2 55aa01_rootvg2 20G 这样各个分区 rootvg 的准备工作完成,接下来要实际映射到各个微分区。

先执行 exit 退出 oem_setup_env 的 AIX 环境。 padmin 环境下建立 vdev

先察看以下 vhost 的虚拟 scsi 卡对应各个微分区是否如设计

[ss55aa01][padmin][/home/padmin]#lsmap -all|grep vhost vhost0 0x00000000 vhost1 0x00000000 vhost2 0x00000000 ... vhost17 0x00000000 vhost18 0x00000000 vhost19 0x00000000 建立各个虚拟存储设备,将微分区 rootvg 映射到各个预先建立的 lv 上,如对于 ss55aa11 这个微分区,建立一个 rootvg1_55a11 将 55a11_rootvg1 这个 lv 映射到 vhost0 上,即 ss55aa11 上的一块 scsi 卡上,从而使得 ss55aa11 这个微分区能认出这块虚拟磁盘来。

mkvdev -vdev rootvg1_55a11 -vadapter vhost0 -dev 55a11_rootvg1 mkvdev -vdev rootvg1_55a12 -vadapter vhost2 -dev 55a12_rootvg1 mkvdev -vdev rootvg1_55a13 -vadapter vhost4 -dev 55a13_rootvg1 mkvdev -vdev rootvg1_55a14 -vadapter vhost6 -dev 55a14_rootvg1 mkvdev -vdev rootvg1_55a15 -vadapter vhost8 -dev 55a15_rootvg1 mkvdev -vdev rootvg1_55a16 -vadapter vhost10 -dev 55a16_rootvg1 mkvdev -vdev rootvg1_55a17 -vadapter vhost12 -dev 55a17_rootvg1 mkvdev -vdev rootvg1_55a18 -vadapter vhost14 -dev 55a18_rootvg1 ... ... ... mkvdev -vdev rootvg2_55a14 -vadapter vhost7 -dev 55a14_rootvg2 mkvdev -vdev rootvg2_55a15 -vadapter vhost9 -dev 55a15_rootvg2 mkvdev -vdev rootvg2_55a16 -vadapter vhost11 -dev 55a16_rootvg2 mkvdev -vdev rootvg2_55a17 -vadapter vhost13 -dev 55a17_rootvg2 mkvdev -vdev rootvg2_55a18 -vadapter vhost15 -dev 55a18_rootvg2 mkvdev -vdev rootvg2_55a19 -vadapter vhost17 -dev 55a19_rootvg2 mkvdev -vdev rootvg2_55a20 -vadapter vhost19 -dev 55a20_rootvg2 建立 datavg

同理,建立各个微分区的 datavg,但这里使用磁盘直接对应的,而非 lv,但命令使用方法并无不同:

mkvdev -vdev hdisk3 -vadapter vhost0 -dev 55a11_datavg1 mkvdev -vdev hdisk4 -vadapter vhost2 -dev 55a12_datavg1 mkvdev -vdev hdisk5 -vadapter vhost4 -dev 55a13_datavg1 mkvdev -vdev hdisk6 -vadapter vhost6 -dev 55a14_datavg1 mkvdev -vdev hdisk7 -vadapter vhost8 -dev 55a15_datavg1 mkvdev -vdev hdisk8 -vadapter vhost10 -dev 55a16_datavg1 mkvdev -vdev hdisk9 -vadapter vhost12 -dev 55a17_datavg1 mkvdev -vdev hdisk10 -vadapter vhost14 -dev 55a18_datavg1 mkvdev -vdev hdisk11 -vadapter vhost16 -dev 55a19_datavg1 mkvdev -vdev hdisk12 -vadapter vhost18 -dev 55a20_datavg1 注意 :tempvg 没有加以处理,分配方法一致,留待以后分配 检查一下结果:

[ss55aa01][padmin][/home/padmin]#lsmap -all SVSA Physloc Client Partition ID --------------- -------------------------------------------- ------------------ vhost0 0x00000003 VTD 55a11_datavg1 Status Available LUN Backing device hdisk3 Physloc VTD 55a11_rootvg1 Status Available LUN Backing device rootvg1_55a11 Physloc ..... SVSA Physloc Client Partition ID --------------- -------------------------------------------- ------------------ vhost18 0x00000000 VTD 55a20_datavg1 Status Available LUN Backing device hdisk12 Physloc VTD 55a20_rootvg1 Status Available LUN Backing device rootvg1_55a20 Physloc SVSA Physloc Client Partition ID --------------- -------------------------------------------- ------------------ vhost19 0x00000000 VTD 55a20_rootvg2 Status Available LUN Backing device rootvg2_55a20 Physloc 至此,每个微分区的 rootvg,datavg 已映射完成。 网卡设置:

1. 按前面设计,先察看以下网卡状况,看看通过 profile 设置,启动后是否如设计:

[ss55aa01][padmin][/home/padmin]#lsdev -Cc adapterent0 Available 07-08 2-Port 10/100/1000 Base-TX PCI-X Adapter ent1 Available 07-09 2-Port 10/100/1000 Base-TX PCI-X Adapter ent2 Available 09-08 2-Port 10/100/1000 Base-TX PCI-X Adapter ent3 Available 09-09 2-Port 10/100/1000 Base-TX PCI-X Adapter ent4 Available Virtual I/O Ethernet Adapter (l-lan) ent5 Available Virtual I/O Ethernet Adapter (l-lan) ent6 Available Virtual I/O Ethernet Adapter (l-lan) ent7 Available Virtual I/O Ethernet Adapter (l-lan) [ss55aa01][padmin][/home/padmin]#lscfg -vpl ent4 ent4 Virtual I/O Ethernet Adapter (l-lan) Network Address.............9EBF8000200B Displayable Message.........Virtual I/O Ethernet Adapter (l-lan) Hardware Location PLATFORM SPECIFIC Name: l-lan Node: l-lan@3000000b Device Type: network Physical Location: 。。。。 [ss55aa01][padmin][/home/padmin]#lscfg -vpl ent7 ent7 Virtual I/O Ethernet Adapter (l-lan) Network Address.............9EBF8000200E Displayable Message.........Virtual I/O Ethernet Adapter (l-lan) Hardware Location 2. 将实际物理网卡加以聚合,做成 enternet chanel 网卡

mkvdev -lnagg ent0,ent2 mkvdev -lnagg ent1,ent3 可以看到新生成了 ent8,ent9

ent8 Available EtherChannel / IEEE 802.3ad Link Aggregation ent9 Available EtherChannel / IEEE 802.3ad Link Aggregation 3. 建立虚拟 sea 网卡,将聚合的 enternet chanel 网卡和虚拟网卡勾连起来,注意 VLAN 的 ID 设置要按设计和微分区设置一致:

mkvdev -sea ent8 -vadapter ent4 -default ent4 -defaultid 1 mkvdev -sea ent9 -vadapter ent5 -default ent5 -defaultid 98 [ss55aa01][padmin][/home/padmin]#lsdev -Cc adapter ... ent8 Available EtherChannel / IEEE 802.3ad Link Aggregation ent9 Available EtherChannel / IEEE 802.3ad Link Aggregation ent10 Available Shared Ethernet Adapter ent11 Available Shared Ethernet Adapter 可以看到生成了 ent10,ent11 这两个共享虚拟网卡。 至此,微分区需使用的共享网卡设置完成。

4. 设置 ip 地址,供远程访问 VIO server 使用,这个设置其实和微分区无关。

mktcpip -hostname ss55aa01 -inetaddr -interface en10 -netmask -gateway [ss55aa01][padmin][/home/padmin]#netstat -in Name Mtu Network Address Ipkts Ierrs Opkts Oerrs Coll en10 1500 link#2 1192509 0 35721 0 0 en10 1500 1192509 0 35721 0 0 。。。。。 至此,VIO server 的配置完成。 微分区的准备- profile 的配置

图片看不清楚?请点击这里查看原图(大图)。

除 CPU 设置为共享,设置虚拟 CPU 外,其他和划分普通分区类同,确认结果如下: CPU 确认: 内存配置确认:

设备确认,注意,这里由于设备均为共享 VIO server,所以没有选择任何设备,实际配置可以根据实际情况选择,如分区配 HA 时有 2 块串口卡,可以选择。

按照设计,配置网卡 scis 卡,注意对应关系

网卡配置,请参照设计阅读此处,4、5 为一个 VLAN。 6、7 为另一个 VLAN,另一个网段。 微分区的安装和配置

微分区的安装和配置和普通的分区没有什么本质的区别,但此处由于使用了 VIO server 需要注意网卡和硬盘都是虚拟出来的,VIO server 如果没有激活,这些设备都会找不到。 结束语

就 VIO server 和微分区本身来讲,配置并不复杂,但有以下几点需要注意:

预先的规划和设计却非常重要,如果概念不清楚,配置的正确性无法保证,可用性和可靠性自然难以保证。尤其是 VIO server 的设计,由于相关分区的 I/O 需要通过此分区,所以一定要考虑确认清楚再动手实施。

配置完成后,需要密切监控 VIO server 和各个微分区的性能情况,及时加以调整,以达到最优的运行状态。

以往的经验,Power5 的 PLM 并不好用,在 Power6 已淘汰,由 Power6 的 Multiple Shared Processor Pools 等功能替代,但对内存的使用似乎还没有有效的动态调整手段,建议还是利用 nmon 等工具密切监视,及时加以手工调整。

因篇幅问题不能全部显示,请点此查看更多更全内容

Top