HP-UX 虚拟化技术IVM4.1 实施参考
HP-UX 虚拟化技术IVM4.1 实施参考
最近配合CMSZ进行HP虚拟化技术VM进行测试,在客户现场搭建了一套VM环境,在配置及使用的过程中一些经验共享给大家,让未实施过VM环境的同事可以很快上手进行实际操作。
HPUX IVM(Integrity VM)这个软件在 VSE-OE和 DC-OE 里面自带,有兴趣的兄弟可以装着测试,也可以从HP的网站下载。
实施环境: HP-UX 11.31 VSE-OE,安装IVM4.1(现在应该有更新的版本了),硬件环境是HP RX7640 ,CPU及内存较多。
1. 安装 Integrity VM4.1的阻止因素 Ø Ø Ø
安装篇
必须在hpux11iv3的系统上才能安装IVM4.1; IVM只能安装在物理主机或Npar分区;
IVM不支持(HFS) 文件系统。安装 Integrity VM 之前必须删除所有条目。请使用以下命令检查这些条目:
# grep -i hfs /etc/fstab
Ø IVM与HP System Insight Manager (HP SIM) 服务器软件包不兼容,不能将IVM与SIM安装在同一系统。请使用以下命令检查此产品: # swlist | grep HPSIM-HP-UX
Ø
IVM与Vpar不兼容,VPAR 的机器上不能安装 HP-IVM。请使用以下命令检查此产品: # swlist -l bundle | grep \"VirtualPartition\"
2. 软件包名称 Ø
Integrity VM 发行版包含以下软件: • T2767CC — B.04.10 Integrity VM
• T8718AC — B.04.10 Integrity VM 联机迁移软件包,作为一个单独产品在 Application Software(AR) DVD 中提供。
• VMGuestLib — B.04.10 Integrity VM Guest Support Libraries,作为 HP-UX VSE-OE 的一部分安装,它是 Integrity VM 必需的软件。
• VMGuestSW — B.04.10 Integrity VM Guest 虚拟机支持软件
• VMProvider — 用于 Integrity VM 的 B.04.10 WBEM Provider,允许使用 HP Integrity VMManager 管理 VM 主机
• VMKernelSW — B.04.10 Integrity VM 内核软件
• HP-UX 11i V3 — 为 VM 主机系统提供的 HP-UX 11i v3 Virtual Server Operating Environment [VSE-OE]
• PRM-Sw Krn — 作为 HP-UX VSE-OE 的一部分安装,对于 Integrity VM 而言是必需的 • B8465BA — 用于 HP-UX 的 HP WBEM Services,作为 VSE-OE 的一部分安装,对于 IntegrityVM 而言是必需的 Ø
在惠普的网站http://software.hp.com网站输入T2767CC就可以搜索下载相关软件。
3. VM模式启用 Ø
刚安装完VM需要重启主机,这里注意,VM模式不支持超线程技术,需要在系统状态下关闭该技术,否则HP vm无法启用。关闭超线程技术命令为: # /usr/sbin/setboot -m off Ø
如果不关闭超线程技术,系统启动到VM模式会报错如下:
/sbin/rc2.d/S533hpvm start
ERROR: Integrity VM software cannot be started when hyperthreading is enabled (getconf SC_HT_ENABLED). Use /usr/sbin/setboot -m off and reboot to enable this system as an Integrity VM host.
4. 验证 Integrity VM 的安装 Ø
要验证是否已成功安装 Integrity VM,请输入以下命令: #hpvminfo
hpvminfo: Running on an HPVM host. Ø
要准确查看已安装的特定软件包的版本,请输入 swlist # swlist | grep -i \"integrity vm\"
T2801AA B.04.10.02 Integrity VM Trial Bundle
VMGuestLib B.04.10 Integrity VM Guest Support Libraries VMGuestSW B.04.10.02 Integrity VM Guest Support Software VMKernelSW B.04.10 Integrity VM Kernel Software VMProvider B.04.10 WBEM Provider for Integrity VM
Ø
5. 内存的需求 Ø Ø
HP 虚拟化VM包含vm host与vm guest,所有vm guest需要在vm host主机创建,因此vm host也需要消耗额外的系统资源,主要包括CPU与内存。 内存消耗计算:
VM host:1250MB(固定值)+8.5%的总内存大小;
VM guest:实际使用的内存为分配内存+8%分配内存(vm guest额外消耗)
例如,具有 16 GB 内存的一个 VM 主机以及两个分别配置有 3 GB 内存的 VM guest,其内存需求计算如下:
• 2.58 GB 用于 VM 主机(1250 MB 加 16 GB 的 8.5%) • 6.48 GB 用于 guest 虚拟机的总内存需求(6 GB 的 108%)
命令
安装 Integrity VM 后,系统将创建 /etc/rc.config.d/hpvmconf文件来记录VM相关配置信息。
• 总需求 = 9.06 GB 内存
因此,还剩余 6.93 GB 内存,可用于其他 guest 虚拟机。
6. 网络的配置 Ø
一个正常工作的已配置网络。要支持 guest 虚拟机网络访问,VM Host 至少必须有一个可正常工作的网络接口卡 (NIC)。
7. 创建虚拟机 Ø
hp 的虚拟机可以支持三种操作系统的分别是:HP-UX、WINDOWS、LINUX,这里就拿 HP-UX 来举例,创建虚拟机其实很简单,与大家熟悉的Vpar或Npar命令类似,这里主要是hpvm开头的相关命令。
#hpvmcreate -P vm01(虚拟分区名字) –O hpux -c 1 –e 10 –r 1536M Ø
使用命令的 -c指定虚拟 CPU的数目。选项指定虚拟机可以使用的虚拟 CPU (vCPU) 的数目。如果不指定 vCPU 的数目,则缺省为 1 个。每个虚拟机至少具有一个 vCPU。运行中的虚拟机可以使用的 vCPU 的数目不能超过 VM Host系统上的物理 CPU 的数目。但是通过 Integrity VM,创建的虚拟机的 vCPU 数目可以超过 VM Host 系统上的物理 CPU 数目。如果物理 CPU 的数目不足以运行虚拟机,则会显示警告消息。通过此功能,可以创建适用于将来配置的虚拟机。但是,虚拟机无法在物理 CPU 数目不足的 VM Host 系统上启动。 Ø
使用 -O操作系统类型选项。指定将在虚拟机上运行的操作系统的类型。此选项不是必需的。如果不提供操作系统类型,则缺省为 UNKNOWN。安装操作系统和引导 guest 虚拟机时,该guest虚拟机配置参数将自动设置为适当的操作系统类型。操作系统类型只能为hpux、windows及linux三种。 Ø
使用 –e提供虚拟机的动力保障能力。是保证提供给虚拟机的每个虚拟 CPU 的最低处理能力。创建虚拟机时,可以选项将动力保障能力指定为从 5% 到 100% 之间的百分比。如果不指定动力保障能力,则虚拟机缺省将获得 10% 的动力保障能力。启动虚拟机时,VM Host 可确保每个正在运行的虚拟机拥有足够的处理能力,来获得其动力保障能力。对于具有多个虚拟 CPU 的虚拟机,可保证虚拟机配置中的每个 vCPU 都具有动力保障能力。例如,如果某虚拟机具有四个 vCPU,动力保障能力设置为 12%,则 VM Host会确保为该虚拟机提供至少相当于 48% 的物理 CPU。 Ø
使用 –r指定内存量。指定要分配给 guest 虚拟机的虚拟内存量。如果不指定内存分配,则缺省为2 GB。
配置篇
8. 创建虚拟存储设备 Ø
VM guest可以共享VM host的各种资源,包括磁盘、DVD、tape等等,建议VM guest使用的系统空间处于独立磁盘以提高IO能力,当然也可以利用vm host的空间作为虚拟磁盘来安装操作系统。 Ø
虚拟磁盘类型和虚拟 DVD 类型,每种大的类型又分了三个小类型,这里就拿 VM HOST的 LUN 和 DVD 举例 #hpvmmodify #hpvmmodify Ø
–P vm01 –a disk:scsi::disk:/dev/rdisk/disk7(把 VM HOST 的 LUN 作为虚–P vm01 –a disk:avio_stor::disk:/dev/rdisk/disk7
拟操作系统的根盘,这个 VM HOST 的 LUN 最好跟本机不在同一条 SCSI 线上)
上面两个命令中scsi与avio_stor是指驱动类型,主要用于disk,avio_stor可以提高磁盘IO性能,但需要额外安装驱动(ivm包在hpux上会装),只能在HPUX上使用,在windows及linux类型的vm guest无法使用。 #hpvmmodify
–P vm01
–a dvd:scsi::disk:/dev/rdisk/disk4(虚拟 DVD 到虚拟分区中,
这个由于没有多路径的限制,参数可以是 SCSI)
#hpvmmodify -P vm_unix31a -a tape:scsi::attach:/dev/rmt/0mn(指定磁带机至VM guest) Ø
虚拟 DVD 是模拟的 SCSI DVD-ROM,其虚拟介质来自 VM Host 上的 CD/DVD 驱动器中的磁盘。使用 HP-UX sdisk 字符设备文件指定 VM Host CD/DVD 驱动器。 尽管虚拟 DVD 是只读的,但物理 VM Host CD/DVD 驱动器的缓慢性妨碍了它们在活动虚拟机之间的共享。因此,每次只能将特定的虚拟 DVD 资源分配给一个活动的虚拟机。可以在活动虚拟机之间动态更改虚拟 DVD 资源。在本示例中,虚拟 DVD 资源语句为 vd:scsi::disk:/dev/rdisk/disk4。要使虚拟机识别虚拟 DVD,VM Host CD/DVD 驱动器中必须存在物理介质。如果虚拟机启动时未添加介质,则可以在虚拟机打开之后,将其插入 VM Host CD/DVD 驱动器。guest 虚拟机操作系统重新扫描时将获取新介质,并将虚拟 DVD 添加到虚拟机。 备注:如果虚拟机在新安装操作系统的时候一定要插入启动盘,否则虚拟机不会把DVD加到启动设备里,更换第2张光盘的时候需要调用虚拟机的CONSOLE,通过CTRL+B,调用虚拟的VMP,这样才能更换光盘,否则光驱是不会弹出来的) 管理功能Integrity VM 命令 弹出虚拟 DVD。vMP> 拟 DVD。vMP> in Ø
9. 创建虚拟网络 Ø
对于虚拟机vm guest来讲,如果要能够正常启动,必须要分配至少一块虚拟网卡,虚拟网卡由vm host的物理网卡虚拟生成,先将vm host物理网卡虚拟化为一个虚拟网络交换机(vswitch),分配给vm guest的各个虚拟网卡就连接在这个虚拟交换机端口上. Ø
创建 VSWITCH #hpvmnet -c Ø
-S Vswitch1 -n 0 (创建一个名字为 Vswitch1 的交换机,通过 VM HOST物理
网卡 lan0 与外界通信)
ej ;插入虚
如何进入vm guest的虚拟console,vm host主机执行命令hpvmconsole –P vm_guest_name即可进入vMP>, 与实际mp操作类似。
为虚拟机分配虚拟网卡
#hpvmmodify –P vm01 –a network:lan::vswitch:Vswitch1(在虚拟操作系统的交换机上增加
一个网卡,这个网卡在虚拟机操心系统显示为 LAN0,MAC 地址会自动生成,这里的驱动lan在HPUX类型虚拟机可以指定为avio_lan以提高IO性能)
Ø 完成这步之后,虚拟机就可以和外部通信了,真正的变成了一台独立运行的服务器了,使用命令hpxmstatus -P vm_guest显示如下:
#hpvmstatus -P vm_unix31a [Virtual Machine Details]
Virtual Machine Name VM # OS Type State
==================== ===== ======= ======== vm_unix31a 1 HPUX Off
[Authorized Administrators] Oper Groups : Admin Groups : Oper Users : Admin Users :
[Virtual CPU Details]
#vCPUs Entitlement Maximum ====== =========== ======= 2 50.0% 100.0%
[Memory Details] Total Reserved Memory Memory ======= ======== 4096 MB 64 MB
[Storage Interface Details]
Guest Physical
Device Adaptor Bus Dev Ftn Tgt Lun Storage Device
======= ========== === === === === === ========= ========================= disk avio_stor 0 0 0 0 0 disk /dev/rdisk/disk38 disk avio_stor 0 0 0 1 0 disk /dev/rdisk/disk40 disk avio_stor 0 0 0 2 0 disk /dev/rdisk/disk41 dvd avio_stor 0 0 0 3 0 disk /dev/rdisk/disk4 tape scsi 0 4 0 0 0 attach /dev/pt/pt_tape1
[Network Interface Details]
Interface Adaptor Name/Num PortNum Bus Dev Ftn Mac Address
========= ========== ========== ======= === === === ================= vswitch avio_lan vnet_prd 1 0 1 0 36-c5-72-b1-97-c7 vswitch avio_lan vnet_hb 1 0 2 0 5e-be-3c-3d-89-40
[Misc Interface Details]
Guest Physical
Device Adaptor Bus Dev Ftn Tgt Lun Storage Device
======= ========== === === === === === ========= ========================= serial com1 tty console
备注:
(1) 虚拟机至少要有一块网卡,否则装好系统后会直接 CRASH
(2) 虚拟机的资源一定要在安装前设计好,否则在安装过程中会报 ERROR 这种错误,或者直接 CRASH。
(3) 创建虚拟网络可以有两种方式:一种是直接创建虚拟网络在 VM HOST 和 GUST之间通信,另外一种就是和外界进行通信,本次操作是基于和外部通信的方式。
使用篇
在vm guest没有网络时可以通过vm host命令进入vm guest的虚拟console进行相关操作,包括加电、重启到EFI并安装操作系统等。 #hpvmconsole -P vm_guest_name
10. VM host与VM guest切换 Ø
#hpvmconsole -P vm_unix31a
vMP MAIN MENU
CO: Console
CM: Command Menu CL: Console Log SL: Show Event Logs
VM: Virtual Machine Menu HE: Main Help Menu X: Exit Connection
[vm_unix31a] vMP> pc
Current System Power State: Off
Power Control Menu: C - Power Cycle ON - Turn Power On OFF - Turn Power Off G - Graceful Shutdown
Enter menu item or [Q] to Quit: on
System will be powered on. Confirm? (Y/[N]): y
-> System is being powered on.
Ø
在VM guest系统安装完成,对虚拟网卡进行IP配置以后,VM guest就可以与外界通讯,可以直接进行telnet等操作,与物理主机无异。
11. 系统安装 Ø Ø
通过光驱或磁带对系统进行安装,与物理主机无异,在相应的dvd或tape分配给VM guest后,可以通过vm guest的虚拟console启动vm guest到EFI界面,通过dvd或tape安装操作系统。 VM guest也可以通过ignite server进行系统的安装,在分配虚拟网卡给vm guest时,系统会自行为虚拟网卡分配一个MAC地址,通过该MAC地址与ignite server进行通讯,进行系统安装。步骤为:
编辑/etc/bootptab文件,添加ignite client(vm guest)的相关信息,包括IP、mac等; 编辑/etc/inetd.conf文件,打开bootp及ignite服务; 调整ignite server /var/opt/ignite/clients下相关配置; 从vm guest以网卡引导系统。
具体步骤可以参考ignite相关手册。
12. IBM 虚拟化技术与 HP 虚拟化技术对比
13. 简要比较 vPar 以及 VM host 的异同(这里是转载的)
1,安装
就安装操作来说,vPar的建立比VM host的建立简单,通常一个vPar只需要一条命令,而建立一个VM host往往需要好几条命令。例如,建立vpar时:
# vparcreate -p vpar10 -a cpu::4 -a cpu:::4:4 -g ILM:1024 -g CLM:256 –a mem::12288 -a
io:1/0/0/2/0.6.0:BOOT -a io:1/0/0/3/0.6.0 -a io:1/0/0/2/1.2.0 -a io:1/0/12 -a io:1/0/1 -a io:1/0/2 -a io:1/0/4 -
其它
a io:1/0/8 就一条命令,将vPar所需磁盘、磁带机设备、光驱、网卡、光纤卡、内存、CPU等全都建立起来,而建立VM host,例如: # hpvmcreate -P hpvma -O hpux -c 2 -e 100 -r 4G -a
disk:scsi::disk:/dev/rdsk/c5t0d0 这里可以看到建立的包括VM host名、内存、CPU以及磁盘的划分,但这只是整个过程中的一条命令,如果要添加磁带机或虚拟网络设备则需要其他命令来完成。 就准备过程来说,建立vPar的前期准备比建立VM host需要耗费更多的时间;
2,与nPar的互动:
这里可以简单的形容为,nPar与vPar相克,而nPar与VM host相容。因为同一时间,要么只能进入vPar,要么只能进入nPar。比如我现在在vPar状态下,如果需要进入nPar,则需要通过vparenv来更改环境变量,然后重启系统。而nPar与VM host则不像与vPar般水火不容,在npar下,如果想要进入VM,则只需要通过一条命令“hpvmconsole –p vm_name”即可。如果需要从VM中退出来,只需要键入ctrl+x”即可;
3,共享磁盘,yes or no?
举个简单的例子,一台HP rx8640,外接盘柜,没有EMC或者HDS的连接,现在我的nPar0下有两个vPar,需要通过这两个vPar做MC双机测试,不靠外接盘柜是办不到的。盘柜里面的磁盘如果想要得到使用,在vparcreate的时候,只能属于单个的vPar,这样就做不到磁盘的共享。而在VM host中,可以通过类似“hpvmdevmgmt –m gdev:/dev/rdsk/c7t1d0:attr:SHARE=YES”这样的命令来将盘柜中磁盘设置为共享方式,这样在VM host中就能够轻松实现磁盘共享的功能,搭建MC双机环境也不需要额外的通过光纤线来连接EMC或HDS存储再进行划分;
4,操作系统的安装,谁更快捷?
就 vPar 和 VM host 来说,都要涉及到操作系统的安装,常用的方法有三种:磁带机安装、光盘安装、硬盘对拷。对于创建的第一个 vPar,我们选择的启动盘通常就是 nPar的启动盘,所以当第一个nPar 建立后,就自动获得了操作系统,而不需要另外安装。就这点来说,vPar 似乎比 VM host 要快捷。但如果一个 nPar 里面划分多个 vPar 或 VMhost,这个时候 VM host 就体现出其显而易见的优点,因为在 VM host 中存在另一种称为克隆的方法,且支持同一时间对多个 VM host 进行克隆,这样待克隆完毕之后,其他 VM host 也都获得了操作系统,缺点是时间比较慢,最好一对一克隆;
5,磁带机的添加删除
在多个 vPar、VM host 存在的时候,通常会选择通过磁带机来恢复操作系统的方法,这样比光盘安装快捷,更比硬盘对拷省事。但通常一个 nPar 仅连接一个磁带机,这个时候就需要把磁带机在多个设备之间进行切换,以满足操作系统的安装需求。就操作来说,VM host 的快捷毋庸置疑,因为它支持在线切换磁带机设备,比如: hpvmmodify -P hpvm2 -a/d tape:scsi::attach:/dev/rscsi/c4t4d0,可谓是所见即所得,就这点来说 VM host 实在比 vPar 下面操作更为简单; 以上就是实践当中的五点体会,相对来说我更加喜欢 VM host 一些,因为可以配置共享存储、方便安装操作系统。就他们的相同点来说,那就很明显了。这两种方法都做到了最大程度的利用系统资源,简要概括就是省电省钱省空间。在命令行操作方面也有很大的相似性,比如需要观察资源分配明细的时候会用到 vparstatus/hpvmstatus,创建的时候会用到 vparcreate/hpvmcreate,修改的时候会用到vparmodify/hpvmmodify、parremove/hvmremove。
因篇幅问题不能全部显示,请点此查看更多更全内容