云计算国产化之路 vnc登录 文件系统直通(virtio-9p) 扩展qemu接口 gpg WARNING 珍藏博客 虚拟内存情况dommemstat分析 免密码自动登录脚本 Linux网桥 测试网段IP占用情况 Linux 进程状态 systemc强制依赖 调试openstack ut uefi p2v 重做ubuntu内核 virsh创建虚拟机简介 virtio IO路径 虚拟化层升级后磁盘无法卸载卷 vmtouch使用 Taint flags 主机和虚拟机文件共享处理的几种方法 kvm分析工具 kvm中对磁盘的io cache 虚拟化不同导致的guestos中软件安装差异(未解决) 设备直通(PCI Assignment)到底是咋整的 virtio到底是咋整的 内核启动参数 虚拟化实时性提升(零)之配置步骤 中断虚拟化(pic)到底是咋整的 中断虚拟化(apic)到底是咋整的 Raid卡配置丢失导致服务器无法启动 tainted kernels cpu stuck for 23s问题分析 虚拟化实时性提升(一)之hostOS切换为强实时系统 内存虚拟化到底是咋整的 qemu-kvm中vcpu虚拟化到底是咋整的 风河虚拟化技术点分析 使用qga的好处 qemu迁移代码分析 虚拟机串口配置及其导出到主机pts和console.log System-based I/O vs. Raw I/O 虚拟机使用Hugepage(大页) 硬件辅助分页(hardware assisted paging) 修改centos7默认启动项目 virtio的工作流程——kernel中virtio-pci初始化(2) virtio的工作流程——qemu中virtio-backend初始化(1) qmp ceilometer取不到memory.usage指标 Virtio-Balloon超详细分析 slabtop输出 虚拟机磁盘cache导致的host os kernel崩溃 虚拟机cpu和memory性能优化测评 PCI配置空间(PCI Configuration Space) centos下网卡设备直通(VT-dpci passthrough)遇到的问题及其解决思路 libguestfs详解 yum卸载软件包及其依赖 通过原始Centos ISO来定制自己的ISO centos下网卡设备直通(VT-d,pci passthrough) (占位符)window虚拟机中拔盘如何通知到libvirt和qemu后端的 cirrus漏洞分析CVE-2017-2615 XSA-208 qcow2随笔 控制寄存器概览 ceilometer对接postgresql 解压initrd和vmlinuz qemu guest agent验证 QEMU升级指南(待续) ubuntu中kdump的配置 qemu(2.3)接口梳理 热迁移导致的FC存储场景下的multipath卷残留问题分析 virsh命令(4)secret,snapshot,pool,volume部分 virsh命令(3)之interface,filter,network virsh命令(2)monitor,host,nodedev部分 virsh命令(1)之domain部分 QEMU内存管理之FlatView模型(QEMU2.0.0) ovirt基于sanock的高可用(主机粒度HA) Sanlock防脑裂场景功能测试用例 gnocchi配置及与ceilometer对接指南 make patch for libvirt in centos centos使用sanlock指导 高可用nfs资料 ubuntu14中使用sanlock指导 LVM操作指南 sanlock相关功能验证流程汇总 make patch for libvirt in ubuntu libvirt.so.0-version `LIBVIRT_PRIVATE_1.2.7' not found gdb debug libvirt 基于ubuntu社区源码包编译libvirt compile libvirt(centos) No PCI buses available nfs lead to Linux halt nfs install and config anti-virus for cloud platform nova fetch image from glance(something about _base) token auth process ovs入门指南 virt software anti-virus something about ceilometer disk sample context interview questions openstack vm injection openstack Restful and RPC murano 概览 创建虚拟机流程(compute节点)之网络创建 创建虚拟机流程之compute_api之虚拟机实例填充之配额检测 创建虚拟机流程之compute_api之基本参数生成 创建虚拟机流程之compute_api 创建虚拟机流程(主) 创建虚拟机之image 创建虚拟机流程之准备网桥 创建虚拟机流程之virt 创建虚拟机流程之compute节点 CI/CD研发流程之工程创建 CI/CD研发流程之代码合入 CI/CD研发流程之UT(单元测试) 向openstack社区合入代码记 openstack/ceilometer/gnocchi杂谈 影子页表原理 mem_add(exec.c) qemu编译安装调试 openstack/ceilometer/gnocchi之Grafana简介 openstack wiki etcd openstack计量ceilometer openstack计费cloudKitty enventlet backdoor USB 安装VMWARE ESX pycharm设置指南 无法执行modprobe -a kvm-intel解决办法 QEMU配置项 网络不通小记 libvirt之XML(虚拟机定义文件) openstack-horizon 证书认证 ceilometer与ceph对接 openstack定时任务剖析(TODO) 服务器重启后mongodb进程无法启动 ubuntu14下新增openstack服务到service的导引 ERROR 1045(28000)-数据库连不上 Python两个内置函数—locals和globals unknown exit, hardware reason 31

os section of libvirt vm_xml

2016年06月17日

背景知识

一句话总结

虚拟机模拟成那种硬件架构,其本质上受限于物理主机支持的能力
然后通过虚拟化软件(qemu)模拟不同的硬件结构

libvirt

今天在看书的时候看到libvirt的虚拟机XML中有os这一项
让我们一探究竟

这部分内容主要由两部分组成

系统类型-type

type规定了guestOS的类型,这里是hvm(hardware virtual machine)
代表是可以直接运行在物理设备上的os
这种os不用针对虚拟化做修改,也就是原生的os,不感知自己是否是虚拟化的
底层的虚拟化需要时全虚拟化(full virtualization) 与之相对的xen上支持的os可能需要对os做一定的修改

arch指定了当前虚拟机的cpu系统结构,这里是x86_64,代表模拟的是64位的x86架构

mainchine指定了虚拟机的机器类型,具体支持那些类型
可以通过命令virsh capabilities查到
如下面,是在本人的一台机器上,查询到的支持信息中64位的部分
这里重点展示的是当前机器能够模拟的虚拟机的类型支持能力

<guest>
  <os_type>hvm</os_type>
  <arch name='x86_64'>
    <wordsize>64</wordsize>
    <emulator>/usr/bin/qemu-system-x86_64</emulator>
    <machine canonical='pc-i440fx-utopic' maxCpus='255'>ubuntu</machine>
    <machine maxCpus='255'>pc-1.3</machine>
    <machine maxCpus='255'>pc-0.12</machine>
    <machine maxCpus='255'>pc-q35-1.6</machine>
    <machine maxCpus='255'>pc-q35-1.5</machine>
    <machine maxCpus='255'>pc-i440fx-1.6</machine>
    <machine canonical='pc-q35-2.2' maxCpus='255'>q35</machine>
    <machine maxCpus='255'>pc-i440fx-1.7</machine>
    <machine maxCpus='1'>xenpv</machine>
    <machine maxCpus='255'>pc-q35-2.1</machine>
    <machine maxCpus='255'>pc-0.11</machine>
    <machine maxCpus='255'>pc-0.10</machine>
    <machine canonical='pc-i440fx-2.2' maxCpus='255'>pc</machine>
    <machine maxCpus='255'>pc-1.2</machine>
    <machine maxCpus='1'>isapc</machine>
    <machine maxCpus='255'>pc-i440fx-trusty</machine>
    <machine maxCpus='255'>pc-q35-1.4</machine>
    <machine maxCpus='128'>xenfv</machine>
    <machine maxCpus='255'>pc-0.15</machine>
    <machine maxCpus='255'>pc-i440fx-1.5</machine>
    <machine maxCpus='255'>pc-i440fx-1.4</machine>
    <machine maxCpus='255'>pc-q35-2.0</machine>
    <machine maxCpus='255'>pc-0.14</machine>
    <machine maxCpus='255'>pc-1.1</machine>
    <machine maxCpus='255'>pc-q35-1.7</machine>
    <machine maxCpus='255'>pc-i440fx-2.1</machine>
    <machine maxCpus='255'>pc-1.0</machine>
    <machine maxCpus='255'>pc-i440fx-2.0</machine>
    <machine maxCpus='255'>pc-0.13</machine>
    <domain type='qemu'/>
    <domain type='kvm'>
      <emulator>/usr/bin/qemu-system-x86_64</emulator>
    </domain>
  </arch>
  <features>
    <cpuselection/>
    <deviceboot/>
    <disksnapshot default='on' toggle='no'/>
    <acpi default='on' toggle='yes'/>
    <apic default='on' toggle='no'/>
  </features>
</guest>

其中,i440fx代表模拟的是 INTEL 的 i440fx 主板芯片组

启动方式-boot

boot是指定从哪里引导系统,类似于bios上的启动
如这里代表从硬盘启动

当然也可以从光驱启动,如使用ISO镜像启动的虚拟机,其XML中如下

qemu

QEMU 模拟的是 INTEL 的 i440fx 硬件芯片组
QEMU在初始化硬件的时候,最开始的函数就是pc_init1。
在这个函数里面会相继的初始化CPU,中断控制器,ISA总线,然后就要判断是否需要支持PCI
如果支持,则调用i440fx_init初始化PCI总线。

i440fx_init函数主要参数就是之前初始化好的ISA总线以及中断控制器,返回值就是PCI总线
之后我们就可以将我们自己喜欢的设备统统挂载在这个上面

参考文献

http://libvirt.org/formatdomain.html
http://www.ibm.com/developerworks/cn/linux/1410_qiaoly_qemubios/
http://blog.csdn.net/yearn520/article/details/6576875
http://www.yjfy.com/I/Intel/mainboardchipset/Intel.htm