-
當前位置:首頁 > 創(chuàng)意學院 > 技術 > 專題列表 > 正文
virsh恢復快照命令(vm恢復快照后還能返回嗎)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于virsh恢復快照命令的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關鍵詞,就能返回你想要的內容,越精準,寫出的就越詳細,有微信小程序端、在線網頁版、PC客戶端
創(chuàng)意嶺作為行業(yè)內優(yōu)秀的企業(yè),服務客戶遍布全球各地,如需了解SEO相關業(yè)務請撥打電話175-8598-2043,或添加微信:1454722008
本文目錄:
一、kvm虛擬機存儲速度
kvm性能優(yōu)化,主要集中在cpu、內存、磁盤、網絡,4個方面,當然對于這里面的優(yōu)化,也是要分場景的,不同的場景其優(yōu)化方向也是不同的,下面具體聊聊這4個方面的優(yōu)化細節(jié)。
1. CPU
cpu優(yōu)化需要搞清楚node、socket、core、logic processor的關系,知道內存、l3-cache、l2-cache、l1-cache和cpu的關系。
針對kvm的優(yōu)化,一般情況,都是通過pin,將vm上的cpu綁定到某一個node上,讓其共享l3-cache,優(yōu)先選擇node上的內存,bind方法可以通過virt-manage processor里面的pinning動態(tài)綁定。這個綁定是實時生效的。
由于沒有下載到speccpu2005,所以寫了個大量消費cpu和內存的程序,來檢驗綁定cpu所帶來的性能提升,程序如下:
#include <stdio.h>
#include <pthread.h>
#include <stdlib.h>
#define BUF_SIZE 512*1024*1024
#define MAX 512*1024
#define COUNT 16*1024*1024
char * buf_1 = NULL;
char * buf_2 = NULL;
void *pth_1(void *data)
{
char * p1 = NULL;
char * p2 = NULL;
int value1 = 0;
int value2 = 0;
int value_total = 0;
int i = 0;
int j = 0;
for (i = 0; i <=COUNT; i++) {
value1 = rand() % (MAX + 1);
value2 = rand() % (MAX + 1);
p1 = buf_1 + value1*1024;
p2 = buf_2 + value2*1024;
for (j = 0; j < 1024; j++) {
value_total += p1[j];
value_total += p2[j];
}
}
return NULL;
}
void *pth_2(void *data)
{
char * p1 = NULL;
char * p2 = NULL;
int value1 = 0;
int value2 = 0;
int value_total = 0;
int i = 0;
int j = 0;
for (i = 0; i <=COUNT; i++) {
value1 = rand() % (MAX + 1);
value2 = rand() % (MAX + 1);
p1 = buf_1 + value1*1024;
p2 = buf_2 + value2*1024;
for (j = 0; j < 1024; j++) {
value_total += p1[j];
value_total += p2[j];
}
}
return NULL;
}
int main(void)
{
buf_1 = (char *)calloc(1, BUF_SIZE);
buf_2 = (char *)calloc(1, BUF_SIZE);
memset(buf_1, 0, BUF_SIZE);
memset(buf_2, 0, BUF_SIZE);
pthread_t th_a, th_b;
void *retval;
pthread_create(&th_a, NULL, pth_1, 0);
pthread_create(&th_b, NULL, pth_2, 0);
pthread_join(th_a, &retval);
pthread_join(th_b, &retval);
return 0;
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
偶數cpu在node 0 上,奇數cpu在node 1上,vm有2個cpu,程序有2個線程,分別將vm綁定到8,9和10,12,通過time命令運行程序,time ./test,測試結果如下
8,9
real 1m53.999s
user 3m34.377s
sys 0m3.020s
10,12
real 1m25.706s
user 2m49.497s
sys 0m0.699s
可以看出,綁定到同一個node上,比綁到不同node上其消耗時間小不少。測試過程中,也發(fā)現如果提供8、9、10、11的cpu,系統(tǒng)會在大部分時間選擇8、10和9、11,所以猜測,kvm在cpu bind上,可能已經做了優(yōu)化,會盡可能的往同一個node上綁定。
這里需要注意的一點是,通過virt-manage pin cpu,僅僅進行cpu bind,會共享l3-cache,并沒有限制一定用某一個node上的內存,所以仍然會出現跨node使用內存的情況
2. 內存
優(yōu)化項包括EPT、透明大頁、內存碎片整理、ksm,下面一個一個來介紹
2.1 EPT
針對內存的使用,存在邏輯地址和物理地址的轉換,這個轉換時通過page table來進行的,并且轉換過程由cpu vmm硬件加速,速度是很塊的。
但是引入vm之后,vm vaddr----->vm padddr--------->host paddr,首先vm需要進行邏輯地址和物理地址的轉換,但是vm的物理地址還是host機的邏輯地址,需要再進行一次邏輯地址到物理地址的轉換,所以這個過程有2次地址轉換,效率非常低。
幸虧intel提供了EPT技術,將兩次地址轉換變成了一次。這個EPT技術是在bios中,隨著VT技術開啟一起開啟的。
2.2 透明大頁
邏輯地址向物理地址的轉換,在做轉換時,cpu保持一個翻譯后備緩沖器TLB,用來緩存轉換結果,而TLB容量很小,所以如果page很小,TLB很容易就充滿,這樣就很容易導致cache miss,相反page變大,TLB需要保存的緩存項就變少,減少cache miss。
透明大頁的開啟:echo always > /sys/kernel/mm/transparent_hugepage/enabled
內存碎片整理的開啟:echo always> /sys/kernel/mm/transparent_hugepage/defrag
2.3 KSM
簡單理解就是可以將host機內容相同的內存合并,節(jié)省內存的使用,特別是當vm操作系統(tǒng)都一樣的情況,肯定會有很多內容相同的內存,開啟了KSM,則會將這些內存合并為一個,當然這個過程會有性能損耗,所以開啟與否,需要考慮使用場景,如果不注重vm性能,而注重host內存使用率,可以考慮開啟,反之則關閉,在/etc/init.d/下,會有兩個服務,服務名稱為ksm和ksmtuned,都需要關閉
3. 磁盤
磁盤的優(yōu)化包括:virtio-blk、緩存模式、aio、塊設備io調度器
3.1 virtio
半虛擬化io設備,針對cpu和內存,kvm全是全虛擬化設備,而針對磁盤和網絡,則出現了半虛擬化io設備,目的是標準化guest和host之間數據交換接口,減少交互流程和內存拷貝,提升vm io效率,可以在libvirt xml中設置,disk中加入<target dev='vda' bus='virtio'/>
3.2 緩存模式
從vm寫磁盤,有3個緩沖區(qū),guest fs page cache、Brk Driver writeback cache(qemu的cache)、Host FS page cache,在host上的設置,無法改變guest fs page cache,但是可以改變后面2個cache,緩存模式有如下5種,當采用Host FS page cache,會有一個寫同步,會實時將host cache中的數據flush到磁盤上,當然這樣做比較安全,不會丟失數據,但寫性能會受到影響。
writeback mode在mail server這種小文件 高io的服務器上,其性能是很差的,none模式大部分情況要比writethrough性能稍好一點,所以選擇none。
啟用方式在libvirt xml disk中加入<driver name='qemu' type='qcow2' cache='none'/>
3.3 aio
異步讀寫,分別包括Native aio: kernel AIO 和 threaded aio: user space AIO emulated by posix thread workers,內核方式要比用戶態(tài)的方式性能稍好一點,所以一般情況都選擇native,開啟方式<driver name='qemu' type='qcow2' cache='none' aio='native'/>
3.4 塊設備調度器
cfq:perprocess IO queue,較好公平性,較低aggregate throughput
deadline:per-device IO queue,較好實時性,較好aggregate throughput,不夠公平,當某些vm有大量io操作,占用了大量io資源時,其它后加入的vm很有可能搶占不到io資源。
這個目前筆者還沒有做過測試,但是查看網易和美團云的方案,都將其設置為cfq。
開啟方式:echo cfq > /sys/block/sdb/queue/scheduler
4. 網絡
優(yōu)化項包括virtio、vhost、macvtap、vepa、SRIOV 網卡,下面有幾篇文章寫的非常好
http://www.ibm.com/developerworks/cn/linux/1312_xiawc_linuxvirtnet/
http://xiaoli110.blog.51cto.com/1724/1558984
4.1 virtio
更改虛擬網卡的類型,由全虛擬化網卡e1000、rtl8139,轉變成半虛擬化網卡virtio,virtio需要qemu和vm內核virtio驅動的支持,這個原理和磁盤virtio原理一樣,不再贅述。
4.2 vhost_net
vhost_net將virtiobackend處理程序由user space轉入kernel space,將減少兩個空間內存拷貝和cpu的切換,降低延時和提高cpu使用率
4.3 macvtap
代替?zhèn)鹘y(tǒng)的tap+bridge,有4中模式,bridge、vepa、private、passthrough
1 Bridge
完成與 Bridge 設備類似功能,數據可以在屬于同一個母設備的子設備間交換轉發(fā). 當前的Linux實現有一個缺陷,此模式下MACVTAP子設備無法和Linux Host通訊,即虛擬機無法和Host通訊,而使用傳統(tǒng)的Bridge設備,通過給Bridge設置IP可以完成。但使用VEPA模式可以去除這一限制. macvtap的這種bridge模式等同于傳統(tǒng)的tap+bridge的模式.
2 VEPA
是對802.1Qbg標準中的VEPA機制的部分軟件實現,工作在此模式下的MACVTAP設備簡單的將數據轉發(fā)到母設備中,完成數據匯聚功能,通常需要外部交換機支持Hairpin模式才能正常工作。
3 Private
Private模式和VEPA模式類似,區(qū)別是子 MACVTAP之間相互隔離。
4 Passthrough
可以配合直接使用SRIOV網卡, 內核的macvtap數據處理邏輯被跳過,硬件決定數據如何處理,從而釋放了Host CPU資源。MACVTAP Passthrough 概念與PCI Passthrough概念不同,PCI Passthrough針對的是任意PCI設備,不一定是網絡設備,目的是讓Guest OS直接使用Host上的 PCI 硬件以提高效率。MACVTAP Passthrough僅僅針對 MACVTAP網絡設備,目的是饒過內核里MACVTAP的部分軟件處理過程,轉而交給硬件處理。綜上所述,對于一個 SRIOV 網絡設備,可以用兩種模式使用它:MACVTAP Passthrough 與 PCI Passthrough
4.4 PCI pass-through
直通,設備獨享。
4.5 SO-IOV
優(yōu)點是虛擬網卡的工作由host cpu交給了物理網卡來實現,降低了host cpu的使用率,缺點是,需要網卡、主板、hypervisor的支持。
測試結果,在實驗室2臺host,分別起1臺vm(vm1、vm2),用iperf測試vm1和vm2之間的吞吐量,用ping測試2者之間的響應時間,host機為百兆網卡,結果如下表所示,可以看出隨著優(yōu)化的深入,其吞吐量和響應時間都有所改善,由于暫時沒有硬件的支持,macvtap vepa和SR-IOV沒有得到測試。
測試工具 Iperf(ping)
rtl8139
87Mb/s(1.239ms)
virtio
89Mb/s(1.140ms)
Virtio + host_net
92Mb/s(1.014ms)
Macvtap(bridge) + virtio + host_net
94Mb/s(0.989ms)
host
95Mb/s(0.698ms)
總結來看網絡虛擬化具有三個層次:
1, 0成本,通過純軟件virtio、vhost、macvtap提升網絡性能;
2, 也可以用非常低的成本按照802.1Qbg中的VEPA模型創(chuàng)建升級版的虛擬網絡,引出虛擬機網絡流量,減少Host cpu負載,但需要物理交換機的配合;
3, 如果網絡性能還是達不到要求,可以嘗試SR-IOV技術,不過需要SR-IOV網卡的支持。
總結:文章總共闡述了cpu、內存、磁盤、網絡的性能優(yōu)化方案,大部分都是通過kvm參數和系統(tǒng)內核參數的修改來實現。
內核及虛擬化漫談
微信公眾號
分享linux開發(fā)技術及新聞熱點
點擊閱讀全文
打開CSDN APP,看更多技術內容
【實操干貨】KVM命令管理虛擬機與性能優(yōu)化_weixin_34059951的博客-CSDN...
簡要介紹KVM中經常使用的基本功能管理命令(CentOS7.4是宿主機中安裝的虛擬機); 1)、virsh -h #查看命令幫助 2)、ls /etc/libvirt/qemu #查看KVM的配置文件存放目錄(虛擬機系統(tǒng)實例配置文件的文件名為.xml) 3)、virsh list #查看...
繼續(xù)訪問
python虛擬機優(yōu)化_KVM虛擬機管理及性能優(yōu)化_weixin_39559804的博客-CSDN...
KVM采用全虛擬化技術,全虛擬化要由一個軟件來模擬硬件層,故有一定的損耗,特別是I/O,因此需要優(yōu)化。 1:CPU優(yōu)化 所有guestcpu 不要超過物理機的CPU總數,建議復制主機CPU配置。 2:內存優(yōu)化 1) :KSM(相同頁合并)開啟KSM會將相同的內...
繼續(xù)訪問
kvm虛擬機性能優(yōu)化方案
kvm性能優(yōu)化方案
KVM總結-KVM性能優(yōu)化之CPU優(yōu)化
任何平臺根據場景的不同,都有相應的優(yōu)化。不一樣的硬件環(huán)境、網絡環(huán)境,同樣的一個平臺,它跑出的效果也肯定不一樣。就好比一輛法拉利,在高速公路里跑跟鄉(xiāng)村街道跑,速度和激情肯定不同…
繼續(xù)訪問
KVM虛擬機的優(yōu)化歷程---按需優(yōu)化_weixin_33778544的博客
一、KVM為什么要調優(yōu) 性能的損耗是矛盾的根源,KVM采用全虛擬化技術,全虛擬化要由一個軟件來模擬硬件層,故有一定的損耗,特別是I/O輸入輸出。 KVM性能優(yōu)化主要在CPU、內存、I/O這幾方面,當然在這幾方面也是要分場景的,不同場景優(yōu)化...
繼續(xù)訪問
qemu-kvm虛擬機性能優(yōu)化_li_Jiejun的博客_qemu虛擬機...
在KVM虛擬機中運行mysql,發(fā)現與ESX虛擬機中比較,性能有些差。用sysbench測試KVM虛擬機中的mysql,TPS剛剛到1500級別。性能如圖:使用perf命令跟蹤KVM虛擬機對應的進程,情況如下:從圖中可以看出,這臺虛擬機的page_fault占比較高,其次是__...
繼續(xù)訪問
最新發(fā)布 KVM 虛擬化詳解
服務器虛擬化是云計算最核心的技術,而KVM是當前最主流的開源的服務器虛擬化技術。從Linux2.6.20起,KVM作為內核的一個模塊 集成到Linux主要發(fā)行版本中。從技術架構(代碼量、功能特性、調度管理、性能等)、社區(qū)活躍度,以及應用廣泛度來看,KVM顯現出明顯優(yōu)勢,已逐漸替換另一開源虛擬化技術Xen。在公有云領域,2017年之后AWS、阿里云、華為云等廠商都逐漸從Xen轉向KVM,而Google、騰訊云、百度云等也使用KVM。在私有云領域,目前VMware ESXi是領導者,微軟Hyper-V不少應用,
繼續(xù)訪問
恒天云技術分享系列3 – KVM性能調優(yōu)
恒天云技術分享:http://www.hengtianyun.com/download-show-id-11.html KVM是什么 KVM 是 kernel-based Virtual Machine 的簡稱,是一個開源的系統(tǒng)虛擬化模塊,自Linux 2.6.20之后集成在Linux的各個主要發(fā)行版本中。它使用Linux自身的調度器進行管理,所以相對于Xen,其核心源碼很少...
繼續(xù)訪問
KVM優(yōu)化_笛香幽谷(歐銳)的博客
KVM優(yōu)化 第1章 KVM 1.1 架構 圖表1 1 KVM基本架構圖 1. kvm 驅動:主要負責虛擬機創(chuàng)建,虛擬內存分配,VCPU寄存器讀寫以及VCPU運行; 2. Qemu:用于模擬虛擬機的用戶空間組件,提供I/O設備模型,訪問外設的途徑。
繼續(xù)訪問
KVM虛擬化性能優(yōu)化_weixin_34133829的博客
KVM虛擬化性能優(yōu)化 可從以下幾個方面優(yōu)化KVM虛擬機,提高虛擬機的性能。 1、全虛擬化使用半虛擬化驅動(virtio) virtio是KVM的半虛擬化機制,可提高IO性能,使用virtio可心顯著提高KVM性能。virtio包括磁盤驅動和網卡驅動,下面是在XML文件中...
繼續(xù)訪問
KVM 性能優(yōu)化之內存優(yōu)化
二、KVM 內存性能調優(yōu) 我們說完CPU方面的優(yōu)化,接著我們繼續(xù)第二塊內容,也就是內存方面的優(yōu)化。內存方面有以下四個方向去著手: 1. EPT 技術 2. 大頁和透明大頁 3. KSM 技術 4. 內存限制 2.1. EPT技術 EPT也就是擴展頁表,這是intel開創(chuàng)的硬件輔...
繼續(xù)訪問
KVM學習(二十一)性能監(jiān)視與優(yōu)化
為什么要監(jiān)視性能? 第一、了解服務器的工作負荷以及對服務器資源的影響 第二、了解性能的改變和性能趨勢以便及采取措施 第三、診斷系統(tǒng)問題并確認優(yōu)化措施 建立性能基線 性能基線是在一段時間中在典型的工作負荷和用戶連接數量的情況下收集的服務器性能數據。 在確定性能基線時,應當了解服務器所執(zhí)行的任務,以及執(zhí)行任務的時間和日期。 在部署階段建立性能基線,然后和實際性能進行比較。 及早建立性能基線有助于快速發(fā)...
繼續(xù)訪問
kvm 虛擬機的性能調優(yōu)_weixin_30512785的博客
2、kvm 自帶優(yōu)化。大多數的優(yōu)化都是默認配置的,只是通過了解這些優(yōu)化項來進一步了解linux 及kvm虛擬化 CPU優(yōu)化 場景1: 上下文切換: 宿主機 ring 0 ring 3 虛擬機 ring 0 ring 3 解決:vmware虛擬機編輯處理器--虛擬化引擎--勾選 ...
繼續(xù)訪問
KVM性能優(yōu)化--CPU篇_Shawn.Hu的博客_kvm cpu toplogy
可以使用以下命令來設置將虛擬機綁定到指定node。 virsh numatune domain --nodeset 'string' 復制代碼 舉個列子:將上面的虛擬機test(6核),限定在Node0和1中,使用物理機六個CPU1,2,3,4,6,7。 (注:本例中由于一個socket...
繼續(xù)訪問
Neutron中的網絡I/O虛擬化(by quqi99)
作者:張華 發(fā)表于:2014-04-03 版權聲明:可以任意轉載,轉載時請務必以超鏈接形式標明文章原始出處和作者信息及本版權聲明 (http://blog.csdn.net/quqi99 ) 為了提升網絡I/O性能,虛擬化的網絡I/O模型也在不斷的演化: 1,全虛擬化網卡(emulation),如VMware中的E1000用來仿真intel 82545千兆網卡,
繼續(xù)訪問
熱門推薦 kvm性能優(yōu)化方案---cpu/內存/磁盤/網絡
kvm性能優(yōu)化 kvm性能優(yōu)化,主要集中在cpu、內存、磁盤、網絡,4個方面,當然對于這里面的優(yōu)化,也是要分場景的,不同的場景其優(yōu)化方向也是不同的,下面具體聊聊這4個方面的優(yōu)化細節(jié)。 cpu 在介紹cpu之前,必須要講清楚numa的概念,建議先參考如下兩篇文章 CPU Topology 玩轉cpu-topology 查看cpu信息腳本: #!/bin/bash # Simple p
繼續(xù)訪問
KVM性能優(yōu)化
一、KVM為什么要調優(yōu) 性能的損耗是關鍵。KVM采用全虛擬化技術,全虛擬化要由一個軟件來模擬硬件,故有一定的損耗,特別是I/O,因此需要優(yōu)化。KVM性能優(yōu)化主要在CPU、內存、I/O這幾方面。當然對于這幾方面的優(yōu)化,也是要分場景的,不同的場景其優(yōu)化方向也是不同的。 二、KVM優(yōu)化思路及步驟 KVM的性能已經很不錯了,但還有一些微調措施可以進一步提高KVM的性能1、CPU的優(yōu)化要考慮CPU的數量問題...
繼續(xù)訪問
KVM 虛擬化的功能特性
虛擬化指創(chuàng)建某事物的虛擬(而非實際)版本,包括虛擬的計算機硬件平臺、存儲設備,以及計算機網絡資源),虛擬化是一種資源管理技術,它將計算機的各種實體資源(CPU、內存、存儲、網絡等)予以抽象和轉化出來,并提供分割、重新組合,以達到最大化利用物理資源的目的。 KVM 全稱是 Kernel-based Virtual Machine,即基于內核的虛擬機,是采用硬件虛擬化技術的全虛擬化解決方案。KVM 從誕生開始就定位于基于硬件虛擬化支持的全虛擬化實現。它以內核模塊的形式加載之后,就將 Linux 內核變成了一個
繼續(xù)訪問
KVM虛擬機管理及性能優(yōu)化
KVM虛擬機管理及性能優(yōu)化 上一章給大家介紹了KVM虛擬化的部署安裝本章接上一篇文章繼續(xù)為大家講解,如何使用KVM的操作命令,對虛擬機進行管理(虛擬機開啟關閉、掛起恢復、刪除虛擬機、通過備份配置文件重新恢復刪除的虛擬機)、KVM文件管理(磁盤格式轉換、對磁盤文件查看、修改等)、虛擬機的克隆、虛擬機快照。以及最后給大家介紹 KVM性能優(yōu)化的三個調優(yōu)思路、和系統(tǒng)調優(yōu)工具 使用KVM命令集管理虛擬機...
繼續(xù)訪問
KVM 性能調優(yōu)與限制
kvm內存優(yōu)化: 調高內存回收水位值echo 10 > /proc/sys/vm/swappinessecho 1024000 > /proc/sys/vm/min_free_kbytes 在文件/etc/sysctl.conf中加入 vm.dirty_ratio=10原理:linux會設置40%的可用內存用來做系統(tǒng)cache,當flus...
繼續(xù)訪問
KVM latency優(yōu)化點分析
kvm latency tunning 注:參考tencent-cloud的wangpengli的報告 報告的目標是優(yōu)化kvm hypervisor的latency性能,主要有以下幾點。 TLB Shootdown TLB:Translation Lookaside Buffer,轉譯后備緩沖區(qū)(頁表緩存),存放虛擬地址映射物理地址。 TLB shootdown一般通過IPI方式實現。 問題 TBL shootdown preemption問題。 在裸金屬架構(bare-metal)上,遠程TLB刷新導致發(fā)
繼續(xù)訪問
高性能kvm服務器,KVM進階之(一)KVM性能監(jiān)視與優(yōu)化
為什么要性能監(jiān)視通過性能監(jiān)視,你可以1:了解服務器的工作負荷以及對服務器資源的影響2:了解性能的改變和性能趨勢以便及采取措施3:測試調整結果4:診斷系統(tǒng)問題并確定優(yōu)化措施分析性能數據確定系統(tǒng)瓶頸建立性能基線服務器性能監(jiān)視的最佳策略建立性能日志盡量減少性能監(jiān)視本身對服務器所造成的影響分析監(jiān)視結果,建立性能基線創(chuàng)建警報調整系統(tǒng)scale Upscale Out分析性能趨勢,提前采取措施監(jiān)視工具你熟悉的...
繼續(xù)訪問
KVM虛擬化(一)
一、KVM虛擬化架構 1、主流虛擬機架構 圖中對比了幾種主流虛擬化技術架構:ESXi、Xen與KVM,其主要差別在與各組件(CPU、內存、磁盤與網絡IO)的虛擬化與調度管理實現組件有所不同。在ESXi中,所有虛擬化功能都在內核實現。Xen內核僅實現CPU與內存虛擬化, IO虛擬化與調度管理由Domain0(主機上啟動的第一個管理VM)實現。KVM內核實現CPU與內存虛擬化,QEMU實現IO虛擬化...
繼續(xù)訪問
KVM虛擬化的優(yōu)化
KVM調優(yōu) 思路 性能的損耗是矛盾的根源,KVM采用全虛擬化技術,全虛擬化要由一個軟件來模擬硬件層,故有一定的損耗,特別是I/O輸入輸出。KVM性能優(yōu)化主要在CPU、內存、I/O這幾方面,當然在這幾方面也是要分場景的,不同場景優(yōu)化方向也是不同的。 CPU優(yōu)化 要考慮CPU的數量問題,所有guestCPU的總數目不要超過物理機CPU的總數目。如果超過,則將對性能帶來嚴重影響,建議選擇復制主機CPU配...
繼續(xù)訪問
windows虛擬機qemu進程cpu占有率很高問題解決
1.1 現象 在公有云平臺,openstack計算節(jié)點上,如圖Figure-1所示,一臺windows虛擬機的qemu-kvm進程116%的占用cpu資源,如圖Figure-2所示,該虛擬機僅有一個vcpu。 Figure-1: Figure-2: 1.2 分析步驟 通過下面步驟的分析,了解qemu-kvm進程在忙什么,為什么這么忙? 1.2.1 查看進程、線程的狀態(tài) 通過top -d 3 -Hp 5180查看進程,以及該進程的相關線程的狀態(tài),分析出哪個線程在忙。如圖Figure-3所示: 線程51
繼續(xù)訪問
啟用 SR-IOV 解決 Neutron 網絡 I/O 性能瓶頸
目錄: 目錄 目錄: 前文列表 前言 Neutron 的網絡實現模型 基于虛擬網絡設備的虛擬機流量走向 基于虛擬網絡設備的性能瓶頸 在 Neutron 中引入 SR-IOV 技術 基于 SR-IOV 技術的虛擬機流量走向編輯 Neutron 配置啟用 SR-IOV SR-IOV 與 NUMA 親和 SR-IOV 與 VLAN tag SR-IOV 與安全組 前文列表 《SR-IOV 網卡虛擬化技術》 前言 該文章是基于「計算機系統(tǒng)應用」月刊文章《SR-I...
繼續(xù)訪問
KVM總結-KVM性能優(yōu)化之磁盤IO優(yōu)化
介紹KVM磁盤性能方面的調優(yōu)。磁盤IO我們可以從以下四個方面去著手優(yōu)化: 1)磁盤類型選擇2)緩存模式選擇3)AIO 異步讀寫方式選擇4)磁盤IO調度器選擇。
二、kvm虛擬機可以識別宿主機上的硬件嗎?
1、查看usb設備,用lsusb查看宿主機usb設備信息;
2、在kvm虛擬機的xml文件中添加如下:
<hostdev mode='subsystem' type='usb'>
<source>
<vendor id='0x1bc0'/>
<product id='0x0055'/>
</source>
</hostdev>
注意:
(1)vender id 與product id的值,是有規(guī)律的;比如我選擇上圖中的第4個usb設備,我的 <vendor id='0x1bc0'/>
(2)我的<product id='0x0055'/>;
3、以上修改完后,備份xml文件;virsh undeifne 命令卸載目標域虛擬機,卸載時xml文件也隨之刪除;
4、備份的xml文件恢復原樣,用virsh define命令重新載入目標域主機;
5、啟動虛擬機,這樣kvm虛擬機就可以讀取宿主機的usb設備了。
三、virsh命令創(chuàng)建虛擬機 (xml文件)-- (四)
前篇暴露了virsh create創(chuàng)建的問題,這里使用virsh define創(chuàng)建。
登錄主機,配置network啟動,DHCP獲取地址驗證
可以看到ens3網卡獲取到了192.168.200.101地址,與host同處于192.168.200.x網段。
網橋配置是成功的。
可以看到執(zhí)行shutdown命令后,虛擬機并沒有被銷毀。還是可以重新start的。
四、檢查KVM是否啟用 virsh
kvm--virsh命令行下管理虛擬機 virsh 既有命令行模式,也有交互模式,在命令行直接輸入 virsh 就進入交互模式啟用。KVM,是Keyboard Video Mouse的縮寫,KVM 通過直接連接鍵盤、視頻或鼠標 (KVM) 端口,能夠訪問和控制計算機。KVM 技術無需目標服務器修改軟件。這就意味著可以在BIOS環(huán)境下,隨時訪問目標計算機。KVM 提供真正的主板級別訪問,并支持多平臺服務器和串行設備。KVM 技術已經從最初的基礎SOHO辦公型,發(fā)展成為企業(yè) IT 基礎機房設施管理系統(tǒng)??梢詮膋vm 客戶端管理軟件輕松的直接訪問位于多個遠程位置的服務器和設備。KVM over IP 解決方案具備完善的多地點故障轉移功能、符合新服務器管理標準 (IPMI) 的直接界面,以及將本地存儲媒體映射至遠程位置的功能
以上就是關于virsh恢復快照命令相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內容。
推薦閱讀: