應(yīng)大家的要求,,補發(fā)一下之前的云計算基礎(chǔ)知識講座內(nèi)容,。更多內(nèi)容請持續(xù)關(guān)注,或回復(fù)1,,在分類微站中查詢云計算分類中的文章,,就找到之前的歷史文章了。 I/O虛擬化的產(chǎn)生 服務(wù)器單個千兆以太網(wǎng)端口肯定能夠支持單個應(yīng)用,,但是當被分割為10個,、15個或者更多的服務(wù)器負載時(這其中包括網(wǎng)絡(luò)、存儲以及服務(wù)器之間的流量)可能就不夠用了。當遇到I/O瓶頸時,,CPU會空閑下來等待數(shù)據(jù),,計算效率會大大降低--I/O瓶頸最終會打敗虛擬化所帶來的資源使用效率的提升。 故虛擬化也必須擴展至I/O系統(tǒng),,在工作負載,、存儲以及服務(wù)器之間動態(tài)共享帶寬,能夠最大化地利用網(wǎng)絡(luò)接口,。通過緩解服務(wù)器I/O潛在的性能瓶頸,,服務(wù)器能夠承載更多的工作負載并提升其性能。 I/O虛擬化
通過VMM模擬I/O設(shè)備(磁盤和網(wǎng)卡等)實現(xiàn)虛擬化,。 Guest OS所能看到就是一組統(tǒng)一的I/O設(shè)備,。VMM截獲Guest OS對I/O設(shè)備的訪問請求,然后通過軟件模擬真實的硬件,。這種方式對Guest而言非常透明,,無需考慮底層硬件的情況。
通過前端(Front-End)/后端(Back-End)模擬實現(xiàn)虛擬化,。 Guest OS中的驅(qū)動程序為前端,,VMM提供的與Guest通信的驅(qū)動程序為后端。前端驅(qū)動將Guest OS的請求通過與VMM間的特殊通信機制發(fā)送給VMM的后端驅(qū)動,,后端驅(qū)動在處理完請求后再發(fā)送給物理驅(qū)動,。
主要有三種網(wǎng)卡:普通網(wǎng)卡、VMDq直通和SR-IOV,,相關(guān)技術(shù)說明如下: 普通網(wǎng)卡:Domin0網(wǎng)橋隊列,。 VMDq:VMM在服務(wù)器的物理網(wǎng)卡中為每個虛機分配一個獨立的隊列,虛機出來的流量可直接經(jīng)過軟件交換機發(fā)送到指定隊列上,,軟件交換機無需進行排序和路由操作,。VMM和虛擬交換機仍然需要將網(wǎng)絡(luò)流量在VMDq和虛機之間進行復(fù)制。 SR-IOV:通過創(chuàng)建不同虛擬功能(VF)的方式,,給虛擬機的就是獨立網(wǎng)卡,,實現(xiàn)虛擬機直接跟硬件網(wǎng)卡通信,不再經(jīng)過軟件交換機,,減少了Hypervisor層的地址轉(zhuǎn)換,。 |
|