站長新書 站長開講 首頁 最新文章 站長著作及審校 FreeBSD 筆記 Linux 筆記 Windows 筆記 虛擬化筆記 網管人雜誌 遊山玩水 關於本站
站長新書 VMware vSphere ICM 團購開跑了!!

VMware Storage

Storage 簡介

儲存設備主要分為二類即 Block / File Level 而屬於 Block Level 的 SAN、DAS 其中 SAN 又可分為 FC-SAN (Fiber) 或 IP-SAN (iSCSI) 而 DAS 簡單說則是 Local Storage,至於 File Level 則為 NAS,不過目前趨勢來看互相之間的界線已經愈來愈模糊,例如 有很多 NAS 已經支援 iSCSI Target。另外還可以參考 VMware 關於 Storage Protocol (iSCSI、NFS、Fibre、Channel、FCoE) 進行比較的白皮書 [VMware - Storage Protocol Comparison White Paper]

Block Level (SCST Driver)

File Level (NDIS Driver)

各項 Storage Protocol 對進階功能的支援程度

Storage Protocol Boot from SANvMotionStorage vMotionHigh AvailabilityDRSRDM (Raw Device Mapping)
Fiber ChannelYes Yes Yes Yes Yes Yes
FCoEYes Yes Yes Yes Yes Yes
iSCSIYes Yes Yes Yes Yes Yes
NFS_Yes Yes Yes Yes _
DAS_____Yes

ESX/ESXi 對 Fibre Channel (FC-SAN) 支援度

ESX/ESXi 對於 Fibre Channel 支援度及安裝時注意事項如下:

ESX/ESXi 對 iSCSI (IP-SAN) 支援度

ESX/ESXi 對於 iSCSI 支援度及安裝時注意事項如下:

DataStore 簡介

VMware ESX 的 DataStore 簡單說就是 Host 資料的存放地,您可使用 DataStores 來存放 VM、Templates、ISO Image,至於 DataStore 種類可以是 VMFS、NFS、RDM。

VMFS

VMFS (Virtual Machine File System) 為 VMware ESX 的檔案系統,許多後續的進階應用例如 VMotion、HA、DRS 皆由此高效能的檔案系統做為基礎來延伸,通常儲存設備為 SAN、DAS 時便會將其格式化為 VMFS,此檔案系統最大二項特色如下:

Growing/Extents VMFS

何謂 Growing VMFS?

也就是 LUN 容量切多大透過 Grwoing 機制可使 VMFS 最大容量至 2TB,舉例來說切一個 2TB 的 LUN 但一開始只使用 1TB 並格式化為 VMFS 檔案系統,隨著時間過去後空間不夠此時即可透過 Growing 機制使 VMFS 空間擴充至 2TB。

何謂 Extents VMFS?

即 LUN 合併例如切了 2 個 2TB 的 LUN1 及 LUN2 後可以透過 Extents 機制將 LUN1 及 LUN2 合併成為 4TB 的 VMFS Volume,最多可以合併 32 個 LUN (每個 LUN 2TB) 也就是最大 64TB 的容量,另外必須注意的是當您將 LUN 進行合併後之後無法再分割。從 ESXi 5.0 版本開始直接可支援至 64 TB 不需要 Extents 的動作。

整理後 VMFS (Virtual Machine File System) 對於容量的支援度如下:

NFS

目前 VMware ESX 支援的 NFS 版本為 NFS Version 3,當您的 DataStores 為 NFS 時 無法將檔案系統格式化為 VMFS 直接延用 NFS Server 的檔案系統格式,與 VMFS 檔案系統相比之下使用 NFS Server 檔案系統 (例如 EXT3、UFS...等) 您可參考 [VMware: VMware Storage Blog: VMFS vs. NFS for VMware Infrastructure?] ,也可實作出 VMware ESX 進階功能如 VMotion、HA、DRS、Storage VMotion (DataStore VMFS <--> NFS)。

RDM

當您的 DataStores 為 RDM (Raw Device Mapping) 不須將檔案系統格式化為 VMFS 也就是將 Storage 的邏輯單元 LUN 直接拿來使用,與 VMFS 檔案系統相比之下效能相差不多,但 VMware 官方建議盡量使用 VMFS 檔案系統除非您將 RDM 應用於下列環境中: (請注意!! ESX/ESXi 4.x 版本仍有 2TB 的限制,而 ESXi 5.x 版本則無)

Storage Device

只要是連接到 DataStore 的介面都稱為 HBA

您會看到類似 vmhba34:C0:T0:L0 這樣的內容,其中這些分別代表意義如下:

vSphere Storage Appliance

從 VMware vSphere 5 對於沒有預算採購 Storage 的中小企業,有另外一個解決方案,VMware 推出 vSphere Storage Appliance(VM) 此方案支援最少二台最多三台 ESXi 5 的主機將 Local Storage 拿出來當 Shared Storage,詳細內容可以參考如下

磁碟對齊 (Disk Alignment) 問題

因為 Storage、VMFS Filesystem、VM(VMDK) 三者之間的使用單位是不同的,因此會造成磁碟空間對齊不一致的問題,因此可以透過 UBERAlign 免費工具,來達成磁區對齊增加 VM Disk I/O 的目的。

實作 - Extents VMFS

實作環境為 ESX 4.1.0 (Build Number 260247) 且 Host 主機安裝 HBA 卡連接至 SAN Switch,而 FC Storage 建立 RAID 後空間約 5.5 TB 左右切了三個 LUN (1.8 TB *3) 其 LUN 號碼為 LUN 5 ~ 7 (因為原來已經有其它 LUN 1 ~ LUN 4 存在),同樣的 FC Storage 上的 Controller 也連接至 SAN Switch 上。

掛載 FC Storage 第一個 LUN

  1. 首先設定 FC Storage 允許此台 ESX 4.1 Host 上的 HBA 卡 (WWN) 可以存取所建立的三個 LUN,設定完成後在 ESX Host 上切換至 【Configuration > Storage Adapters】 中的 FC HBA 卡項目,便可以看到可存取 FC Storage 上的三個 LUN。
  2. 接著切換至 【Configuration > Storage】 後按下【Add Storage】準備新增 FC Storage 上第一個 LUN (LUN5) 至 Datastore 上。
  3. 於新增儲存裝置的彈出視窗上選擇【Disk/LUN】後,按下【Next】鍵繼續下一個設定程序。
  4. 此時將出現 ESX Host 可存取 FC Storage 上的三個 LUN,請先選擇第一個 【LUN (LUN 5)】後按下【Next】鍵繼續下一個設定程序。
  5. 接著視窗為顯示 FC Storage 儲存空間 LUN 屆時掛載至 ESX Host 上的相關資訊 (例如 掛載點 /vmfs/devices...),確認後按下【Next】鍵繼續下一個設定程序。
  6. 命名此掛載的 LUN 之後在 Datastore 上的名稱,此次實作命名為【Backup_Disk_Pool】確認後按下【Next】鍵繼續下一個設定程序。
  7. 選擇此 Datastore 的 Block Size,此 Block Size 大小將會決定 LUN 的大小 (支援大小說明如下),此實作選擇的 Block Size 為【2048 GB, Block size: 8MB】項目,並且要使用所有的空間所以請勾選【Maximize capacity】,確認後按下【Next】鍵繼續下一個設定程序。
    1. Block Size 1 MB 支援至 256 GB
    2. Block Size 2 MB 支援至 512 GB
    3. Block Size 4 MB 支援至 1 TB
    4. Block Size 8 MB 支援至 2 TB
    5. 若採用的平台為 ESXi 5.0 則統一為 1 MB,並且可以直接支援至 64 TB
  8. 再次顯示剛才設定要掛載的 FC Storage LUN 資訊,確認無誤後按下【Finish】鍵便開始進行格式化 LUN 為 VMFS 檔案系統。
  9. 格式化該 LUN 為 VMFS 檔案系統後便自動掛載到 ESX Host Datastore 上。

ESX Host 可存取 FC Storage 上的三個 LUN 點選 Add Storage 選擇 Disk/LUN 項目 選擇 LUN 5 顯示 LUN 資訊 Datastore 命名 決定 Block Size 大小 格式化及掛載 FC Storage LUN 儲存資源 掛載 LUN 儲存資源至 Datastore

掛載/合併 FC Storage 第二個 LUN

接著準備進行 Extents VMFS 的動作,也就是將 FC Storage 上其它二個 LUN (LUN 6、LUN 7) 空間加入至目前的 LUN (LUN 5) 空間中。

  1. 請將滑鼠指向至剛才建立的 Backup_Disk_Pool 儲存資源上按下滑鼠右鍵選擇【Properties】。
  2. 接著於彈出視窗中的 General 區塊按下【Increase】鍵準備進行 Extents VMFS 的動作。
  3. 此時將出現 ESX Host 可存取 FC Storage 上的其它二個 LUN,請選擇 【LUN (LUN 6)】後按下【Next】鍵繼續下一個設定程序。
  4. 接著視窗為顯示 FC Storage 儲存空間 LUN 屆時掛載至 ESX Host 上的相關資訊 (例如 掛載點 /vmfs/devices...),確認後按下【Next】鍵繼續下一個設定程序。
  5. 選擇使用 LUN 6 所有的空間所以請勾選【Maximize capacity】,確認後按下【Next】鍵繼續下一個設定程序。
  6. 顯示將 LUN 6 加入至 LUN 5 後的空間【Total capacity: 3.64 TB】,確認無誤後按下【Finish】鍵便開始進行 Extents VMFS 的動作。
  7. 完成後於 Datastore 視窗中可以看到 Datastore 空間已經擴充完成,由原本的 1.82 TB 擴充為 3.64 TB (LUN 5 合併 LUN 6 空間)。

選擇 Properties 按下 Increase 鍵 選擇 LUN 6 顯示 LUN 6 資訊 使用 LUN 6 所有空間 準備進行 Extents VMFS 的動作 Extents VMFS 完成 (LUN 5、LUN 6)

掛載/合併 FC Storage 第三個 LUN

接著將 FC Storage 最後一個 LUN 7 加入至 LUN 5、LUN 6 空間中 (Extents VMFS 的動作)。

  1. 請將滑鼠指向至剛才建立的 Backup_Disk_Pool 儲存資源上按下滑鼠右鍵選擇【Properties】,接著於彈出視窗中的 General 區塊按下【Increase】鍵準備進行 Extents VMFS 的動作。
  2. 如同剛才將 LUN 6 空間合併至 LUN 5 的動作一樣將 LUN 7 空間加入,此時視窗將顯示 LUN 7 加入後的空間【Total capacity: 5.46 TB】,確認無誤後按下【Finish】鍵便開始進行 Extents VMFS 的動作。
  3. 我們可以看到目前此 Datastore (Backup_Disk_Pool) 的 Extent 資訊,也就是 LUN 5、LUN 6、LUN 7,確認無誤後按下【Close】鍵結束設定。
  4. 此時便可以看到 Datastore 的可用空間為 5.46 TB,以便進行合併的 LUN 資訊。

將 LUN 7 空間加入 Extents VMFS 作業完成 Extents VMFS 後共 5.46 TB 空間

VM 使用 Extents VMFS 空間

VM 指定磁碟空間至 Extents VMFS 空間 使用其它的 SCSI Controller

實作 - RDM (Raw Device Mapping)

RDM (Raw Device Mapping) for SAN

實作環境為 ESX 4.1.0 (Build Number 260247) 且 Host 主機安裝 HBA 卡連接至 SAN Switch,而 FC Storage 建立 RAID 後空間約 5.5 TB 左右切了三個 LUN (1.8 TB *3) 其 LUN 號碼為 LUN 5 ~ 7 (因為原來已經有其它 LUN 1 ~ LUN 4 存在),同樣的 FC Storage 上的 Controller 也連接至 SAN Switch 上。詳細資訊請參考 [ESX 4.1 - ESX Configuration Guide] 文件中第 10 章 (P.131 ~ P.136) 部份。

  1. 首先確認 ESX Host 在【Storage Adapters】中已經可以看到 Storage LUN 空間 (此例實作為 LUN 5)。
  2. 確認可正確識別 LUN 空間後即可編輯要掛載 RDM 的 VM 虛擬主機內容,於 Virtual Machine Properties 中【Hardware】頁籤按下【Add】鍵。
  3. 於彈出 Device Type 視窗中選擇 【Hard Disk】 項目後按下 Next 繼續下個新增程序。
  4. 於 Select a Disk 視窗中選擇 【Raw Device Mappings】 項目後按下 Next 繼續下個新增程序。
  5. 因為已經確定 ESX Host 平台能偵測到 LUN 空間,所以於 Select and Configure a Raw LUN 視窗中將會自動顯示可使用的 LUN 空間,請選擇 【LUN 5】 項目。
  6. 於 Select a Datastore 視窗中選擇要將要將 LUN Mapping 儲存於哪個 Datastore 當中,此實作中我們將 LUN Mapping 與該台 VM 虛擬主機儲存在一起,所以請選擇 【Store with Virtual Machine】 項目,稍後您可以在該 VM 的資料夾中看到二個 .vmdk 檔案也就是 LUN Mapping 檔案。
  7. 於 Select Compatibility Mode 視窗中選擇適合的模式,簡單來說選擇 Physical 的話可以使用實體儲存設備較多硬體功能但是彈性較低,而 Virtual 模式則相反,此實作中選擇 【Virtual】 項目後按下 Next 繼續下個新增程序。
  8. 於 Advanced Options 視窗時,由於我的管理習慣為 Guest OS 用的 Disk Controller 與 RDM 要拆開使用,而 Guest OS 已經佔用了 0:0 的部份了,因此這裡新增的 RDM 我選擇 【SCSI (1:0)】,此動作將會連帶建立一個 Disk Controller 裝置。
  9. 最後在檢視一下相關設定是否正確後,按下 Finish 鍵完成 RDM 磁碟的建立動作。
  10. 您可以看到建立好的磁碟為 「Mapped Raw LUN」,並且因為採用了與 Guest OS 不同的 SCSI 匯流排,因此也自動新增了 「SCSI Controller」
  11. 最後在至 Datastore 中查看該台 VM 虛擬主機時,您可以看到有二個 .vmdk 檔案,也就是 LUN Mapping 雖然會看到有個 LUN 空間大小的檔案 (例如此實作中的 2 TB),但事實上這只是個連結檔案而以,因此並不會真正佔用您的 Datastore 空間,因為佔用空間是在指定的 LUN 空間上。

確認 LUN 已經正確辨別 Add - 準備新增虛擬硬體 選擇 Hard Disk 項目 選擇 Raw Device Mappings 項目

選擇 LUN 5 指定 LUN Mapping 檔案儲存位置 選擇 Compatibility Mode 選擇 RDM 的 SCSI ID

完成 RDM 磁碟的建立動作 LUN Disk 及 SCSI Controller 建立完成 查看 LUN Mapping 檔案資訊

RDM (Raw Device Mapping) for ESXi Host Local Disk

實作環境為 ESX 5.1.0 (Build Number 1065491),因為上面已經做過 RDM for SAN 而此部份則是使用 ESXi Host 的本機硬碟,在設定上大同小異所以就不在抓圖了,架構是 ESXi Host 主機有八顆硬碟 (120GB SSD*1、500GB SAS*7),希望屆時把 7 顆 SAS 透過 RDM 的方式直接掛載給 VM 虛擬主機使用。首先請確認 ESXi Host 在【Storage Adapters】中已經可以看到所有硬碟,此實作為【MegaRAID SAS Fusion Controler】、【vmhba1】,也可以看到每顆硬碟的 Device ID (例如 naa.500xxxx),接著使用指令查看【/vmfs/devices/disks】或【/dev/disks】內是否也有看到每顆硬碟的 Device ID,或者使用指令【esxcfg-mpath -l】可以看更詳細的硬碟資訊。

 #cd /vmfs/devices/disks
 #ls -lh
  -rw-------    1 root     root      465.8G May 23 11:00 naa.5000c50050511bcd  //SAS 硬碟
  -rw-------    1 root     root      465.8G May 23 11:00 naa.5000c50050512662  //SAS 硬碟
  -rw-------    1 root     root      465.8G May 23 11:00 naa.5000c500505136b6  //SAS 硬碟
  -rw-------    1 root     root      465.8G May 23 11:00 naa.5000c50050629e45  //SAS 硬碟
  -rw-------    1 root     root      465.8G May 23 11:00 naa.5000c5005062abd4  //SAS 硬碟
  -rw-------    1 root     root      465.8G May 23 11:00 naa.5000c5005062caf9  //SAS 硬碟
  -rw-------    1 root     root      465.8G May 23 11:00 naa.5000c50050661b22  //SAS 硬碟
  -rw-------    1 root     root      119.2G May 23 11:00 naa.500a0751036873e7  //SSD 硬碟
  -rw-------    1 root     root        4.0M May 23 11:00 naa.500a0751036873e7:1
  -rw-------    1 root     root        4.0G May 23 11:00 naa.500a0751036873e7:2
  -rw-------    1 root     root      114.4G May d23 11:00 naa.500a0751036873e7:3
  -rw-------    1 root     root      250.0M May 23 11:00 naa.500a0751036873e7:5
  -rw-------    1 root     root      250.0M May 23 11:00 naa.500a0751036873e7:6
  -rw-------    1 root     root      110.0M May 23 11:00 naa.500a0751036873e7:7
  -rw-------    1 root     root      286.0M May 23 11:00 naa.500a0751036873e7:8
 ...略...

然後透過下列指令將 SAS 硬碟的 Device ID,指派成一個 VMDK 檔案的 Mapping File 放在 Datastore (此例為存放在 Local-SSD 的),指令執行完畢之後到存放 Mapping File 的 Datastore 內便會看到 RDM-Disk1~7.vmdk 檔案,雖然會看到LUN 空間大小的檔案 (例如此實作中每顆硬碟顯示為 466 GB),但事實上這只是個連結檔案而以,因此並不會真正佔用您的 Datastore 空間。

 # vmkfstools -z /vmfs/devices/disks/naa.5000c50050661b22 /vmfs/volumes/Local-SSD/RDM-Disk1.vmdk
 # vmkfstools -z /vmfs/devices/disks/naa.5000c5005062caf9 /vmfs/volumes/Local-SSD/RDM-Disk2.vmdk
 # vmkfstools -z /vmfs/devices/disks/naa.5000c50050511bcd /vmfs/volumes/Local-SSD/RDM-Disk3.vmdk
 # vmkfstools -z /vmfs/devices/disks/naa.5000c500505136b6 /vmfs/volumes/Local-SSD/RDM-Disk4.vmdk
 # vmkfstools -z /vmfs/devices/disks/naa.5000c5005062abd4 /vmfs/volumes/Local-SSD/RDM-Disk5.vmdk
 # vmkfstools -z /vmfs/devices/disks/naa.5000c50050512662 /vmfs/volumes/Local-SSD/RDM-Disk6.vmdk
 # vmkfstools -z /vmfs/devices/disks/naa.5000c50050629e45 /vmfs/volumes/Local-SSD/RDM-Disk7.vmdk
  1. 確認 RDM 的 Mapping File 建立完成後,便可編輯要掛載 RDM HDD 的 VM 虛擬主機內容,請於 Virtual Machine Properties 中【Hardware】頁籤按下【Add】鍵。
  2. 於彈出 Device Type 視窗中選擇 【Hard Disk】 項目後按下 Next 繼續下個新增程序。
  3. 於 Select a Disk 視窗中選擇 【Use an existing virtual disk】 項目後按下 Next 繼續下個新增程序。
  4. 選擇剛才建立的 Mapping File 也就是 RDM-Disk1~7.vmdk 檔案後按下 Next 繼續下個新增程序。
  5. 於 Advanced Options 視窗時,由於我的管理習慣為 Guest OS 用的 Disk Controller 與 RDM 要拆開使用,而 Guest OS 已經佔用了 0:0 的部份了,因此這裡新增的 RDM 我選擇 【SCSI (1:0)】,此動作將會連帶建立一個 Disk Controller 裝置 (此實作最後使用了 SCSI (1:0 ~ 6))。
  6. 最後在檢視一下相關設定是否正確後,按下 Finish 鍵完成 RDM 磁碟的建立動作,您可以看到建立好的磁碟為 「Mapped Raw LUN」,並且因為採用了與 Guest OS 不同的 SCSI 匯流排,因此也自動新增了 「SCSI Controller」

參考

[VMware Demo - Configuration Storage]

[VMware Documentation]

[VMware: VMware Storage Blog: VMFS vs. NFS for VMware Infrastructure?]

[Best Practices for running VMware vSphere on Network Attached Storage]

[Cluster Technology and File Systems]

[Wikipedia - Storage area network]

[維基百科 - 存儲區域網路]

[Scott Lowe - Storage Changes in VMware vSphere 4.1]

[HP P4000 LeftHand SAN Solutions with VMware vSphere Best Practices]

[vSphere Online Library - Increase VMFS Datastores]

[ESX 4.1 - ESX Configuration Guide]

[VMware KB1003565 - Block size limitations of a VMFS datastore]

[VMware KB1031041 - Adding an RDM to the virtual machine in an ESX/ESXi 4.1 host fails with the error: vmdk is larger than the maximum size supported by datastore]

[VMware KB1029697 - Adding an RDM to a virtual machine fails with the error: File datastorename foldername/filename.vmdk is larger than the maximum size supported by datastore]

Me FAQ

Q.IBM DS5020 Storage 其 Controller OwnerShop 常常會跑掉?

Error Message:

在 IBM DS5020 Storage 中切了 4 個 LUNs 並平均分配給 Storage 的 2 個 Controller,而 VMware ESX 設定 Multipath 方式為 Round-Robin,但發現只要運作一段時間 Storage 的 Controller OwnerShop 會跑掉,此時 Storage 面板會亮告警燈號查看 ESX Host Even 則顯示 Path 有切換過?

Ans:

經請教 [Johnny] 之後得到結論如下

  1. 當 ESX Host 其 Multipath 方式選擇 Round-Robin 的話,請先確認 Storage 是否支援 Active / Active Mode 如此一來才能輪詢走兩條路徑,若 Multipath 方式設為 Fixed 或 MRU 則只走一條路徑,另一條路徑為純粹備援之用。
  2. 若 IBM 有提供配合此 Storage 的 Multipath PSA for ESX 的話,那建議使用 IBM 提供的 Storage Plugin Module。

Q.ESXi 4.1 無法掛載 NFS DataStore 或掛載後過一陣時間又失聯?

Error Message:

ESXi 4.1 (260247) 執行新增 NFS DataStore 無法掛載或掛載成功後過一陣時間又失聯,掛載失敗後會出現下錯誤訊息

 Call "HostDatastoreSystem.CreateNasDatastore" for object "datastoreSystem-137" on vCenter Server "VCENTER" failed.
 Operation failed, diagnostics report: Unable to complete Sysinfo operation.  Please see the VMkernel log file for more details.

Ans:

查看 ESXi 的 VMkernel Log (/var/log/messages) 沒看到什麼問題,後來將 /etc/hosts 也加入 NFS Server 的資訊後就可以順利掛載並正常運作了。

Q.ESXi 4.1 無法卸載 NFS DataStore 並出現錯誤訊息?

Error Message:

在 ESXi 4.1 (260247) 想要將掛載的 NFS DataStore 卸載時,出現如下錯誤訊息並且無法卸載?

 Call "HostDatastoreSystem.RemoveDatastore" for object "datastoreSystem-123" on vCenter Server "Weithenn-vCenter" failed.

Ans:

詳細資訊請參考 [VMware KB-2008507],以下為簡述其解決方式:

 #esxcfg-nas -l
  NFS-Backup is /home/backup/VM from 192.168.1.250 mounted
  NFS-ISO is /mnt/iso from 192.168.1.165 mounted
 #esxcfg-nas -d NFS-Backup
  NAS volume NFS-Backup deleted.
 #esxcfg-nas -l
  NFS-ISO is /mnt/iso from 192.168.1.165 mounted

Q.ESX 4.1 無法刪除 VMFS DataStore 並出現錯誤訊息?

Error Message:

在 ESX 4.1 (260247) 想要將 VMFS DataStore 刪除並且出現如下錯誤訊息?

 Call "HostDatastoreSystem.RemoveDatastore" for object "datastoreSystem-86" on vCenter Server "Weithenn-vCenter" failed.

Ans:

詳細資訊請參考 [VMware KB-1017104],以下為簡述其解決方式:

 #esxcfg-scsidevs -l | grep -I  naa.6001b
 naa.6001b4d8050165ca0000000000000000
    Display Name: SB-2803- Fibre Channel Disk (naa.6001b4d8050165ca0000000000000000)
    Devfs Path: /vmfs/devices/disks/naa.6001b4d8050165ca0000000000000000
 #fdisk /vmfs/devices/disks/naa.6001b4d8070165ca0000000000000000   
 Command (m for help): d                //輸入 d 準備刪除 Partition (輸入 m 可看相關說明)
  Selected partition 1
 Command (m for help): 1                //如果此 DataStore (LUN) 有多個 Partition 時可以選擇
  1: unknown command
 Command (m for help): d                //嘗試再次刪除 (確認是否真的刪除成功)
  No partition is defined yet!          //確定 Partition 刪除成功
 Command (m for help): w                //輸入 w 使 ESX 將變更寫入 
  The partition table has been altered! //將變更寫入 Partition Table 成功
  Calling ioctl() to re-read partition table.
  Syncing disks.
 #vmkfstools -V                         //更新 VMFS 資訊於 SSH Session

Q.如何確認所掛載的 Datastore 支援 VAAI 功能?

Error Message:

新買的儲存設備支援 VAAI (vSphere Storage APIs Array Integration ) 功能,但是將儲存空間掛載成 Datastore 之後該如何判斷 ESXi Host 已經感知到?

Ans:

詳細資訊可以參考 [Technical Papers - VMware vSphere Storage APIs – Array Integration (VAAI)] 文件,下列為簡述其判斷方式:

使用指令判斷

 # esxcli storage core device vaai status get -d naa.xxx
  naa.xxx
  VAAI Plugin Name: VMW_VAAIP_NETAPP
  ATS Status: supported
  Clone Status: supported
  Zero Status: supported
  Delete Status: supported

使用 vSphere Client 判斷

使用 vSphere Client 登入後點選【Configuration > Hardware > Storage】在【Hardware Acceleration】欄位若顯示為 Supported,即表示 ESXi Host 已經偵測感知到儲存設備的 VAAI 功能。

Go To Oddmuse OrgGo To FreeBSD OrgCreative Commons 2.5 Taiwansitestates.com