Quantcast
Channel: 不自量力 の Weithenn

GCP 攻略 - 系列文章 (更新: 如何在 GCP 中建立 Windows VM)

$
0
0


簡介

簡單來說,在不熟悉 GCP 雲端環境的情況下,很有可能馬上就把試用申請的 GCP 免費額度 (90 天 / US $300)燒完 😆,所幸可以透過 Google Cloud Skills Boost 計畫,幫助我們快速熟悉操作環境、運作原理、實戰演練……。那麼,就一起透過 Google Cloud Skills Boost 計畫,學習吧! 😎







Nutanix CE 攻略 - 系列文章 (更新: Deploying Single Node Cluster)

$
0
0

 



簡介

簡單來說,後續要開始玩 Nutanix 超融合架構,在還沒有正式硬體設備之前,可以先透過 Nutanix CE (Community Edition)來體驗整個運作環境和相關特色功能。









安裝 Nutanix CE 系列文章











學習資源


透過 RDU 升級 vCenter 縮短停機時間讓營運如常 | 網管人 222 期

$
0
0


網管人雜誌

本文刊載於 網管人雜誌第 222 期 - 2024 年 7 月 1 日出刊,NetAdmin 網管人雜誌為一本介紹 Trend Learning 趨勢觀念、Solution Learning 解決方案、Technology Learning 技術應用的雜誌,下列筆記為本站投稿網管人雜誌獲得刊登的文章,網管人雜誌於每月份 1 日出刊您可於各大書店中看到它,或透過城邦出版人讀者服務網進行訂閱。





本文目錄






前言

在 VMware vSphere 虛擬化架構中,vCenter Server 管理平台的重要性不言而喻,無論是管理 VM 虛擬主機和容器等工作負載,或是組態設定 vNetwork 虛擬網路和 vStorage 儲存資源,甚至是 vSphere vMotion 線上遷移工作負載和 vSphere HA 高可用性機制……等,都必須依靠 vCenter Server 管理平台才能達成。

然而,只要是軟體產品,便需要定期執行臭蟲修正和版本更新或版本升級的動作。在過去的 vCenter 版本中,每當 vCenter 管理平台必須執行重大安全性更新或版本升級時,在版本更新或升級過程中,都必須要部署新版本 vCenter 主機、停止舊版本 vCenter 主機內的系統服務、安裝安全性更新、安裝 Binary 檔案、匯出 / 匯入資料、執行自動化腳本、關閉舊版本 vCenter 主機、啟動新版本 vCenter 系統服務、新版本 vCenter 正式接手服務……等動作。

這樣的版本更新或升級流程中,除了部署新版本目的端 vCenter 管理平台時,不會產生「停機時間」(Downtime)之外,其餘的工作流程都將導致 vCenter 管理平台產生停機時間,增加企業和組織持續營運的風險。

因此,從 vSphere 7 Update3 版本開始,VMware 官方開始將用於 VMC on AWS 公有雲環境中,版本更新和升級機制嘗試落地,也就是由 Project Arctic 專案所演化而來的 API-Driven 技術,套用至企業和組織的地端資料中心內,推出 vCenter Server Reduced Downtime Upgrade(RDU)特色功能,讓 vCenter 管理平台,在執行安全性更新或版本升級時,能夠將停機時間最大化縮短,在最新的 vSphere 8 Update 2 版本中,甚至能將版本更新或升級作業程序的停機時間限縮在 5 分鐘之內。





vCenter RDU 運作架構

RDU 運作機制

那麼新版 RDU 運作機制,如何改善過往版本更新或升級的工作流程,有效降低 vCenter 管理平台停機時間呢? 首先,在階段 1 工作程序時,系統將會基於管理人員掛載的新版本 vCenter ISO 映像檔,建立和部署新版本 vCenter 虛擬主機並 Power On 開機(如圖 1 所示)。

圖 1、vCenter RDU 更新升級版本工作流程 - 階段 1

當系統順利部署新版本 vCenter 虛擬主機並開機完成後,便會進入階段 2 工作程序,系統將會自動為舊版本 vCenter 管理平台,開啟 SSH Service(Port 22)之後,傳送現有 vCenter 資料庫和相關組態設定檔至新版本 vCenter 主機內(如圖 2 所示)。

圖 2、vCenter RDU 更新升級版本工作流程 - 階段 2

當資料傳輸作業完成並且通過系統檢查程序後,將會進入階段 3 工作程序,系統顯示「切換」(Switchover)鈕可以執行。請注意,更新升級版本工作流程至此都未發生任何停機時間,只有當管理人員按下切換鈕,並且新版本 vCenter 主機接手完成的這段期間(通常在 5 分鐘內),才會發生停機時間(如圖 3 所示)。

圖 3、vCenter RDU 更新升級版本工作流程 - 階段 3

一旦新版本 vCenter 主機接手完成後,正式取代舊版本 vCenter 的 FQDN 及 IP 位址……等,此時便進入階段 4 工作程序,系統將會自動將舊版本 vCenter 主機關機,並且清除過程中產生的暫存資料(如圖 4 所示)。值得注意的是,在 RDU 版本更新升級機制的幫助下,確實能有效避免 vCenter 管理平台,在執行版本更新或版本升級時可能導致系統損壞的情況,並有效減少過程中產生的停機時間,然而它並不能夠取代企業或組織原有的 vCenter 備份機制,這是管理人員最容易忽略的地方。

圖 4、vCenter RDU 更新升級版本工作流程 - 階段 4



RDU 更新升級流程

雲端環境的 vSphere+ 更新機制重點為「遷移」(Migration-Base),在版本更新或升級動作執行之前,預先部署新版本的 vCenter 管理平台,並將舊版本 vCenter 資料庫和組態設定等資料,傳輸複寫至新版本 vCenter 主機內,屆時只要進行新舊版本的 vCenter 管理平台切換作業即可。

然而,和過往版本更新升級工作流程最主要的差別在於,新舊版本 vCenter 管理平台之間,在 vCenter 資料庫和組態設定資料複寫期間,舊版本的 vCenter 管理平台仍然能夠正常運作,執行相關進階特色功能並管理虛擬化基礎架構,整個版本更新升級工作流程中,唯一會產生停機時間的部份,就是在 vCenter 資料庫和組態設定複寫程序完成後,管理人員正式觸發切換工作任務,將舊版本 vCenter 停止系統服務,由新版本 vCenter 接手後啟動系統服務的這段期間,原則上來說會在五分鐘之內完成,這和過往版本更新升級的停機時間相比減少許多。

新式 RDU 版本更新升級機制,如下所條列共有五個步驟(如圖 5 所示),管理人員也可以在實際操作期間,查看每個工作任務的執行進度:

1. 掛載 ISO 映像檔: 將準備部署新版本的 vCenter ISO 映像檔進行掛載。值得注意的是,這個 vCenter ISO 映像檔必須是完整的安裝 ISO 映像檔,而非僅是含有安全性更新或修補臭蟲的 ISO 映像檔。

2. 檢查備份: 系統將會進行檢查和確認,運作中的舊版本 vCenter 管理平台,是否已經執行過備份的工作任務,倘若發現 vCenter 管理平台未定期執行備份,或未包含最新的備份時,將會提醒管理人員必須執行備份工作任務後,再回到此頁面繼續版本更新升級流程。

3. 更新 LCM Plugin 外掛程式: 系統將會在舊版本 vCenter 管理平台中,更新 vCenter LCM 生命週期服務的 Plugin,以便後續部署新版本 vCenter 管理平台時,能夠在 LCM Plugin 方面保持一致,一旦 LCM Plugin 外掛程式更新完畢後,系統將會自動重新整理 vCenter 管理介面,管理人員可以輕易發現管理介面有些許不同。

4. 組態設定新的 vCenter: 針對部署的新版本 vCenter 主機進行組態設定作業,包括,vCenter 虛擬主機名稱、臨時的 root 管理帳號和密碼、臨時的 vNetwork 虛擬網路設定……等,管理人員可以選擇繼承舊版本 vCenter 原有的組態設定,也可以選擇自行變更組態設定內容。在預設情況下,部署的新版本 vCenter 主機,將會繼承舊版本 vCenter 主機中,FQDN、IP 位址、root 管理帳號密碼和網路身份驗證……等。

5. 升級與執行切換: 一旦部署的新版本 vCenter 主機複寫資料和組態設定完畢,並且兩台 vCenter 主機都保持正常運作狀態時,管理人員便能決定何時執行切換作業,原則上可以立即執行切換 vCenter 管理平台的工作任務,也可以排程設定一天後或一週後都可以。值得注意的是,切換期間原有 vCenter 停止服務,新部署的 vCenter 接手並啟動服務,通常還是未產生五分鐘之內的停機時間。

圖 5、RDU 版本更新或升級運作流程示意圖





實戰演練 – 透過新式 RDU 進行 vCenter 版本升級

由於,RDU 是全新自我管理的版本升級機制,所以並未支援舊版 vCenter 7 升級至新版 vCenter 8 。目前,支援從 vCenter 8.0 GA、8.0 U1、8.0 P02 升級至最新 8.0 U2 版本。在實戰演練小節,將使用 RDU 機制將舊版 vCenter 8.0(如圖 6 所示),升級至最新 vCenter 8.0 U2版本。

圖 6、準備透過新式 RDU 機制升級至最新 vCenter 8.0 U2 版本



掛載新版 vCenter ISO 映像檔

首先,將下載完成的最新版本 vCenter 8.0 U2 的 ISO 映像檔,上傳至 Datastore 儲存資源或 Content Library 當中,並組態設定掛載至舊版 vCenter 8.0 的 CD/DVD 光碟機即可。值得注意的是,掛載時記得勾選「Connected」和「Connect At Power On」選項(如圖 7 所示),這兩個選項比較常被管理人員忽略,導致看似掛載 ISO 映像檔成功卻無法使用的情況。

圖 7、掛載最新版本 vCenter 8.0 U2 的 ISO 映像檔



選擇採用的 vCenter 新版本

請在 vCenter 管理介面中,依序點選「vCenter Server > Updates > vCenter Server Update」,在 RDU Update 區塊中,可以看到 1. Target Version 項目,除了顯示現有 vCenter 版本資訊,以及 VAMI(vCenter Server Appliance Management Interface)資訊之外,請點選 Target version 欄位中的 Select Version 連結,在彈出視窗中將會顯示可更新升級的 vCenter 版本,建議選擇和剛才上傳的 ISO 映像檔相同版本,避免系統透過網際網路下載最新版本。

點選完畢後,系統將會自動執行來源預先檢查作業,一旦通過預先檢查作業後,管理人員應點選 Product Interoperability產品互通性頁籤,確保新版本的 vCenter 主機,和 ESXi 虛擬化平台之間的版本相容性,是否順利通過系統檢查和驗證作業(如圖 8 所示)。

圖 8、選擇升級新版 vCenter 並檢查產品相容性



vCenter 備份確認與檢查

在 2. Backup 項目中,系統再次提醒管理人員,在執行 vCenter 管理平台版本升級之前,請先再次確認是否執行相關備份作業,避免升級版本過程中,倘若發生非預期的錯誤導致 vCenter 管理平台無法正常運作時,可以透過最後一次的完整備份快速進行復原作業。



更新 vCenter LCM Plugin

在 3. Prepare source 項目中,系統提醒管理人員由於 vCenter 管理平台版本升級後,屆時將會連帶將 LCM(Life-Cycle Manager)一起進行版本升級,在此之前請先按下 Update Plugin,預先執行 LCM Plugin 更新作業,一旦 LCM Plugin 更新的工作任務完成後,系統將提醒管理人員重新整理瀏覽器,此時 vCenter 圖形管理介面,將會因為 LCM Plugin 更新後而有所改變(如圖 9 所示)。

圖 9、成功更新 LCM Plugin 之後,vCenter 管理介面重整後有些微變化

值得注意的是,倘若在更新 LCM Plugin 階段中,發生失敗產生「Update 8.0.2.00000 for component vlcm is not found.」錯誤訊息時,請參考 VMware KB94779 知識庫文章內容,下載「fix_rdu.sh」指令碼至 vCenter 管理平台,然後執行修正作業後再次嘗試更新 LCM Plugin。



組態設定新版本 vCenter

在 4. Target Appliance 項目中,將會組態設定新版 vCenter 管理平台環境,請按下 Configure Target Appliance 進行組態設定作業,事實上這個組態設定流程和部署 vCenter 管理平台非常相似。首先,在 1. License Agreement 使用者授權協議畫面中,請勾選「I accept…」選項後按下 Next 鈕進入下一個組態設定程序。

在 2. CEIP 頁面中,必須勾選「Join…」選項,確保後續 vSphere Health、Host Hardware Compatibility、vCenter Server Update Planner……等功能持續運作。在 3. Target Location 頁面中,管理人員可以選擇「Deploy in the same location as source」選項,將新版本的 vCenter 管理平台,跟現有舊版 vCenter 部署在一起,或是選擇「Deploy in the different location as source」選項,將新版本 vCenter 管理平台,部署至其它 ESXi 虛擬化平台中,並提供管理者帳號及密碼以利連線作業。

在 4. Deployment Type 頁面中,選擇「Same Configuration」選項時,屆時新版本 vCenter 管理平台,將完全套用舊有 vCenter 管理平台的所有組態設定,倘若管理人員需要調整新版本 vCenter 管理平台的組態設定,例如,提升 vCenter 管理平台的 Size 運作規模、調整 vCenter 存放在不同資料夾、調整 vCenter 存放在不同的 Datastore 儲存資源……等,請點選「Detailed Configuration」選項(如圖 10 所示)。

圖 10、針對新版本 vCenter 管理平台調整相關組態設定

在 5. Folder 頁面中,請選擇稍後部署的新版本 vCenter 管理平台,存放在 Datacenter 中的哪個資料夾內。在 6. Compute Resource 頁面中,選擇新版本 vCenter 運作在哪個 Cluster 叢集、Resource Pool 資源集區、ESXi 虛擬化平台中。在 7. VM Appliance details 頁面中,組態設定新版本 vCenter 的 VM 虛擬主機名稱,以及暫時的 root 管理密碼(如圖 11 所示),值得注意的是,VM 虛擬主機名稱需要避免使用「%,/,\」這 3 個字元,否則將會發生非預期的錯誤,至於 root 管理密碼的部份除了必須符合複雜性原則之外,密碼的總長度不能超過「20」個字元。

圖 11、組態設定新版本 vCenter 的 VM 虛擬主機名稱和 root 管理密碼

在 8. Deployment Size 頁面中,預設採用和舊版本 vCenter 一樣的 Size 運作規模,倘若企業和組織因為專案或營運規模成長,導致工作負載增加時,可以考慮在此時一併將 vCenter 管理平台的 Size 運作規模進行提升。值得注意的是,新版本的 vCenter Size 運作規模,只能與舊有 vCenter 相同或更大,並不支援小於舊有 vCenter 的 Size 運作規模(如圖 12 所示)。

圖 12、部署新版本的 vCenter Size 運作規模只能相同或更大,不支援縮小 Size 運作規模

在 9. Datastore 頁面中,預設情況下,系統會選擇存放在和舊有 vCenter 一樣的 Datastore 儲存資源,管理人員可以依照需求,選擇部署新版本 vCenter 採用不同的 Datastore 儲存資源。在 10. Network Settings 頁面中,請填入部署新版本 vCenter 的相關網路組態設定內容,例如,FQDN、IP 位址……等,值得注意的是,這裡的 FQDN 和 IP 位址都是暫時使用的用途。在 11. Review 頁面中,再次檢視相關組態設定是否正確無誤,確認無誤後按下 Finish 鈕即可(如圖 13 所示)。

圖 13、再次檢視新版本 vCenter 相關組態設定是否正確無誤



部署新版本 vCenter

回到 vCenter Update Planner 頁面中,在 5. Upgrade 項目中,系統說明至此為止,新版本 vCenter 的預先部署作業和組態設定已經完成,只要按下 Start Upgrade 便會立即執行,部署新版本 vCenter 和複寫資料的動作,並且只有在「Switchover」階段,才會發生停機時間,這時間通常僅幾分鐘時間。

一旦按下 Start Upgrade 鈕之後,從 vCenter 管理介面下方的工作項目清單中可以看到,系統開始自動部署新版本的 vCenter 虛擬主機,組態設定新版本 vCenter 虛擬主機後進行 Power On 開機的動作(如圖 14 所示),並接收舊有 vCenter 的必要資料,包括,vCenter 資料庫、組態設定、TLS/SSL 憑證……等,此時舊有的 vCenter 管理平台仍持續運作中不受任何影響。

圖 14、系統自動部署並組態設定新版本 vCenter 管理平台

倘若,在部署新版本 vCenter 管理平台時,發生部署失敗或升級新版本失敗的情況,管理人員也無須擔心,系統將會自動把新版本的 vCenter 虛擬主機斷電後刪除,整個系統環境自動恢復到原有的運作狀態。



切換至新版本 vCenter 管理平台

一旦新版本 vCenter 部署並組態設定完畢後,系統的「SWITCHOVER」鈕便轉變為可執行狀態(如圖 15 所示),確認執行切換的動作後,系統便會正式將舊版來源 vCenter 的組態設定,複寫套用至新版本 vCenter 管理平台中,並且相關系統服務也將正式啟動,以便回應管理人員的各項管理操作。

圖 15、系統準備完成管理者可選擇適當時機進行 vCenter 管理平台切換

值得注意的是,vCenter 管理平台的停機時間,便是在按下 Switchover 鈕,開始執行切換工作任務,系統在確保新舊 vCenter 管理平台的資料一致後,便會將舊有 vCenter 管理平台關機,新版本 vCenter 管理平台,開始接手舊有 vCenter 管理平台的 FQDN、IP 位址、TLS/SSL 憑證、啟動所有系統服務……等(如圖 16 所示)。

圖 16、開始執行切換作業讓新版本 vCenter 管理平台接手

完成接手程序後開始回應管理人員操作,一般來說整個切換流程大約五分鐘以內即可完成,在本文實作環境中,整個切換作業花費「3 分 45 秒」,新版本 vCenter 管理平台便順利接手完成(如圖 17 所示)。

圖 17、新版本 vCenter 管理平台順利接手完成

現在,管理人員可以採用相同的 vCenter FQDN 和管理帳號及密碼登入,可以看到除了 vCenter VM 虛擬主機的名稱改變,以利識別之外其餘不變(如圖 18 所示)。此外,建議管理人員應立即為新版本 vCenter 執行備份工作任務,並且將舊版 vCenter 虛擬主機的網路連接選項取消勾選後,轉換為 VM Template 避免不小心將舊版 vCenter 開機造成衝突的情況。

圖 18、新版本 vCenter 管理平台順利接手並回應管理人員的各項管理操作





結語

透過本文的深入剖析和實作演練後,企業和組織的管理人員,除了理解新式 RDU 版本升級的運作流程外,透過實戰演練讓管理人員,能夠輕鬆完成 vCenter 管理平台版本升級的工作任務。

GDG Cloud Taipei | 站長開講

$
0
0


活動簡介

企業和組織除了建構 DevOps 和 Agile 等文化思維環境外,提升工作效率的方式之一,便是將現有「手動/重複」的工作任務自動化,舉例來說,從 Ops 人員角度來看,組態設定伺服器 BIOS、網路交換器、路由器、IPMS、Windows 組態設定、Linux 組態設定……等,從 Dev 人員角度來看,部署 VM 虛擬主機、容器、應用程式……等,上述手動和重複的工作任務,都可以採用 IaC(Infrastructure as Code) 搭配 GitOps 機制,達到自動化完成各項工作任務的目標。
因此,Dev / Ops 管理人員,都可以透過建構 GitOps 機制,達到標準且一致化的組態設定、版本控制、追蹤組態設定更改記錄以方便還原、為應用程式提供穩定來源……等。

在本場議程中,將以 GitOps 自動化機制,實際展示建立 GKE Cluster、部署容器、以及管理容器化應用程式生命週期……等操作為例。

此外,建構的 CI/CD 不敢用於 Production 營運環境? 擔心 GitOps 太過自動化,而導致連鎖錯誤嗎? 本議程也將實際展示 Approval 審核機制,在執行 Workflow 自動化流程時,必須先經過指定人員的 Approval 審核後,才放行並開始執行自動化工作任務。





活動資訊

日期:   2024 年 7 月 25 日 (四)
時間:   19:00 - 21:00
報名:   報名連結





站長議程

很高興,有機會到 GDG Taipei 跟大家分享「Using GitOps with Google Kubernetes Engine (GKE)」議題,有興趣的朋友別錯過了。




Deploying GKE Autopilot Clusters | Task3

$
0
0


簡介

在上一篇 Deploying GKE Autopilot Clusters | Overview文章中,相信已經了解整個 GKE(Google Kubernetes Engine) 技術的演進歷史。在本文中,將會透過 Google Cloud Console 查看部署 Nginx 容器工作負載的詳細資訊。

圖、GKE Autopilot 運作架構示意圖



Task 3. View details about workloads in the Google Cloud Console

在這個工作任務中,將會在 Google Cloud Console 管理介面中,查詢 GKE 工作負載的詳細資訊。請在 Google Cloud Console 管理介面中,依序點選「Navigation menu > Kubernetes Engine > Workloads > nginx-1」項目,可以查看 nginx-1 容器工作負載的詳細資訊,例如,資源使用率圖表、日誌、Pod……等。


切換到 Details頁籤,可以看到更多容器工作負載的詳細信息,包括 Pod 規格、Pod 副本的數量和狀態,以及有關水平自動縮放 Pod 的詳細資訊。


切換到 Revision History頁籤,可以看到容器工作負載的歷史資訊。


切換到 Events頁籤,可以看到容器工作負載的事件資訊。


切換到 YAML頁籤,可以看到定義元件的完整 YAML 檔案內容,以及 Nginx 容器工作負載的完整組態設定內容。


回到 Overview頁籤,往下捲動頁面,可以看到 Managed pods資訊,點選後,也可以看到 Pod 的詳細資訊。







Deploying GKE Autopilot Clusters 系列文章



Free Cert Exam When You Train by August 30 | Nutanix

$
0
0


簡介

Nutanix University在每一年,都有這個完成相關線上課程,即可取得免費考試卷的機會。今年時機出現了,只要在 2024 年 8 月 30 日以前,完成相關線上課程,即可取得相應的免費考試卷,有興趣取得 Nutanix 認證的朋友,可以參考看看。
在 Nutanix 認證架構中共有四個等級,分別是 Associate, Professional, Master, Expert,這次開放 Associate 和 Professional 相關課程和考試卷。






注意事項






線上課程和免費考試卷

Associate Level

完成 Nutanix Hybrid Cloud Fundamentals (NHCF) 線上課程,學習 Nutanix 基礎概念、Prism Central、Cluster 基礎管理等知識,並通過考試即可取得 Nutanix Certification Associate(NCA)證照。



Professional Level

完成 Enterprise Cloud Administration(ECA)線上課程,學習 Prism Central 管理和維護 Nutanix Cluster 環境等知識,並通過考試即可取得 Nutanix Certified Professional - Multicloud Infrastructure(NCP-MCI)證照。


完成 Nutanix Cloud Clusters on AWS Administration(NC2A-AWS)線上課程,學習如何部署、管理、將 On-Prem 連接至 AWS Cloud Cluster 等知識,並通過考試即可取得 Nutanix Certified Professional - Cloud Integration - AWS(NCP-CI-AWS) 6.7證照。


完成 Nutanix Cloud Clusters on Azure Administration(NC2A-Azure)線上課程,學習如何部署、管理、將 On-Prem 連接至 Azure Cloud Cluster 等知識,並通過考試即可取得Nutanix Certified Professional - Cloud Integration - Azure(NCP-CI-Azure) 6.7證照。


完成 Nutanix Unified Storage Administration(NUSA)線上課程,學習安裝、設定、管理、升級 Nutanix Unified Storage(NUS) 等知識,並通過考試即可取得 Nutanix Certified Professional - Unified Storage(NCP-US)證照。


完成 Nutanix Database Management & Automation(NDMA)線上課程,學習安裝、設定、操作 Nutanix Database Service(NDB)等知識,並通過考試即可取得 Nutanix Certified Professional - Database Automation(NCP-DB)證照。


完成 Nutanix Multicloud Automation Administration(NMCAA)線上課程,學習安裝、設定、操作、管理 X-PlayNutanix Cloud Manager(NCM)自助式服務等知識,並通過考試即可取得 Nutanix Certified Professional - Multicloud Automation(NCP-MCA)證照。


完成 Nutanix End User Computing Administration(NEUCA)線上課程,學習規劃、安裝、設定、管理 End-User Computing(EUC)等知識,並通過考試即可取得 Nutanix Certified Professional - End User Computing(NCP-EUC)證照。

Deploying GKE Autopilot Clusters | Export Port

$
0
0


簡介

在上一篇 Deploying GKE Autopilot Clusters | Overview文章中,相信已經了解整個 GKE(Google Kubernetes Engine) 技術的演進歷史。在本文中,將會透過 Google Cloud Console 為部署的 Nginx 容器,建立 Expose 讓網際網路能夠存取 Nginx 容器提供的網頁服務。

圖、GKE Autopilot 運作架構示意圖



為 Nginx 容器建立 Expose Port

其實,在官方的實作練習文件中並沒有這個部份,不過環境已運作起來了,也可以任意玩玩。現在,我們可以透過 Google Cloud Console 管理介面,輕鬆組態設定和體會 GKE 管理容器工作負載的便利,舉例來說,當 Nginx 容器工作負載順利運作後,如何讓網際網路存取 Nginx 網頁服務? 請在 Google Cloud Console 管理介面中,依序點選「Kubernetes Engine > Workloads > nginx-1 > Expose」項目。


在 Port mapping 頁面中,採用預設的 Port 80、Protocol TCP、Service type 是 Load balancer……等,確認無誤後按下 Expose 鈕。


確認針對 nginx-1 容器建立的 Expose 服務是否完成。


現在,已經可以從網際網路,順利存取 nginx 容器提供的網頁服務。






Deploying GKE Autopilot Clusters 系列文章

COSCUP 2024 | 站長開講

$
0
0


活動簡介

COSCUP是由台灣開放原始碼社群聯合推動的年度研討會,起源於 2006 年,是台灣自由軟體運動 (FOSSM) 重要的推動者之一。活動包括有講座、攤位、社團同樂會等,除了邀請國際的重量級演講者之外,台灣本土的自由軟體推動者也經常在此發表演說,會議的發起人、工作人員與講者都是志願參與的志工。

COSCUP 的宗旨在於提供一個聯結開放原始碼開發者、使用者與推廣者的平台。希望藉由每年一度的研討會,來推動自由及開放原始碼軟體 (FLOSS)。由於有許多贊助商及熱心捐助者,所有議程都是免費參加。

開放原始碼 (Open source) 是在 1998 年出現的名詞,大家早已耳熟能詳。這種在網路上已經進行二、三十年的軟體開發模式之所以能成功,有許多原因。其中一個極為關鍵的因素,就是開發者與使用者的直接接觸。無屏障的交流加速了問題的回報和修補機制,而當這個機制被網路效應放大到極限時,Linus 定律就出現了:「臭蟲難逃眾人法眼」(With enough eyeballs, all bugs are shallow),軟體品質因此顯著提昇。在開放原始碼的模式中,開發者和使用者中間的人不再是銷售員或客服,而是讓軟體更容易被接受的推廣者 (Promoters),他們打包套件讓軟體更好裝、寫說明文件讓軟體更易學、辦推廣活動讓更多人接觸到好軟體、在網路上回答問題解決使用者的疑惑,而且不會把開發者藏在背後產生資訊的不對稱。

開發者 (Coders)、使用者 (Users) 和推廣者 (Promoters) 是讓自由及開放原始碼軟體發光發熱的三大支柱,這個研討會就是專為這三種人舉辦的:你可以是 A 軟體的開發者、B 軟體的推廣者、C 軟體的使用者,不論你是已經踏入自由及開放原始碼軟體領域,還是一直站在門口不知如何入門,歡迎你來參加 COSCUP — Conference for Open Source Coders, Users and Promoters!





活動資訊

日期:   2024 年 8 月 3 - 4 日 (六 - 日)
時間:   09:00 - 17:00
議程:   大會議程表






站長議程

在本次大會中,站長有一場 30 分鐘的「LLM 初體驗 - Running Google Gemma Locally」議程,,詳細資訊請參考大會網站。



Hello World Dev Conference | 站長開講

$
0
0


活動簡介

Hello World Dev Conference希望打造一個軟體開發工作者可以橫向與縱向交流的場域,本年度特別策展 8 大面向會議,包含了: Agile Summit、DevAI Summit、DevLead Summit、DevOps Summit、DevSec Summit、Enterprise Summit、ModernWeb Summit、DevTalk。

透過技術、流程、營運、組織等各種向量的經驗交流,創造最豐富的技術增幅效果。歡迎各界的開發者與技術領導者來此發聲與交流,一起讓HelloWorld Dev Conference 成為開發人員探索未來的重要所在。





活動資訊

日期:   2024 年 9 月 11 - 13 日 (三 - 五)
時間:   09:00 - 17:00
議程:   大會議程表
報名:   報名購票






站長議程

在本次大會中,站長有二場 90 分鐘的「從 DevOps 到 SRE,從 IaC 到 GitOps」體驗工作坊,詳細資訊請參考大會網站。


全新發佈 Nutanix Community Edition 2.1

$
0
0


簡介

日前,Nutanix 官方正式發佈新版 Nutanix Community Edition 2.1, 想要試試新功能的朋友不要錯過了。

新版 Nutanix Community Edition 2.1 中,包括大量新功能 AOS 6.6AOS 6.7AOS 6.8AOS 6.8.1 (maintenance release),還包括 Prism Central 2024 v4 API,也有適合用於 CE 小型環境的 X-Small Prism Central。





Recommended Hardware

在安裝新版 Nutanix Community Edition 2.1 之前,請參考 Community HCL 和對圖中的建議硬體規格。




Install Process Overview

影片中,使用 Intel NUC 當 Lab 主機,下列是硬體規格和網路環境規劃,以及整個 Nutanix CE 2.1 安裝流程示意圖。



活用 Azure Stack HCI 23H2 新版建超融合叢集 | 網管人 223 期

$
0
0


網管人雜誌

本文刊載於 網管人雜誌第 223 期 - 2024 年 8 月 1 日出刊,NetAdmin 網管人雜誌為一本介紹 Trend Learning 趨勢觀念、Solution Learning 解決方案、Technology Learning 技術應用的雜誌,下列筆記為本站投稿網管人雜誌獲得刊登的文章,網管人雜誌於每月份 1 日出刊您可於各大書店中看到它,或透過城邦出版人讀者服務網進行訂閱。





本文目錄






前言

隨著 Microsoft Ignite 2023 大會,順勢發佈的最新 Azure Stack HCI 23H2 公開預覽版(Public Preview),最大功能亮點在於,微軟觀察到零售、製造、醫療……等行業,在實際營運環境中,經常會分佈在許多地理位置不同的邊緣地點,這些邊緣地點的營運環境不僅分散,並且也非企業和組織常見的地端資料中心內完善的運作環境。

因此,對於這樣新興的營運環境需求,從最新的 Azure Stack HCI 23H2 版本開始,嘗試支援從 Azure 公有雲環境,部署及管理這些地理位置不同邊緣地點中的 HCI 超融合環境(如圖 1 所示)。
後續會將 Azure Stack HCI 超融合基礎架構,簡稱為 AzSHCI。
圖 1、透過 Azure 公有雲同時管理不同地理位置的 HCI 超融合叢集





Azure Stack HCI 23H2 特色功能

雲端部署

那麼 AzSHCI 超融合叢集,是如何達成「雲端部署」(Cloud-Based Deployment)的呢 ?首先,企業和組織採購的伺服器到達邊緣位置後,倘若已經預先安裝好 AzSHCI 超融合作業系統時,那麼現場人員只需要確保網路連線,並與 Azure Arc 建立初始網路連線後,屆時便可以透過 Azure 公有雲環境,從 AzSHCI 超融合叢集部署、儲存集區資源、網路組態設定……等完成,倘若有數量龐大的邊緣位置需要部署時,也可以透過「Azure 資源管理員」(Azure Resource Manager,ARM),以「基礎架構即程式碼」(Infrastructure-as-Code,IaC)的方式,進行大規模的部署作業。



集中管理所有工作負載

由於邊緣位置的 AzSHCI 超融合叢集,已經透過 Azure Arc 基礎架構串連在一起,所以管理人員在 Azure Portal 管理介面中,可以開始設定和啟用 Arc 虛擬主機、Azure Kubernetes Service(AKS)容器叢集、Azure Virtual Desktop(AVD)虛擬桌面會話主機(如圖 2 所示),讓管理人員可以在同一個管理介面中,分別管理和部署不同的工作負載類型。

圖 2、透過 Azure Portal 管理介面,部署和管理不同地理位置的工作負載



支援可信任啟動安全性機制

在現今的網際網路環境中,網路威脅情勢不斷的迅速變化,攻擊手法也轉變為日趨複雜,然而隨著企業和組織的數位轉型風潮,導致許多營運用途的應用程式和基礎設施處於邊緣位置。因此,在最新的 Azure Stack HCI 23H2 版本中,將各項安全性設定與 Microsoft Defender for Cloud 進行整和,讓屆時 AzSHCI 超融合叢集所部署的 VM 虛擬主機,也支援可信任啟動保護虛擬機器選項(如圖 3 所示),確保部署的 VM 虛擬主機,能夠更有效阻擋不斷演變的惡意攻擊手法。

圖 3、AzSHCI 超融合叢集支援部署可信任啟動保護 VM 虛擬機器選項





實戰 – Azure Stack HCI 23H2 單節點叢集

由於本文撰寫期間,Azure 公有雲的 AzSHCI 雲端部署功能,僅支援採用實體伺服器,尚未支援 VM 虛擬主機進行部署。因此,在實戰演練小節中,將使用巢狀式技術搭配地端資料中心的部署方式,建構 AzSHCI 超融合叢集環境。



部署支援巢狀技術VM虛擬主機

原則上,只要採用支援的硬體主機和作業系統版本,便能部署 AzSHCI 超融合叢集,然而對於中小型企業和組織來說,IT 管理人員可能沒有多台或符合軟硬體需求的主機。此時,便可以在內部資料中心內,部署支援巢狀式 VM 虛擬主機環境,或是透過 Azure 公有雲環境,部署支援巢狀式虛擬化環境的 VM 虛擬主機。

值得注意的是,無論是內部資料中心自建或採用 Azure 公有雲環境,部署支援巢狀式虛擬化環境的 VM 虛擬主機,所建構的 AzSHCI 超融合叢集,都僅適用於研究和測試用途,不適用於真實營運環境。此外,AzSHCI 單節點超融合叢集,僅支援採用單一儲存裝置,例如,NVMe 或 SSD 的 All-Flash 運作架構,不支援採用混合式儲存裝置,例如,NVMe+SSD、NVMe+HDD、SSD+HDD……等,這是採用實體伺服器建構 AzSHCI 單節點超融合叢集時,必須特別注意的地方。

在實戰演練小節中,將會在一台支援巢狀式虛擬化的 Azure VM 虛擬主機中,建立多台 VM 虛擬主機,達成部署 AzSHCI 超融合叢集的目的。值得注意的是,Azure VM Gen2 世代虛擬主機,預設在安全性類別採用「Trusted launch virtual machines」選項,以便支援 Secure Boot 和 vTPM 等新式安全性機制,但此舉卻會導致巢狀式虛擬化機制無法運作。

因此,在建立支援巢狀式虛擬化的 Azure VM 虛擬主機時,請記得將安全性類別選擇為「Standard」項目(如圖 4 所示),才能確保巢狀式虛擬化技術正常運作,詳細資訊請參考 Azure VM 的可信任啟動 - Azure Virtual Machines | Microsoft Learn 官方文件說明。

圖 4、選擇安全性類別為 Standard 確保巢狀式虛擬化功能順利運作

由於在 Azure 公有雲環境中,管理人員無法碰觸到 Azure 公有雲底層的 Hyper-V 虛擬化平台。因此,必須建立 NAT vSwitch 虛擬交換器,以便稍後建立的 DC 網域控制站和 AzSHCI 虛擬主機,能夠透過第一層 Hypervisor 虛擬化管理程序,所建立的 NAT vSwitch 虛擬交換器進行網路封包路由。

在本文實作環境中,建立的 NAT vSwitch 虛擬交換器名稱為「AzSHCI-NATSwitch」,稍後處理的網路位址轉譯 IP 網段為「10.10.75.0/24」,預設閘道 IP 位址為「10.10.75.1」。

請在 Azure VM 虛擬主機中,開啟 PowerShell 指令視窗並鍵入「New-VMSwitch -Name "AzSHCI-NATSwitch" -SwitchType Internal」指令,建立給第二層 VM 虛擬主機使用的 NAT vSwitch 虛擬交換器,並且連接類型為「Internal network」(如圖 5 所示)。

圖 5、透過 Hyper-V 管理員查看建立的 NAT vSwitch 虛擬交換器

執行「New-NetIPAddress -IPAddress 10.10.75.1 -AddressFamily IPv4 -PrefixLength 24 -InterfaceAlias "vEthernet(AzSHCI-NATSwitch)"」指令,為這台 NAT vSwitch 虛擬交換器,組態設定預設閘道 IP 位址為「10.10.75.1」。

執行「New-NetNat -Name "AzSHCI-NATSwitch" -InternalIPInterfaceAddressPrefix "10.10.75.0/24"」,組態設定這台 NAT vSwitch 虛擬交換器,處理的 NAT 網路位址轉譯 IP 網段為「10.10.75.0/24」。

一旦 NAT vSwitch 虛擬交換器成功建立並組態設定完成後,管理人員可以分別執行「Get-VMSwitch」、「Get-NetIPAddress -IPAddress 10.10.75.1」、「Get-NetNat」等指令,確認 NAT vSwitch 虛擬交換器組態設定內容是否正確無誤,避免後續發生網路不通或無法路由的情況。



部署 DC 和 AzSHCI 主機

首先,請分別下載 Windows Server 2022 印象檔,以及最新版本的 Azure Stack HCI 23H2 印象檔  。在本文實作環境中,新增一台 VM 虛擬主機,擔任 DC 網域控制站的角色,組態設定的 IP 位址為「10.10.75.10」,並部署建立「lab.weithenn.org」的網域名稱(如圖 6 所示),同時建立 DNS 名稱解析服務,以及稍後 AzSHCI 主機能夠加入網域環境,並使用正確的 DNS 名稱解析。

圖 6、部署並建立 lab.weithenn.org 網域名稱

為了方便讀者建立 AzSHCI 超融合叢集環境,將採用「單台」節點主機的方式建立。值得注意的是,單台節點主機的 AzSHCI 超融合叢集環境,至少要採用 Azure Stack HCI 22H2 版本,或是本文採用的最新 Azure Stack HCI 23H2 版本才行。

在建立 AzSHCI 主機時,除了作業系統硬碟之外,還額外配置四個 3TB SSD 固態硬碟,屆時為超融合儲存集區的儲存空間,在 AzSHCI 主機處於關機狀態時,執行「Set-VMProcessor -VMName $HCINode -ExposeVIrtualizationExtensions $true」指令,為名稱為「AzSHCI」的第二層 VM 虛擬主機,啟用 vCPU 虛擬處理器硬體輔助虛擬化擴充功能,確保 AzSHCI 主機能夠正確接收到,底層 Hyper-V 虛擬化平台所公開和傳遞而來,Intel VT-x 及 EPT 硬體輔助虛擬化技術,順利啟用後請再次進行確認,「ExposeVirtualizationExtensions」欄位值是否為「True」,確保啟用的工作任務已套用生效(如圖 7 所示)。

圖 7、為 AzSHCI 主機啟用 vCPU 虛擬處理器硬體輔助虛擬化擴充功能

原則上,AzSHCI 主機超融合作業系統的安裝流程,和傳統 Windows Server 安裝程序相同(如圖 8 所示),安裝作業完成後系統將自動彈出命令提示字元視窗,並提醒管理人員設定 Administrator 管理者密碼,完成管理者密碼設定之後,便自動進入 「伺服器組態設定工具」(Server Configuration Tools,SConfig)互動設定視窗。

圖 8、安裝最新 Azure Stack HCI 23H2 版本超融合作業系統

透過 SConfig 伺服器組態設定工具,管理人員可以輕鬆為 AzSHCI 主機,進行基礎架構的組態設定作業,包含,電腦名稱、IP 位址網路組態設定、變更系統時區和時間、安裝最新安全性更新、加入網域環境……等工作任務。

在本文實作環境中,將 AzSHCI 虛擬主機的電腦名稱變更為「AzSHCI」、網路組態設定固定 IP 位址為「10.10.75.23」、變更系統時區為「(UTC + 8)Taipei」、在安裝完最新安全性更新並重新啟動完畢後,加入「lab.weithenn.org」網域環境(如圖 9 所示)。

圖 9、為 AzSHCI 主機進行基礎設定並加入 lab.weithenn.org 網域環境

AzSHCI 主機基礎設定完成後,請先確認額外配置的四個 3TB SSD 固態硬碟,是否能夠正確被系統識別,確保稍後建立超融合儲存集區時,能夠順利將 SSD 固態硬碟加入並匯整至儲存集區內,成為日後 VM 虛擬主機或容器等工作負載的儲存資源。

管理人員,可以直接開啟 AzSHCI 主機的 Console 畫面,離開 SConfig 伺服器組態設定工具後進入 PowerShell 指令環境,或是在 Azure VM 虛擬主機環境中,執行「Enter-PSSession -VMName "AzSHCI" -Credential lab.weithenn.org\Administrator」指令,待通過使用者身份驗證程序後,遠端連線至 AzSHCI 主機的 PowerShell 指令環境。

執行「Get-PhysicalDisk | Sort-Object -Property Size」指令,檢查 AzSHCI 主機儲存裝置,並以 Size 欄位將顯示結果進行排序,請確保四個 3TB SSD 固態硬碟中,每個 CanPool 欄位值皆為「True」,屆時這四個儲存裝置才能順利加入至超融合儲存集區中(如圖 10 所示)。

圖 10、確保系統識別四個 3TB SSD 固態硬碟且 CanPool 欄位為 True

執行「Install-WindowsFeature」指令,為 AzSHCI 主機安裝必要的伺服器角色和功能,例如,DCB 資料中心橋接(Data-Center-Bridging)、容錯移轉叢集(Failover-Clustering)、檔案伺服器(FS-FileServer)、Hyper-V PowerShell 管理工具……等,系統在安裝完畢後,提醒必須重新啟動主機才能套用生效。

由於 Install-WindowsFeature 安裝指令,會在安裝過程中執行相容性檢查,但因為本文是巢狀虛擬化測試環境,倘若使用 Install-WindowsFeature 指令,為 Azure Stack HCI 超融合作業系統,安裝 Hyper-V 虛擬化功能時,將會因為相容性檢查作業未通過而發生失敗的情況。

因此,請改為使用「Enable-WindowsOptionalFeature -Online -FeatureName "Microsoft-Hyper-V" -All -NoRestart」,確認安裝結果為 True 之後,再執行「Restart-Computer」指令重新啟動主機,以便安裝的伺服器角色和功能套用生效(如圖 11 所示)。

圖 11、為 AzSHCI 主機安裝超融合環境需要的伺服器角色和功能



建立容錯移轉叢集並啟用 HCI 超融合功能

由於,在本文撰寫期間,最新的 WAC(Windows Admin Center)2311 版本,仍尚未支援部署和組態設定「單台」AzSHCI 超融合運作環境。但若是透過 Azure Arc 在 Azure Portal 的話,則支援部署單台 AzSHCI 超融合運作環境。

管理人員可以使用 PowerShell 指令,執行部署單節點超融合叢集的動作。請執行「New-Cluster -Name HCI-Cluster -Node AzSHCI -NOSTORAGE -StaticAddress 10.10.75.20」指令,部署的容錯移轉叢集名稱為「HCI-Cluster」,節點主機名稱為「AzSHCI」,容錯移轉叢集的 IP 位址則是「10.10.75.20」,值得注意的是必須加上「-NOSTORAGE」參數。

順利部署容錯移轉叢集後,執行「Enable-ClusterStorageSpacesDirect -CacheState Disabled」指令,啟用 Storage Spaces Direct 的 HCI 超融合技術,並且停用儲存體快取機制,在系統詢問是否啟用 HCI 超融合技術時,鍵入 A 即可,當系統啟用完成後便會產生名稱為 EnableClusterS2D 的 HTML 格式報表檔案,執行「Get-StoragePool」指令,可以看到系統已經透過啟用 HCI 超融合技術,將四個 3TB SSD 固態硬碟空間,匯整為 12TB 的儲存集區(如圖 12 所示)。

圖 12、建立容錯移轉叢集並啟用 HCI 超融合技術



註冊 WAC 管理平台

雖然,最新版本的 WAC 管理平台,尚未支援部署單節點 AzSHCI 超融合叢集,但是當管理人員手動部署 HCI 超融合叢集後,同樣可以透過 WAC 管理平台,管理和組態設定 AzSHCI 超融合叢集,並新增及建立相關工作負載,例如,VM 虛擬主機、容器……等。

由於 WAC 安裝程式,無法安裝在 DC 網域控制站中,所以建立另一台安裝 Windows 10 的 VM 虛擬主機,並安裝 WAC 管理平台。順利通過使用者身份驗證機制,登入 WAC 管理平台後,請依序點選「Add > Add or create resources > Server Clusters > Add」,在Add Cluster欄位中鍵入「HCI-Cluster.lab.weithenn.org」叢集名稱,系統便會自動掃描和探索到此 HCI 超融合叢集(如圖 13 所示)。

圖 13、在 WAC 管理平台中新增管理名稱為 HCI-Cluster 的超融合叢集

順利連線並納管 HCI-Cluster 超融合叢集後,管理人員便可以透過 WAC 管理平台,查看 AzSHCI 超融合叢集的各種使用率和工作負載資訊,包括,超融合叢集節點主機數量和資訊、儲存裝置數量和資訊、管理 VM 虛擬主機、超融合叢集 CPU/Memory/Storage 資源使用資訊、IOPS 儲存效能、Latency 延遲時間、Throughput 傳輸速率……等。

在 WAC 管理介面中可以看到,系統提示必須先將此台 WAC 管理平台,註冊至 Azure 公有雲環境中(如圖 14 所示),才能為剛才部署的單節點 AzSHCI 超融合叢集進行註冊的動作,後續才能導入 Azure Monitor 監控機制、啟用 Azure Benefits 權益、建置 AKS 容器平台……等,達成混合雲運作架構。

圖 14、系統提示必須先註冊 WAC 管理平台

請在 WAC 管理平台中,依序點選「Settings > Register > Register with Azure > Register」,在彈出的對話視窗中,請於 Select an Azure cloud 下拉選單中選擇「Azure Global」項目,然後在 Copy this code 欄位中按下 Copy 鈕,並按下 Enter the code 連結,此時瀏覽器將會另開新頁,請貼上剛才複製的 Code 內容,通過使用者身份驗證程序後,系統會提示關閉該新開分頁。

回到原 WAC 管理介面視窗中,可以發現多了 Connect to Microsoft Entra ID 的訊息(舊稱為 Azure AD),並顯示 Microsoft Entra(tenant)ID 資訊,請在下拉選單中選擇採用的 Microsoft Entra ID 後,選擇 Use Existing 或 Create New 選項後按下 Connect 鈕,當系統順利連接至 Microsoft Entra ID 環境後,便會顯示 Now connected to Microsoft Entra ID 訊息,請按下 Sign in to Azure 選項中的 Sign in 鈕(如圖 15 所示),即可將此台 WAC 管理主機,註冊至指定的 Azure 訂閱帳戶和 Microsoft Entra ID 環境中。

圖 15、註冊 WAC 管理主機至指定的 Azure 訂閱帳戶和 Microsoft Entra ID 環境中

值得注意的是,在繼續下一步動作之前,必須先組態設定 WAC 管理主機,提升並擁有相關 API 權限,否則後續進階操作將會失敗。請登入 Azure Portal 後,依序點選「Microsoft Entra ID > Manage > App registrations > All applications > WAC > Manage > API permissions」項目,點選其中一個 Delegated 項目後,點選「Grant admin consent for」項目後,狀態便會從原本的 Not granted 轉變為 Granted(如圖 16 所示)。

圖 16、為已註冊的 WAC 管理主機提升 API 權限

回到 AzSHCI 超融合叢集 Dashboard 頁面中,點選 Azure connection 中的 Register this cluster 連結,在彈出的 Register Azure Stack HCI 對話框中,請在 Azure subscription ID 下拉選單中,選擇要使用的 Azure 訂閱帳戶,並在 Azure Resource Group 欄位中選擇 Create new 項目,鍵入資源群組名稱,本文實作為「RG-EastAsia-AzSHCI」,在 Azure Region 選擇此資源群組所要使用的 Azure 資料中心,選擇 Azure 東亞機房「East Asia」,展開 Advanced 勾選「Enable Azure Arc」項目,連同 Azure Arc管理機制一同安裝並註冊使用,確認無誤後按下 Register 鈕,立即進行向 Azure 公有雲註冊 AzSHCI 叢集和 Azure Arc 管理機制。

註冊流程開始後,系統將會彈出 CredSSP 視窗,請鍵入連接 AzSHCI 超融合叢集時,使用的 CredSSP connection 使用者帳號及密碼,通過使用者身份驗證程序註冊成功後,可以手動開啟另一個視窗,登入 Azure Portal 中的 Resource Group,可以看到剛才指定的「RG-EastAsia-AzSHCI」資源群組已成功建立,進入後在 Resources 區塊中,可以看到註冊成功的「HCI-Cluster」超融合叢集。

確認 AzSHCI 超融合叢集註冊成功後,切換回 WAC 管理平台介面,系統顯示註冊成功資訊,而 Azure Connection 區塊中的 Status 狀態資訊,也從原本紅色錯誤的 Not yet registered 狀態,轉變為綠色打勾的 Connected 狀態(如圖 17 所示)。

圖 17、成功註冊 AzSHCI 單節點超融合叢集



選擇採用精簡佈建磁碟區

首先,為 AzSHCI 單節點超融合叢集,建立新式的「精簡佈建」(Thin Provisioning)磁碟區,以供後 VM 虛擬主機、容器、或檔案伺服器……等工作負載使用。

值得注意的是,雖然 AzSHCI 超融合叢集已全面支援精簡佈建磁碟區,然而預設情況下,系統預設值仍為「固定」(Fixed)磁碟區。因此,管理人員可以在建立磁碟區之前,在 WAC 管理介面中,依序點選「HCI-Cluster > Configuration > Settings > Storage > Storage Spaces and pools > Storage Pool : S2D on HCI-Cluster > Default Provisioning Type」,將預設值的 Fixed 選項,改為選擇「Thin」選項後,按下 Save 鈕將磁碟區預設值,修改為採用精簡佈建磁碟區(如圖 18 所示)。

圖 18、調整 AzSHCI 單節點超融合叢集預設改採精簡佈建磁碟區

雖然,將部署磁碟區的預設值,調整為精簡佈建磁碟區,但是在建立磁碟區的過程中,管理人員還是可以根據需求,為即將建立的磁碟區調整類型為固定或精簡佈建,舉例來說,在建立磁碟區的過程中,鍵入磁碟區名稱和 Size 空間大小的數值後,只要點選 More options 展示進階選項,便可以在 Provision as 區塊中,選擇採用固定(Fixed)或精簡佈建(Thin),確認後按下 Create 鈕即可(如圖 19 所示)。

圖 19、依據需求選擇建立固定或精簡佈建磁碟區

為了測試精簡佈建磁碟區的彈性,分別建立名稱為「Volume-2TB-Thin」的 2TB 精簡佈建磁碟區,和名稱為「Volume-10TB-Thin」的 10TB 精簡佈建磁碟區後(如圖 20 所示),稍後將查看實際佔用儲存集區多少空間。

圖 20、分別建立 2TB 和 10TB 的精簡佈建磁碟區

切換到 Dashboard 主頁後,可以看到雖然建立總共 12TB 大小的精簡佈建磁碟區,但是在 Used 欄位仍僅佔用「72 GB」儲存空間,而 Available 欄位仍有「11.9 TB」可供使用(如圖 21 所示),顯示精簡佈建磁碟區,確實能為企業和組織提供儲存空間彈性。

圖 21、採用精簡佈建磁碟區有效提升儲存空間可用率





結語

透過本文的深入剖析和實作演練後,相信管理人員除了理解最新 Azure Stack HCI 23H2 版本特色功能之外,透過實戰演練建立 AzSHCI 單節點超融合叢集,並部署精簡佈建磁碟區,以供後續 VM 虛擬主機和容器等工作負載使用,讓企業和組織的管理人員,能快速建立研發和測試 AzSHCI 超融合叢集環境。

Nutanix 叢集架構深入玩,動手部署 Prism Central | 網管人 224 期

$
0
0


網管人雜誌

本文刊載於 網管人雜誌第 224 期 - 2024 年 9 月 1 日出刊,NetAdmin 網管人雜誌為一本介紹 Trend Learning 趨勢觀念、Solution Learning 解決方案、Technology Learning 技術應用的雜誌,下列筆記為本站投稿網管人雜誌獲得刊登的文章,網管人雜誌於每月份 1 日出刊您可於各大書店中看到它,或透過城邦出版人讀者服務網進行訂閱。





本文目錄






前言

在 Nutanix 叢集運作架構中,最重要的三大核心元件分別是 AHV / AOS / Prism,其中 AHV 擔任 SDC 軟體定義運算,也就是虛擬化平台的角色,負責運作屆時的 VM 虛擬主機或 Pod/Container 容器等工作負載,而 AOS 擔任 SDS 軟體定義儲存角色,負責將每台 Nutanix 節點主機的本地端儲存資源進行整合,達成 HCI 超融合運作架構,至於 Prism 則是管理這些運作架構和工作負載,也就是整體基礎架構的集中式管理平台(如圖 1 所示)。

圖 1、Nutanix 叢集三大重要運作元件 AHV/AOS/Prism





Prism 管理平台特色功能

事實上,Prism 是一個分散式資源管理平台,幫助管理人員能夠維護管理和監控,在 Nutanix 叢集中的各種物件和多項服務,無論 Nutanix 叢集是在企業和組織的地端資料中心或是雲端。在 Prism 管理介面的部份,GUI 圖形方面採用新興的 HTML 5 UI 介面設計,在文字指令方面則是支援 RESTAPI、CLI 指令、PowerShell Cmdlets 等方式,同時也支援管理 Nutanix 叢集中的工作負載、定義安全性政策、監控和分析工作負載……等(如圖 2 所示)。

圖 2、Prism 運作架構示意圖



Prism Services

事實上,在 Nutanix 叢集中,運作在每一台節點主機上的 CVM 主機,都會運作 Prism Service,並且系統會在眾多 Prism Service 中,自動透過選舉機制選出一台 CVM 主機擔任 Prism Leader 的角色,由 Prism Leader 來處理所有收到的 HTTP Request,倘若其它台 CVM 主機中的 Prism Service,收到 HTTP Request 請求時,將會使用 HTTP Respone Status Code 301機制,把 HTTP Request 請求流量重新導向至 Prism Leader 進行處理(如圖 3 所示)。

圖 3、Prism Service 和 Prism Leader 運作架構示意圖

原則上,Prism Service 會 Listen Port 80 和 9440,來回應使用者的 HTTP Request 請求流量,一旦收到 HTTP Port 80的連線請求時,系統將會自動重新導向至加密連線的 HTTPs Port 9440,也就是屆時 Prism Element 或 Prism Central 登入頁面。

此外,Prism Leader 角色,也同時負責 Nutanix 叢集外部 IP 位址的託管作業,倘若運作 Prism Leader 的 CVM 主機故障,連帶導致 Prism Leader 角色故障時,系統會自動從叢集內還存活著的 Prism Service 中,再次透過選舉機制自動選出一台 CVM 主機擔任 Prism Leader 角色,繼續處理收到的 HTTP Request,並接手及託管 Nutanix 叢集外部 IP 位址,然後透過 Gratuitous ARP(gARP)機制,清除網路環境中過時的 ARP 快取,確保新的 Prism Leader 能夠無縫接手服務和 HTTP Request 請求流量。

倘若,管理人員希望能夠查詢,在目前的 Nutanix 叢集中,哪一台 CVM 主機擔任 Prism Leader 角色時,可以 SSH 登入任一台 CVM 主機後,執行「curl localhost:2019/prism/leader」指令,即可得知目前 Prism Leader 角色,運作在哪一台 CVM 主機中。



Prism Element vs Prism Central

在 Prism 運作架構中,GUI 圖形管理介面的部份,又區分為 Prism Element(PE)和 Prism Central(PC),這兩者之間簡單區別的方式,便是每個 Nutanix 叢集部署完成後,都將運作 Prism Element(PE),而需要管理多個 Nutanix 叢集時,則需要透過 Prism Central(PC)管理平台,達到集中和統一管理的目的(如圖 4 所示)。當然,倘若企業和組織只有一個 Nutanix 叢集時,仍然可以部署 PC 管理平台,以便啟用和使用進階特色功能及服務。

圖 4、管理單個叢集的 PE 和支援管理多個叢集的 PC

原則上,大部份的功能,無論是在 PE 或 PC 管理介面中都能設定,然而還是有些服務或特色功能,僅能在 PE 或 PC 管理介面中設定,舉例來說,每個 Nutanix 叢集的 Virtual IP 位址,以及 iSCSI Data Service IP 位址,就只能在 PE 管理介面進行組態設定,而無法透過 PC 管理介面進行設定。

然而,某些進階特色功能,就只能在 PC 管理介面進行啟用和組態設定,因為在 PE 管理介面中並沒有支援這些進階特色功能,舉例來說,當企業和組織購買的 Nutanix 軟體授權,具備成本管理機制時,便能啟用和連接 Xi Beam 特色功能,進行 Nutanix 叢集的成本估算及花費分析,或是透過 Planning Dashboard 功能,分析目前和未來資源需求的使用趨勢(如圖 5 所示)。

圖 5、透過 Planning Dashboard 功能分析目前和未來資源需求的使用趨勢

那麼,對於管理人員來說,何時該使用 PE 或 PC 管理介面 ?簡單的大原則就是,使用 PC 來管理和監控多個 Nutanix 叢集,在某些特殊工作任務需要時,才切換到 PE 管理介面進行單個叢集的組態設定作業。舉例來說,在平時維護管理 Nutanix 叢集架構中,管理 Clusters/Hosts/Disks 時,一律使用 PC 管理介面進行維護作業,然而需要增加 Node 節點主機擴充某個 Nutanix 叢集規模、修復 Host Boot Device、組態設定 Node 節點主機進入維護模式……等,這些特殊工作任務需求時,才切換到 PE 管理介面(如圖 6 所示)。

圖 6、透過 PE 管理介面處理特殊工作任務需求

一般來說,Nutanix 叢集的進階特色功能,通常也僅在 PC 管理介面才能啟用和組態設定,舉例來說,Acropolis Dynamic Scheduling(ADS)資源動態排程機制,能夠視 VM 虛擬主機和容器等工作負載情況,動態遷移至 Nutanix 叢集中其它 Node 節點主機,而 Host Affinity 原則也必須透過 PC 管理介面才能進行組態設定。此外,Calm/Karbon/Flow/Files 等進階功能服務,也必須透過 PC 管理介面才能啟用和組態設定(如圖 7 所示)。

圖 7、透過 PC 管理介面啟用和組態設定進階功能服務





實戰 – 部署 Prism Central 管理平台

在開始部署 PC 管理平台之前,除了確保 PE 叢集運作正常之外,也必須確保符合相關運作環境需求,否則可能會在部署 PC 管理平台期間,遭遇到不可預期的錯誤而導致部署作業中斷。

由於,本文實作環境中,建構的 Nutanix 叢集為 Nutanix CE 社群版本,所以並無法直接下載 Prism Central ISO 映像檔。因此,將會採用「1-Click Internet」方式,部署 PC 管理平台,在開始進行部署作業之前,請確保符合下列環境要求:
  • Nutanix 叢集運作環境中,指定的預設閘道必須通訊正常,並且能到達網際網路。
  • 確保 PE 叢集,與即將部署的 Prism Central IP 位址,其 TCP 連接埠 Port 2100 通訊正常,並允許通訊流量通過不會被防火牆阻擋。
  • 確保 PE 叢集中,CVM 主機和即將部署的 PC 主機,處於相同 VLAN 網路環境,倘若未處於相同 VLAN 網路環境時,必須確保 Layer 3 路由機制運作正常,並且過程中通訊流量不會被防火牆所阻擋。
  • 不可以將重複的 IP 位址,指派給即將部署的 PC 管理平台使用。
  • 部署 PC 管理平台的 Storage Container 儲存資源,必須確保叢集中所有的 AHV 虛擬化平台已經順利掛載。



NCC 健康狀態檢查

在正式部署 PC 管理平台之前,必須確保 Nutanix 叢集健康狀態。請使用 admin 管理帳號,登入 PE 管理介面,然後依序點選「Health > Actions > Run NCC Checks」項目,在彈出的 Run Checks 視窗中,點選 All Checks 項目並勾選 Send the cluster check report in the email 選項後,按下 Run 鈕進行 NCC 健康狀態檢查作業(如圖 8 所示)。

圖 8、在 PE 叢集部署 PC 之前,進行 NCC 健康狀態檢查作業

當 NCC 健康狀態檢查作業完成後,請確保檢查項目中 Error 或 Failed 欄位數字為 0,才進行 PC 管理平台部署作業,否則請先解決相關錯誤或失敗等問題,避免在 Nutanix 叢集不健康的狀態下,部署 PC 管理平台。



部署 Prism Central 管理平台

回到 PE 首頁,在 Home Dashboard 頁面中,可以看到 Prism Central 區塊,目前狀態為「Not registered」,表示目前的 PE 叢集,尚未受到任何 PC 管理平台連接及納入管理。

請點選下方的「Register or create new」選項,準備部署 PC 管理平台,在彈出的 Prism Central 視窗中,將有二個區塊可供選擇,倘若環境中早已經部署 PC 管理平台時,那麼只要點選 Connect 鈕,即可組態設定 PC 管理平台,連接並管理此 PE 叢集。

本文實作環境是全新運作環境,並沒有部署任何的 PC 管理平台,請按下 Deploy 鈕,進入 PC 管理平台部署程序。

在彈出的 Prism Central Deployment 視窗中,首先,系統會顯示可供部署的 PC 版本,倘若你的 PE 叢集環境,不允許網際網路連線的話,那麼必須預先下載 Prism Central Metadata file(.json),以及 Prism Central Installation Binary(.tar)檔案後,在這裡進行上傳的動作,本文選擇採用的 PC 版本為「pc.2022.6.0.11」後,按下 Next 鈕(如圖 9 所示)。

圖 9、選擇準備部署的 PC 版本

在 2 Scale type 頁面中,請選擇所要部署的 PC 規模(如圖 10 所示),分別是部署「單台」的 PC 虛擬主機,或是「3 台」PC 虛擬主機,其中單台主機的 PC 管理平台,支援管理的 VM 虛擬主機數量為 2,500 - 12,500 台,而 3 台主機組成的 PC 管理平台,則支援管理 5,000-25,000 台的 VM 虛擬主機。

圖 10、選擇 PC 管理平台的運作規模

事實上,這兩種運作規模的主要差異,除了支援管理的 VM 虛擬主機最大數量不同之外,另一個主要的差異點在於,企業和組織是否需要 PC 管理平台,具備高可用性(High Availability)和彈性容錯(Resiliency)機制,因為部署 3 台主機組成的 PC 管理平台時,系統預設會使用 RF2 資料保護機制,也就是額外會再複寫一份資料,至 PC 叢集中其它 Node 主機,確保 PC 管理平台的資料可用性。

值得注意的是,倘若企業或組織,一開始因為運作規模較小的關係,而選擇部署單台 PC 主機運作規模,後續隨著營運服務的擴大專案的增長,而運作更多 VM 虛擬主機,並需要擴大 PC 管理平台時,也無須重新部署 PC 管理平台,可以直接在 PE 管理介面中,執行 PC 管理平台的水平擴充(Scale-Out)作業,將 PC 管理平台的運作規模,由原本的單台運作規模,線上水平擴充為具備高可用性和容錯機制的 3 台主機 PC 管理平台。

在 3 Configuration 頁面中,首先選擇 PC 主機的 Size 大小,共有三種不同的 Size 等級,分別是 Small、Large、X-Large(如圖 11 所示),其中 Large 和 X-Large 都能管理,最多 12,500 台 VM 虛擬主機的規模,但是 X-Large 因為配置更多的 vCPU 和 vMemory 運算資源,所以還能額外承載其它服務,例如,ANC(Atlas Network Controller)服務。

圖 11、選擇部署的 PC 虛擬主機 Size 大小

選擇 PC 虛擬主機 Size 大小後,請往下繼續組態設定其它配置,在 Network 下拉選單中,選擇 PC 虛擬主機所要連接的 vNetwork 虛擬網路,在本文實作環境中,已經預先建立名稱為「PC-vNetwork」的 vNetwork 虛擬網路,並且子網路遮罩為「255.255.255.0」,預設閘道 IP 位址為「10.10.75.254」,使用的 DNS 名稱解析伺服器 IP 位址為「10.10.75.10」。

在 Select a Container 下拉式選單中,已經預先建立名稱為「PrismCentralContainer」的 Storage Container 儲存資源,最後在 VM Name 和 IP 欄位中,分別輸入 PC 的主機名稱以及 IP 位址(如圖 12 所示),確認無誤後按下 Next 鈕。

圖 12、組態設定 PC 網路組態和主機名稱

在 4 Summary 頁面中,再次檢查相關組態設定內容無誤後,按下 Deploy 鈕,系統便立即執行部署 PC 管理平台的工作任務。此時,回到 PE 首頁的 Home Dashboard 頁面中,可以看到 Prism Central 區塊的狀態為 Deploying,切換到 View All Tasks 頁面中,會看到 Download and deploy Prism Central 工作任務名稱正在執行(如圖 13 所示),包含工作任務開始的時間、進度百分比、持續時間……等資訊,並且有 2 個子工作任務執行中,可以按下 Details 繼續查看相關子工作任務內容和進度。

圖 13、系統開始部署 Prism Central 管理平台

事實上,整個部署的工作任務非常多,有興趣的管理人員可以逐一展示,舉例來說,展開後可以到二個子工作任務,分別是 Prism Central Deployment 和 Software downloaded,再展開又可以看到 Application Deployment 和 Tarball Extraction,再展開又有 Post Deployment Steps、Cluster Creation、VM Deployment、Setup State Machine……等,本文實作環境共花費「1 小時 6 分鐘」,完成 PC 管理平台的部署作業。



註冊 Prism Central 管理平台

此時,已經完成 PC 管理平台的部署作業,請開啟瀏覽器鍵入「https://pc.lab.weithenn.org:9440」,連接至 PC 管理平台登入畫面,使用預設的管理帳號「admin」,及預設的管理密碼「Nutanix/4u」,首次登入成功後,系統將會提示必須變更預設管理密碼,變更完成後即可切換回 PE 管理畫面,準備執行註冊 PC 管理平台的動作。

同樣的,Nutanix 官方建議,在正式註冊 PC 管理平台之前,請確保目前 Nutanix 叢集健康狀態,請在 PE 管理介面中,依序點選「Health > Actions > Run NCC Checks」項目,在彈出的 Run Checks 視窗中,點選 All Checks 項目並勾選 Send the cluster check report in the email 選項後,按下 Run 鈕進行 NCC 健康狀態檢查作業。

回到 PE 首頁,在 Home Dashboard 頁面中,請在 Prism Central 區塊中,點選下方的「Register or create new」選項,準備將此 Nutanix 叢集註冊至 PC 管理平台,在彈出的 Prism Central 視窗中,我們已經部署完成 PC 管理平台,所以點選 Connect 鈕準備執行註冊管理的動作。

在 1 Connect info 頁面中,系統提醒管理人員,一旦將 PE 註冊至 PC 管理平台後,有部份管理功能將會轉變為「唯讀模式(Read-Only Mode)」,但管理人員無須擔心,因為在 PC 管理平台中將具備完整權限(如圖 14 所示)。

圖 14、系統提示部份管理功能將轉換為唯讀模式

在 2 Configuration 頁面中,請鍵入 PC 管理平台的 IP 位址或 FQDN,並鍵入連線通訊埠 Port 9440,以及 PC 管理平台的管理帳號及密碼,確認無誤後按下 Connect 鈕(如圖 15 所示),系統將立即把目前的 PE 叢集,註冊至 PC 管理平台中。

值得注意的是,倘若先前部署好 PC 管理平台之後,並未登入管理介面變更預設管理密碼的話,那麼這裡即便鍵入正確的預設管理密碼,仍會發生無法註冊連接至 PC 管理平台的情況。

圖 15、註冊目前的 Prism Element 叢集至 Prism Central 管理平台中

一旦成功將 PE 叢集註冊至 PC 管理平台後,在 PE 管理介面中,便會看到 Prism Central 區塊狀態為 Connected,並顯示 PC 管理平台的 IP 位址,按下 Launch 連結後,系統將會開啟 PC 管理平台登入畫面(如圖 16 所示)。同一時間,PE 叢集和 PC 管理平台之間,將會開始進行資料同步作業,將 PE 叢集中「過去 90 天」內,相關的運作資料和效能數據都進行同步。

圖 16、成功將 PE 叢集註冊至 PC 管理平台

成功登入 PC 管理平台後,可以看到納入管理的 ntnx-cluster 叢集資訊(如圖 17 所示),由於目前的 PC 管理平台只有管理單一 ntnx-cluster 叢集,倘若日後管理多個叢集時,將會一次顯示多個 Nutanix 叢集的相關運作資訊。

圖 17、從 PC 管理介面中監控並管理 PE 叢集



將 PE 叢集退出 PC 管理平台

在某些情況下,企業或組織有可能會考慮,將 PE 叢集從 PC 管理平台中退出(或稱為取消註冊 Unregister),舉例來說,由於每個 PE 叢集,只能被單一 PC 管理平台納入管理,倘若企業或組織因為規模擴大或專案需求,而建立新的 PC 管理平台,那麼 PE 叢集便必須退出原有的 PC 管理平台後,才能加入並被新的 PC 管理平台所納管。

又或許是原有的 PC 管理平台,出於某種原因重新配置 Prism Central VM 主機的 IP 位址,那麼 PE 叢集便必須要重新註冊和加入 PC 管理平台。

事實上,在 AOS 5.5 版本之前,管理人員可以在 PE 管理介面中,直接執行取消註冊至 PC 管理平台的工作任務。然而,從 AOS 5.5 版本開始和後續版本中,有關 RBAC 角色存取控制、應用程式管理、微分段安全性原則、PSS 自助式服務……等,改為由 PC 管理平台統一組態設定和管理,一旦 PE 執行取消註冊的動作後,這些特色功能除了無法使用之外,相關的組態設定內容也將會自動刪除,即便後續再次註冊加入也必須重新組態設定才行,所以官方便將此功能刪除,以便降低和避免發生意外取消註冊的動作。有關 PE 叢集取消註冊的詳細資訊,請參考 Nutanix KB-4944KB-9736 知識庫文章內容。

首先,請透過 SSH 連線至 PE 叢集中任一台 CVM 主機,執行「cluster status」指令,確保所有叢集服務運作中並且健康狀態良好,請執行「ncli multicluster remove-from-multicluster external-ip-address-or-svm-ips=10.10.75.30 username=admin password='<Your_Password>' force=true」指令,將 PE 叢集從 PC 管理平台中取消註冊,接著執行「ncli multicluster get-cluster-state」指令,確認 PE 叢集取消註冊是否完成,此時在 PE 管理介面中,Prism Central 區塊狀態退回之前 Not registered(如圖 18 所示)。

圖 18、將 PE 叢集從 PC 管理平台中取消註冊

接著,分別在 PE 叢集和 PC 管理平台中,執行叢集資料清理的動作。首先,請在 PE 叢集的 CVM 主機中,執行「ncli cluster info」指令,查詢 Cluster UUID 並複製後,SSH 登入至 PCVM 主機中,執行「python /home/nutanix/bin/unregistration_cleanup.py uuid」指令,將 PC 管理平台中,有關 PE 叢集的資料進行清理的動作,系統將顯示「Successfully completed cleanup actions for cluster」資訊。

同樣的,請在 PCVM 主機中,執行「ncli cluster info」指令,查詢 Cluster UUID 並複製後,在 PE 叢集的 CVM 主機中,執行「python /home/nutanix/bin/unregistration_cleanup.py uuid」指令,將 PE 叢集中,有關 PC 管理平台的資料進行清理並停止同步資料的動作(如圖 19 所示)。

圖 19、清理 PE 叢集中有關 PC 管理平台的資料

值得注意的是,從新版 pc.2024.1 和 AOS 6.8 版本開始,當 PE 叢集取消註冊並退出 PC 管理平台後,PE 叢集將會自動進入「黑名單(blacklisted)」狀態,並且無法再次註冊到同一台或不同台 PC 管理平台中,主要原因在於從 Prism Central 2024.1 版本開始,新增「PE 退役(PE Decommissioning)」機制,倘若希望能再次恢復成可註冊狀態,必須連絡 Nutanix 技術支援才能解決,詳細資訊請參考 Nutanix KB-15679 知識庫文章





結語

透過本文的深入剖析和實作演練後,相信管理人員除了理解 Prism Element 叢集,和 Prism Central 管理平台之間的差異之外,也實際操作部署和註冊 Prism Central 管理平台,並在需要時也能夠取消註冊 Prism Central 管理平台。

Kubernetes Summit 2024 | 站長開講

$
0
0


活動簡介

Kubernetes Summit 2024一場匯集雲原生技術領域最頂尖專家和開發者的盛會。在這裡,您將有機會與來自世界各地的技術先驅一起探索 Kubernetes 的最新動態和創新應用。本次峰會將涵蓋一系列精彩的論壇演講,由業界知名的講者分享雲原生技術方面的深刻見解和豐富經驗。

此外還規畫多場實戰工作坊,您將有機會深入學習 Kubernetes 的實際應用,並通過實作練習來鞏固您的技能。還有展攤區域將展示最新的產品和技術,讓您近距離接觸行業的前沿。 無論您是 Kubernetes 的新手還是資深專家,這都是一個不容錯過的機會。來自各行各業的專業人士將在此聚集,共同交流、學習和成長。我們期待您的參與,一起開啟雲原生技術的新篇章。





活動資訊

日期:   2024 年 10 月 23 - 24 日 (三 - 四)
時間:   09:00 - 17:00
議程:   大會議程表
報名:   報名購票






站長議程

在本次大會中,站長有場 90 分鐘的「Azure Kubernetes Service with GitOps」體驗工作坊,詳細資訊請參考大會網站。



活用 vCenter 內建功能,備份還原預因應災難事件 | 網管人 225 期

$
0
0


網管人雜誌

本文刊載於 網管人雜誌第 225 期 - 2024 年 10 月 1 日出刊,NetAdmin 網管人雜誌為一本介紹 Trend Learning 趨勢觀念、Solution Learning 解決方案、Technology Learning 技術應用的雜誌,下列筆記為本站投稿網管人雜誌獲得刊登的文章,網管人雜誌於每月份 1 日出刊您可於各大書店中看到它,或透過城邦出版人讀者服務網進行訂閱。





本文目錄






前言

隨著企業和組織歷經數位轉型變革過程,營運服務也從過去實體主機工作負載,轉換為虛擬化基礎架構,改為運作在 VM 虛擬主機當中,或是將營運應用程式容器化,甚至建構在容器化基礎之上的 Serverless 架構。

在 VMware vSphere 虛擬化架構中,無論是管理 VM 虛擬主機和容器等工作負載,或是組態設定 vSS 標準虛擬網路、vDS 分佈式虛擬網路、vSphere vMotion 線上遷移工作負載、vSphere HA 高可用性機制、vSAN HCI 超融合環境……等,管理人員都可以透過 vCenter Server 集中式管理平台,達成有效管理和組態設定的工作任務。雖然,vCenter Server 管理平台發生故障事件而停止運作時,並不會影響到線上運作的 VM 虛擬主機和容器等工作負載,並且 vSphere HA 高可用性機制仍持續運作中。

然而,一旦 vCenter Server 管理平台發生故障並停止服務後,管理人員便無法有效管理 vSphere 虛擬化架構,無論是組態設定或是進階的 vMotion 線上遷移工作負載……等工作任務,都將因為 vCenter Server 管理平台故障而停擺。

因此,官方持續為 vCenter Server 打造各種新功能或增強功能,目的就是提升 vCenter Server 管理平台的 SLA 等級。舉例來說,針對 vCenter Server 臭蟲修正 / 版本更新 / 版本升級造成的停機時間,便透過 vCenter Reduced Downtime Upgrade(RDU)新功能,讓vCenter管理平台,在執行安全性更新或版本升級時,能夠將停機時間最大化縮短,在最新的vSphere 8 Update 3 版本中,甚至能將版本更新或升級作業程序的停機時間限縮在 5 分鐘之內(如圖 1 所示)。

圖 1、vCenter Reduced Downtime Upgrade(RDU)機制說明示意圖

此外,一旦 vCenter Server 遭遇重大災難事件導致故障無法服務時,雖然可以透過先前完成的備份立即進行還原作業,但是仍有可能因為時間差的關係,導致還原後的 vSphere 基礎架構產生環境混亂的問題,舉例來說,管理人員設定「每天凌晨 2 點」為 vCenter 執行排程備份,但是 vCenter 在下午 4 點發生災難事件,即便立即為 vCenter 執行還原的工作任務,但是從凌晨 2 點到下午 4 點這段期間,整個 vSphere 基礎架構中,仍有許多事件和各項工作負載的統計資料,已經寫入到 vCenter 資料庫中,因此復原後的 vCenter 管理平台,將會遺失這段期間的事件和工作負載統計資料。

因此,在新版 vSphere 8 版本中,推出「分散式鍵值儲放區」(Distributed Key-Value Store,DKVS)機制(如圖 2 所示)。簡單來說,當 vCenter 管理平台發生災難時,這段期間發生的各項事件和工作負載統計資料,也將會儲存在 vSphere 叢集中所屬的 ESXi 節點主機內。

一旦 vCenter 管理平台完成還原作業重新上線後,將會與 vSphere 叢集中所屬的 ESXi 節點主機進行通訊,將災難發生至還原作業期間的事件和工作負載統計資料取回,讓 vCenter 管理平台能夠迅速恢復正常運作,並取得 vSphere 叢集和 ESXi 節點主機的最新資訊。


圖 2、Enhanced Recovery of vCenter 運作架構示意圖





實戰 – vCenter Server 8 備份和還原

雖然,市場上已經有許多備份軟體廠商,推出針對 vCenter 備份還原的產品。但是,對於 IT 預算不多的小型企業和組織來說,即便只是備份軟體授權的費用,都讓原本就不足的 IT 預算雪上加霜。

因此,本文中將剖析和實戰演練,透過 vCenter 內建的備份和還原機制,針對 vCenter 進行排程定期備份的工作任務,並模擬演練故障損壞事件發生時,如何透過平時的排程備份立即進行還原,讓 vCenter 管理平台能在最短時間內恢復正常運作。

vCenter 支援兩種備份機制,第一種為「映像檔方式」(Image-Based),針對整台 vCenter 虛擬主機進行備份,市場上的備份軟體便是採用這種備份方式。第二種,為「檔案方式」(File-Based),將 vCenter 管理平台中組態設定備份後,當災難發生時進行還原作業,在本文實戰演練小節中便是採用此方式。

值得注意的是,倘若企業和組織有為 vCenter 管理平台,建立「增強型鏈接模式」(Enhanced Linked Mode,ELM)運作環境的話,那麼建議管理人員應採用檔案方式進行備份,而非使用映像檔方式備份。

其主要原因在於,增強型鏈接模式運作環境中,多台 vCenter 同時運作並互相同步及複製資料,但採用映像檔方式備份時,會針對 vCenter 進行即時快照,一旦還原後可能會發生還原後的 vCenter 狀態,與其它 vCenter 之間不同導致 SSO Domain Data 發生衝突,因此建議管理人員在 ELM 運作環境中,應採用本文實戰演練的檔案方式進行備份和還原作業。



主動備份 vCenter 管理平台

在開始執行自動化排程備份之前,建議管理人員先嘗試主動備份一次,確保備份工作任務能夠順利執行並完成。事實上,雖然是內建的備份機制,但是官方仍不斷增強其功能,舉例來說,在過去舊版 vSphere 6.5 時,備份和還原機制僅支援 FTPS、HTTPS、SCP 通訊協定,在 vSphere 6.7U2 版本時,則額外新增支援 SFTP、NFSv3、SMBv2 通訊協定。

值得注意的是,採用 FTPS 通訊協定時僅支援 Explicit 模式,採用 HTTPS 通訊協定時必須在網頁伺服器上啟用 WebDAV 功能。此外,透過 HTTP Proxy 傳輸備份資料時,則僅支援採用 FTPS 和 HTTPS 通訊協定。

在本文中,將採用 SMB 通訊協定進行主機備份的工作任務。首先,在提供 SMB 通訊協定的備份伺服器中,已經建立名稱為「vCenter_Backup」資料夾,以便屆時存放 vCenter 備份資料,並開啟資料夾分享及權限設定,確保稍後主動備份 vCenter 的工作任務能夠順利完成。

前置作業完成後,請登入 vCenter Server Management(Port 5480)管理介面,登入後依序點選「Backup > Activity > Backup Now」,在彈出的 Backup Now 視窗中,請在 Backup location 欄位中,填入 SMB 通訊協定搭配剛才準備的備份資料夾路徑,本文實作環境為「smb://backup.lab.weithenn.org/vCenter_Backup」,在 Backup server credentials 欄位,填入儲存備份檔案的「Backup_Admin」管理帳號和密碼,確認無誤後按下 START 鈕,系統便立即進行單次主動備份任務(如圖 3 所示)。

圖 3、鍵入備份伺服器中存放備份的資料夾路徑及管理者資訊

主機備份後的檔案大小及花費時間,與 vCenter 管理平台的運作狀態、事件、工作項目、組態設定……等有關,備份任務會在剛才指定的備份資料夾中,依序建立 vCenter 的 FQDN 資料夾,以及 vCenter 版本和備份日期及時間子資料夾(如圖 4 所示)。

圖 4、執行主動備份 vCenter 管理平台工作任務



排程備份 vCenter 管理平台

相對於單次執行的主動備份,對於企業和組織來說,組態設定排程時間,讓系統能夠自動定期備份 vCenter Server 管理平台,才是有效的備份解決方案。值得注意的是,目前系統內建的排程備份機制,僅支援組態設定一個排程,尚未支援組態設定多個排程同時執行。

登入 vCenter Management 管理介面後,依序點選「Backup > Backup Schedule > Configure」,在彈出的排程備份視中,在 Backup location 欄位填入通訊協定 SMB,以及備份伺服器的 FQDN 和備份資料夾路徑,在 Backup server credentials 欄位,填入具備備份資料夾寫入權限的使用者帳號和密碼。

在 Schedule 下拉式選單中,有 Daily/Weekly/Custom 選項可供選擇,其中 Custom 是指選擇每週的某幾天進行備份作業,在本文中組態設定每天凌晨 2 點進行備份作業,在 Encrypt backup 欄位,倘若管理人員希望為備份檔案進行加密時,請鍵入兩次加密密碼即可。

在 Number of backups to retain 欄位中,選擇「Retain all backups」項目時,系統將會保留所有的備份檔案,選擇「Retain last backups」項目,則是設定要保留的備份檔案份數,本文實作環境選擇保留最近 14 天的備份檔案,確認無誤後按下 Create 鈕即完成排程備份設定(如圖 5 所示)。

一旦排程備份機制設定完成後,在 Backup Schedule 區塊將會顯示剛才的組態設定內容,當組態設定的排程時間到達後,系統便會觸發並自動執行排程備份的工作任務,屆時在下方的 Activity 區塊,也可以看到備份任務的執行結果。

圖 5、組態設定排程自動備份機制



備份 vDS 分佈式虛擬交換器

在中大型的企業和組織中,由於 vSphere 叢集中 ESXi 節點主機數量較多,通常便會部署「分佈式虛擬交換器」(vSphere Distributed Switch,vDS),那麼建議管理人員,應該也要將 vDS 分佈式虛擬交換器組態設定匯出,以便後續需要時可以匯入或還原 vDS 組態設定,否則有可能在還原 vCenter 管理平台之後,遭遇 vDS 分佈式虛擬交換器組態設定遺失的問題,詳細資訊請參考  VMware KB 2034602  知識庫文章內容。

請在 vCenter 管理介面中,依序點選「Inventory > Networking > Distributed Switch >Actions > Settings > Export Configuration」項目,在彈出的 Export Configuration 視窗中,有兩種匯出選項可供選擇,採用「Distributed switch and all port groups」選項時,將會匯出 vDS 分佈式虛擬交換器,以及所有 Port Groups 組態設定,採用「Distributed switch only」選項的話,則僅會匯出 vDS 分佈式虛擬交換器的組態設定,至於下方描述區塊可依管理人員需求進行填寫,確認無誤後按下 OK 鈕即可(如圖 6 所示)。

圖 6、備份 vDS 分佈式虛擬交換器和所有 Port Groups 組態設定

此時,瀏覽器將會自動下載名稱為 backup.zip 的壓縮檔案,內容便是選擇匯出 vDS 分佈式虛擬交換器組態設定項目。後續,管理人員便能依據需求,進行「匯入」或「還原」vDS 分佈式虛擬交換器組態設定的動作。



備份 vCHA 高可用性環境

事實上,以檔案方式備份 vCenter 管理平台的機制,目前尚未完整支援 vCHA(vCenter High Availability)高可用性運作環境(如圖 7 所示),但是管理人員仍然能夠針對 vCenter 進行備份的工作任務,並且在 vCHA 叢集架構發生重大災難事件時快速還原和重建。

圖 7、vCHA(vCenter High Availability)高可用性環境運作架構示意圖

簡單來說,當企業或組織為 vCenter 管理平台,建立 vCHA 高可用性機制運作環境時,執行備份工作任務時,系統僅會備份  vCenter 主要節點(Active Node),而不會備份被動節點(Passive Node),以及見證節點(Witness Node)。

因此,當 vCHA 高可用性運作環境發生災難事件時,管理人員必須在執行還原工作任務之前,先將 vCHA 高可用性環境整個關閉,包括主動節點和被動節點及見證節點,當還原工作任務執行完畢後,vCenter 管理平台會處於單機運作環境,屆時管理人員再透過 GUI 圖形介面,重新部署 vCHA 高可用性環境即可,相關詳細資訊請參考  VMware KB 60229KB 2147014KB 2147038KB 2147046  知識庫文章內容。



還原 vCenter Server

雖然,已經組態設定排程時間定期備份,仍建議管理人員應該定期確認備份檔案,是否能夠順利執行還原任務,順便在演練過程中建構和撰寫 SOP 文件,一旦災難事件真正發生時,需要快速執行還原任務時便不會手忙腳亂。值得注意的是,還原任務為驗證還原檔案是否有效時,管理人員可以在還原任務執行時,將 vCenter 主機的虛擬網路線拔除,即可避免和現有運作中的 vCenter 管理平台,發生 IP 位址衝突的情況。

vCenter 管理平台還原程序共分為兩個階段(如圖 8 所示),第一個階段將會部署一台新的 vCenter Server 虛擬主機,第二個階段則是透過先前備份資料,將組態設定和相關資料傳輸至新部署的 vCenter 虛擬主機中。在執行還原任務時有個主要限制,當 vCenter 主機採用哪個版本的 ISO 映像檔安裝時,就必須使用該版本的 ISO 映像檔執行還原任務才行,例如,採用 vCenter 8.0 U2 安裝和部署,便需要使用 vCenter 8.0 U2 的 ISO 映像檔,執行整個還原工作任務才行。

圖 8、vCenter 管理平台還原任務工作流程示意圖

事實上,整個 vCenter 的還原工作任務,跟部署 vCenter 管理平台類似,請掛載 vCenter ISO 映像檔後,執行「vcsa-ui-installer/win32/installer.exe」檔案,在彈出的精靈對話視窗中,點選「Restore」項目以進入還原工作流程。

在 Restore – Stage 1 : Deploy vCenter Server 還原工作流程中,前 2 個步驟為簡介和使用者授權條款,在 3. Enter Backup details 畫面中,請於 Location 欄位中填入先前儲存備份檔的路徑,以及可存取備份檔路徑權限的使用者帳號和密碼。值得注意的是,備份檔路徑必須是包含「backup-metadata.json」的路徑,本文實作環境填入的備份路徑為「smb://backup.lab.weithenn.org/vCenter_Backup/vCenter/sn_vcenter8.lab.weithenn.org/S_8.0.2.00100_20240817-180007_」(如圖 9 所示)。

圖 9、填入備份檔案存放路徑和具備存取權限的使用者帳號及密碼

在 4. Review backup information 頁面中,系統會再次檢查鍵入的備份檔案存放路徑是否正確,倘若鍵入的路徑不正確,或 backup-metadata.json 檔案已損毀的話,在這個步驟中將會出現錯誤訊息並停止還原程序。

在 5. vCenter Server deployment target 頁面中,請鍵入要將新的 vCenter 虛擬主機,部署至哪一台 ESXi 主機中,本文實作環境為「mgmt-esxi.lab.weithenn.org」,並鍵入具備管理權限的使用者帳號和密碼(如圖 10 所示)。

圖 10、指定還原後的 vCenter 要部署在哪台 ESXi 主機中

在 6. Set up target vCenter Server VM 頁面中,請鍵入新部署的 vCenter 虛擬主機名稱,本文實作為「vCenter8」,以及組態設定 root 管理員帳號密碼。值得注意的是,倘若故障損壞的 vCenter 仍處於 Power On 開機狀態時,管理人員應將其 Power Off 並修改 vCenter 虛擬主機名稱,例如,本文實作環境將原有 vCenter 虛擬主機名稱,修改為「vCenter8-retired」,否則系統在進行檢查作業時,將會發現 vCenter 虛擬主機名稱已存在而停止還原程序(如圖 11 所示)。

圖 11、新部署的 vCenter 虛擬主機名稱和原有 vCenter 名稱相同發生衝突

在 7. Select deployment size 頁面中,管理人員可以視需求選擇不同的 vCenter 部署規模。倘若,一開始部署 vCenter 時選錯規模,或是隨著時間演進不斷擴大,導致原有 vCenter 部署規模不足以因應時,管理人員也可以在備份後執行還原作業,並在此步驟中重新選擇部署較大的 vCenter 規模,本文實作採用「Small」規模(如圖 12 所示)。

圖 12、選擇 vCenter 主機的部署規模大小

在 8. Select datastore 頁面中,請選擇放置 vCenter 虛擬主機的儲存資源。值得注意的是,倘若管理人員不勾選「Enable Thin Disk Mode」選項時,那麼新部署的 vCenter 虛擬硬碟格式,將會採用「Thick」模式進行部署,請確保儲存資源空間足夠才行,舉例來說,本文實作環境選擇「Small」規模大小時,儲存空間至少要大於「694GB」才行。

在 9. Configure network settings,請鍵入 vCenter 虛擬主機網路組態。首先,在 Network 欄位的部份,會顯示 vSS 及 vDS 虛擬網路 Port Group,但是在 vDS 分佈式虛擬網路交換器的部份,下拉選單中僅會顯示「暫時綁定」(Ephemeral binding)的 Port Group,一般常用「靜態綁定」(Static binding)的 Port Group 並不支援,有關暫時綁定和靜態綁定的詳細資訊,請參考 VMware KB 1022312 知識庫文章內容。在本文實作環境中,選擇使用「Backup-vNetwork」的 Port Group,而 FQDN 為「vcenter8.lab.weithenn.org」,固定 IP 位址為「10.10.75.30」(如圖 13 所示)。

圖 13、鍵入 vCenter 虛擬主機網路組態設定

在 10. Ready to complete stage1 頁面中,請再次檢查還原項目和設定值內容是否正確,確認無誤後按下 Finish 鈕,便立即執行第一階段的還原工作任務,完成後系統將會提醒管理人員,可以登入 vCenter Server Management(Port 5480)管理介面(如圖 14 所示)。

圖 14、vCenter 管理平台第一階段還原任務完成

在第二階段的還原工作流程中,系統會將備份檔案中組態設定和相關內容,複製到新部署的 vCenter 主機中。請在 2. Backup details 步驟中,再次檢視備份檔案路徑是否正確,倘若備份時有搭配加密機制時,此步驟中必須鍵入加密密碼。

倘若,還原的 vCenter 主機處於 ELM 增強型鏈接模式時,系統將會要求提供 SSO(Single Sign-On)認證資訊,確保還原後的 vCenter 管理平台,能夠和其它台 vCenter 主機繼續通訊和同步。

在 3. Ready to complete,再次檢查還原組態設定是否正確,系統提醒倘若原有的 vCenter 主機仍運作中,請關閉它避免發生 IP 位址衝突的問題,確認無誤後按下 Finish 鈕,便立即執行第二階段的還原任務,成功後系統將提醒管理人員,可以登入 vCenter Server(Port 443)管理介面(如圖 15 所示)。

圖 15、vCenter 管理平台第二階段還原任務完成



還原 vDS 分佈式虛擬交換器

原則上,在 vCenter 管理平台故障期間,管理人員若無針對 vSwitch 虛擬交換器進行異動的話,那麼 vCenter 管理平台還原後,無須針對 vDS 分佈式虛擬交換器,進行匯入或還原作業。除非有任何異動或發生損壞時,管理人員才需要透過先前的 vDS 分佈式虛擬交換器備份進行還原作業。

倘若,vDS 分佈式虛擬交換器整個遺失,請在 vCenter 管理介面中,依序點選「Inventory > Networking > Datacenter > Actions > Distributed Switch > Import Distributed Switch」,按下 Browse 鈕選擇先前的匯出檔案 backup.zip,倘若管理人員希望保留 vDS 和 Port Group 的 ID,請勾選「Preserve original distributed switch and port group identifiers」選項(如圖 16 所示)。

圖 16、匯入先前良好的 vDS 分佈式虛擬交換器組態設定

在 2. Ready to complete,再次檢視內容正確無誤後,按下 Finish 鈕便立即執行,匯入 vDS 分佈式虛擬交換器組態設定的動作,匯入動作完成後,便可以看到 vDS 分佈式虛擬交換器恢復運作(如圖 17 所示)。

圖 17、成功還原先前設定好的 vDS 分佈式虛擬交換器

倘若,vDS 分佈式虛擬交換器仍存在,但是部份 Port Group 遺失或損壞,請在 vCenter 管理介面中,依序點選「Inventory > Networking > Distributed Switch > Actions > Settings > Restore configuration」,按下 Browse 鈕選擇先前的匯出檔案 backup.zip,並依據需求僅還原 vDS 分佈式虛擬交換器,或 vDS 分佈式虛擬交換器並包含所有 Port Group 選項(如圖 18 所示)。

圖 18、還原 vDS 分佈式虛擬交換器和所有 Port Group

在 2. Ready to complete,再次檢視內容正確無誤後,按下 Finish 鈕便立即執行,還原 vDS 分佈式虛擬交換器和所有 Port Group 的動作,還原動作完成後,即可看到 vDS 分佈式虛擬交換器和 Port Group 恢復正常運作。



重建 vCHA 高可用性機制

如前所述,在 vCHA 高可用性環境中,備份機制僅會備份 vCenter 主要節點,請在還原任務執行成功後,重新建構 vCHA 高可用性叢集環境即可。有關建構 vCHA 高可用性叢集環境詳細資訊,請參考本刊 【第 214 期 - 部署 vCHA 機制因應災難,可容錯移轉營運不中斷】 內容。





結語

透過本文的深入剖析和實戰演練後,管理人員應該已經理解,透過 vCenter 管理平台內建的備份還原機制,便可以輕鬆達到排程備份和還原等工作任務,無須額外採購第三方備份軟體,並且在發生災難事件時快速還原至正常運作狀態,滿足 IT 預算原本就不足的中小型企業或組織的需求。

.NET Conf Taiwan 2024 | 站長開講

$
0
0


什麼是 .NET Conf?

.NET Conf 是 .NET 社群的年度重要活動,微軟 .NET 團隊以及 .NET Foundation 將於 11 月份舉辦 .NET Conf 線上活動,連續三天現場直播 .NET 相關議程,介紹最新技術與其應用,.NET 8.0 也即將在 .NET Conf 發布!

為了讓台灣開發人員也能彼此交流 .NET 技術與心得,台中最大微軟技術社群 STUDY4 將於 12/14 - 15 舉辦為期兩天的 .NET Conf Local Event,邀請台灣開發人員共襄盛舉。

這次 .NET Conf 活動有什麼?

社群技術議程中,會與台灣的開發人員一起探討 .NET 最新技術與其相關應用,您將可以學習到最新的 .NET、ASP.NET Core、Blazor、C#...等開發技術,除此之外,還安排了雲端與多元的開發技術議程。無論您是初學者、轉換跑道者、還是資深的技術工程/資料分析師,這裡皆有適合您的議程,讓我們共同學習、提出問題與講師交流,藉此精進您的開發技能。 身為開發者的您,千萬別錯過 12/14 - 15 這場為期兩天的開發盛會!

.NET 可以做甚麼?

您可以使用 .NET 開發技術來建置各種平台和裝置應用,舉凡 Web、Mobile、Desktop、Games、Service 和 Libraries,.NET 都是實現您創意的最佳平台!
  • Desktop
  • Web
  • Cloud
  • Mobile
  • Gaming
  • IoT
  • AI





活動資訊

日期:   2024 年 12 月 14 - 15 日 (六 - 日)
時間:   09:00 - 17:00
議程:   大會議程表
報名:   報名購票





站長議程

在本次大會中,站長有場 40 分鐘的「LLM 初體驗 - Running Microsoft Phi-3 locally」議程,在議程中,將說明和實際展示,如何快速將 Microsoft 推出的開放式大型語言模型 Phi-3,在本地端電腦上運作,即便沒有 GPU 資源的桌機或筆電 (有當然更好!),也都可以運作 Phi-3 開放式大型語言模型,讓手邊沒有 GPU 資源又想體驗 LLM 大型語言模型威力的 IT 人員,都能輕鬆體驗 Phi-3 的威力,其它詳細資訊請參考大會網站。




WebConf Taiwan 2024 | 站長開講

$
0
0


活動簡介

WebConf Taiwan 是一個聚集網頁技術愛好者和專家的年度盛會,讓大家一起探索網頁技術的演進和未來發展趨勢。過去幾年,網路世界變化迅速,我們將在這次研討會上回顧網頁技術的演變歷程,了解那些改變遊戲規則的關鍵時刻。

除了回顧過去,WebConf Taiwan 更專注於未來。我們會討論如何利用人工智慧和機器學習來改善使用者體驗,以及行動優化和響應式設計在現代網頁開發中的重要性。還有最新的業界趨勢分享,幫助企業把握未來發展方向,保持競爭優勢。

這將是一個充滿創意和靈感的活動,讓你與來自各地的網頁技術專業人士互動交流,共同探討未來的技術創新和可能性。

WEB DEVELOPMENT

包含 Frontend、Backend、DevOps、技術管理等相關議題。將深入探討各種 Web 技術的最新趨勢、過往發展,以及如何透過這些技術來提升網站或應用程式的品質、效能與安全性。

UI/UX DESIGN

本屆科技年會將探討 UI/UX 設計的最新趨勢,包括使用者界面設計、使用者體驗優化、人機互動設計等議題,以深入探討如何打造出引人入勝的用戶體驗,提升產品的價值和競爭力。





活動資訊

日期:   2024 年 12 月 27 - 28 日 (五 - 六)
時間:   09:00 - 17:00
議程:   大會議程表
報名:   報名購票





站長議程

在本次大會中,站長有場 45 分鐘的「DevOps, GitOps, and AIOps」議程,在議程中,將讓與會人員了解,SRE 的基本功,透過建構自助式服務,解決 Day 1 Operations 工作任務,將常態性或重複性的工作任務自動化,舉凡 VM 虛擬主機的部署,或是容器服務的調度……等,同時也將半自動的 IaC 基礎架構及程式碼服務,提升為全自動的 GitOps 流程,進而處理 Day 2 Operations 的工作任務,例如,營運服務的生命週期、監控、修補臭蟲……等,甚至整合 Event-Driven 事件驅動機制,達到主動式或被動式自動回應機制。 此外,將說明 AIOps 除了幫助團隊偵測潛在問題並做出反應之外,事實上AIOps 系統並無法取代經驗豐富的 IT 系統管理員和其他營運團隊成員,其它詳細資訊請參考大會網站。



開箱 Win Server 2025 實戰雙節點工作群組叢集 | 網管人 226 期

$
0
0


網管人雜誌

本文刊載於 網管人雜誌第 226 期 - 2024 年 11 月 1 日出刊,NetAdmin 網管人雜誌為一本介紹 Trend Learning 趨勢觀念、Solution Learning 解決方案、Technology Learning 技術應用的雜誌,下列筆記為本站投稿網管人雜誌獲得刊登的文章,網管人雜誌於每月份 1 日出刊您可於各大書店中看到它,或透過城邦出版人讀者服務網進行訂閱。





本文目錄






前言

隨著 Microsoft Ignite 2023Windows Server Summit 2024 大會的舉辦,雖然 Windows Server 2025 仍處於技術預覽版本階段,但是隨著幾場大會下來,相信市場也逐漸對即將推出的 Windows Server 2025 興趣漸增。

首先,是針對 「熱修補」(Hotpatching)的增強,企業和組織透過最新的熱修補技術,執行安全性更新安裝作業時,將會直接針對 Windows Server 伺服器中,記憶體內部運作的系統程序進行程式碼修補的動作,不僅主機的運作不受干擾,其它運作的執行程序和服務也無須停止,並且修補完畢後的 Windows Server 也無須重新啟動,順利達成安全性更新和修補的目的,且不影響企業和組織的 SLA 服務等級協議。

在 Windows Server 2022 版本時代,只有運作在 Azure 公有雲環境中,並使用 Windows Server 2022 Datacenter : Azure Edition 版本才能支援熱修補功能(如圖 1 所示)。

圖 1、Windows Server 2022 熱修補功能示意圖

現在,在最新 Windows Server 2025 版本中,將具備 Windows Server Hotpatching for everyone 機制。簡單來說,待 Windows Server 2025 正式推出後,無論採用 Standard 或 Datacenter 版本,都可以直接使用熱修補功能,讓企業和組織在地端資料中心運作的 Windows Server 2025,可以從過去每個月進行安全性更新重新啟動,也就是一年要重新啟動主機次數為 12 次情況下,減少為每季重新啟動一次一年 4 次即可(如圖 2 所示),有效提升企業和組織營運服務的 SLA 服務等級協議。

圖 2、主機啟用熱修補功能後,只要每季重新啟動一次即可





Windows Server 2025 亮眼功能

事實上,Windows Server 2025 不僅將過往既有功能增強,還推出許多亮眼特色功能,舉例來說,在新版 Windows Server 2025 中,針對 NVMe 儲存裝置進行效能最佳化,並且還降低 CPU 工作負載,重點是企業和組織無須更換原有伺服器或 NVMe 儲存裝置,只要將原有的作業系統由 Windows Server 2022,升級為最新的 Windows Server 2025 版本即可。

在官方的效能測試資料中可以看到,原本在 Windows Server 2022 環境中的 NVMe 儲存裝置,在採用「diskspd.exe -r4k -b4k -t8 -o64 -d60 -Suw #0」壓力測試條件下,儲存效能達到「1.1M IOPS」,同樣的硬體配置下,升級為 Windows Server 2025 版本後,儲存效能達到「1.86M IOPS」,直接提升「70%」的儲存效能(如圖 3 所示)。

圖 3、Windows Server 2025 最佳化 NVMe 儲存效能示意圖



智慧便捷的版本升級機制

過去,提到 Windows Server 版本升級,管理人員可能就會眉頭一皺而裹足不前。現在,Windows Server 版本升級,已經提供像 Windows 10 升級至 Windows 11 的快速體驗,企業和組織在 Windows Server 2022 版本中,只要透過 Windows Update 更新,便可以直接升級版本至 Windows Server 2025(如圖 4 所示),即便企業或組織有數量眾多的 Windows Server 主機,也只要搭配 CAU 更新機制即可。

圖 4、透過 Windows Update 將 Windows Server 2022 升級至 2025 版本



不斷進化的 Hyper-V 虛擬化平台

雖然,在市場上大家已經不再比較虛擬化平台規格和運作規模,然而微軟一直沒有停止 Hyper-V 虛擬化平台的進化腳步。事實上,在微軟許多公開服務都採用 Hyper-V 虛擬化平台為基礎,例如,Azure 公有雲、Xbox 服務、Azure Stack Family、Containers with Hyper-V Isolation……等。

過去在 Hyper-V 容錯移轉叢集架構中,一旦叢集中的成員伺服器,在硬體伺服器方面有 CPU 世代差異時,管理人員必須人為介入進行操作,為叢集中的每一台成員主機,組態設定 CPU 相容模式才行。

現在,最新 Windows Server 2025 版本中,直接支援 「處理器動態相容」(Dynamic Processor Compatibility) 機制(如圖 5 所示),管理人員無須人為介入進行組態設定,系統將會自動啟用處理器動態相容性機制,Hyper-V VM 虛擬主機在不同成員伺服器主機之間,進行 Live Migration 線上遷移時,只要遷移至新世代的硬體伺服器成員主機上,便能立即提升運算效能並享有新世代 CPU 的特色功能。

圖 5、CPU 處理器動態相容性機制示意圖

隨著科技不斷進行加上 AI 人工智慧的加持,企業和組織對於大型 VM 虛擬主機的需求不斷增長。現在,Hyper-V 虛擬化平台主機層級方面,可支援高達 2,048 Logical Processors,和 4PB(5-level pagin)256TB(4-level paging)記憶體空間,在 VM 虛擬主機層級方面,也支援高達 2,048 vCPU 和 240TB vMemory 的虛擬主機,在官方實際展示的一張工作管理員截圖中,可以看到這台採用 Gen2 的 Hyper-V 虛擬主機,具備 1,792 vCPU 和 29.7TB vMemory 運算資源(如圖 6 所示)。

圖 6、一台具備 1,792 vCPU 和 29.7TB vMemory 的大型 VM 虛擬主機



GPU-P 圖形處理共享機制

在 AI 浪潮的推波助瀾下,企業和組織除了使用公有雲的 AI 服務之外,也考慮在地端資料中心內建置具備 GPU 圖形運算資源,以便自行訓練或微調屬於企業和組織自已的 AI 人工智慧模型。在 Windows Server 2022 版本中,開始支援「GPU 集區離散裝置指派」(GPU Pools with Discrete Device Assignment)運作架構,將硬體伺服器中的硬體 GPU 加入至 GPU 集區內,當 GPU 集區機制建立完成後,將特定的 VM 虛擬主機指派到 GPU 集區中,而非傳統一對一或者一對多的指派單個 GPU,後續即便容錯移轉叢集的成員伺服器發生災難事件時,系統將自動移轉並重新啟動 VM 虛擬主機,系統會在重新啟動時自動尋找,並加入至 GPU 集區內可用的 GPU 圖形運算資源,無須管理人員手動為 VM 虛擬主機再次指派 GPU 對應關係(如圖 7 所示)。

圖 7、GPU Pools with Discrete Device Assignment 運作架構示意圖

但 GPU Pools with DDA 的缺點在於,VM 虛擬主機無法手動執行 Live Migration 線上遷移,並且屬於 GPU 專用而非共享架構,所以能真正使用到 GPU 圖形處理的 VM 虛擬主機數量不多。因此,在 Windows Server 2025 版本中,將新增支援「GPU 分割」(GPU Partitioning,GPU-P)機制,透過 SR-IOV 單一根 I/O 虛擬化機制,為每台 VM 虛擬主機提供硬體支援,並只能存取其專用的 GPU 圖形處理資訊,並透過安全硬體分割機制,防止其它未經授權的 VM 虛擬主機存取 GPU 圖形處理資源,達成讓多台 VM 虛擬主機同時共用實體 GPU 圖形處理資源(如圖 8 所示)。

圖 8、Windows Server 2025 新增支援共享式 GPU Partitioning 圖形處理機制





實戰 – 雙節點工作群組叢集

在實戰演練小節中,將部署和建立雙節點工作群組叢集。然而,在開始組態設定之前,管理人員應先了解什麼是「工作群組叢集」(Workgroup Cluster),以及它和傳統的容錯移轉叢集有哪些不同之處,同時必須注意哪些部署準則和後續維護事項,才能讓工作群組叢集順利且穩定的運作。

事實上,工作群組叢集,為 Windows Server 2016 版本中新增的特定容錯移轉叢集組態類型,在工作群組叢集運作架構中,成員伺服器處於工作群組中並且不加入 Active Directory 樹系網域環境,然而運作環境中仍需要 DNS 名稱解析服務(如圖 9 所示)。

圖 9、工作群組叢集運作架構示意圖

因此,工作群組叢集的適用情境,通常為企業和組織中小型分公司或據點,希望在沒有 Active Directory 網域服務的情況下,仍可提供身份識別服務和管理,且能夠執行容錯移轉叢集服務,達成降低硬體維護和工作負載之外,同時維持身份識別高安全性,並且讓應用程式保持高可用性。

工作群組叢集必須滿足下列前置作業條件,才能滿足正式支援工作群組叢集的部署準則:
  • 工作群組叢集中的所有成員伺服器,必須運作相同版本的 Windows Server 才行,例如,都是 Windows Server 2025。
  • 所有成員伺服器必須處於工作群組環境中,不能加入任何 Active Directory 網域環境。倘若,先前曾經加入過 Active Directory 網域環境,即便已經退出網域環境至工作群組中,也必須重新命名電腦名稱並重新啟動主機,確保成員伺服器移除 Active Directory 快取。
  • 工作群組叢集環境中,仍必須具備集中式儲存資源,提供給所有成員伺服器使用,舉例來說,必須有儲存空間直接存取(S2D)超融合環境、SAN 儲存資源、SMB 3.0 儲存資源 …… 等。
  • 工作群組叢集仍需要組態設定仲裁機制,確保工作群組叢集具備高可用性,支援的仲裁類型包括,雲端見證、磁碟見證、USB 見證 …… 等。

值得注意的是,工作群組叢集並非支援所有類型的工作負載,所以企業和組織在部署建置前必須正確評估,確保營運服務是否在工作群組叢集支援的工作負載清單中。下列為企業和組織常見的叢集服務,以及工作群組叢集是否支援該叢集服務的說明:
  • Hyper-V VMs: 從 Windows Server 2025 版本開始,正式支援工作群組叢集 Hyper-V 虛擬化環境工作負載,並且支援「線上遷移」(Live Migration)工作群組叢集中的 VM 虛擬主機,至其它台成員伺服器繼續運作,且遷移過程中不會發生任何中斷和停機時間。
  • SQL Server Availability Groups: 從 Windows Server 2016 至最新的 Windows Server 2025,工作群組叢集皆支援網域獨立的 SQL 可用性群組工作負載。
  • File Servers: 因為驗證問題,所以工作群組叢集「不支援」檔案伺服器叢集服務。
  • SQL Server Always On: 工作群組叢集「不支援」,採用「容錯移轉叢集執行個體」(Failover Cluster Instance,FCI)方式,建立的 SQL Server Always On 高可用性工作負載。



安裝 Windows Server 2025

在本文實作環境中,將安裝和部署三台 Windows Server 2025 主機(如圖 10 所示),其中二台將建構雙節點的工作群組叢集環境,另一台擔任集中式 SMB 儲存資源的角色,至於運作環境中已經具備 DNS 名稱解析服務。

圖 10、安裝和部署 Windows Server 2025 主機



採用一致的系統管理員帳戶

在工作群組叢集運作架構中,所有成員伺服器必須採用相同且一致的系統管理員帳戶及密碼,並且系統管理員帳戶必須加入「本機 Administrators 群組」才行,在本文實作環境中,採用系統預設的 Administrator 系統管理帳號,已經滿足部署條件,所以無須額外的組態設定作業。

值得注意的是,倘若採用的系統管理員帳戶,並非建置系統時內建的系統管理員帳戶,而是額外新增的系統管理員帳戶時,除了確保加入本機 Administrators 群組之外,還必須組態設定啟用「LocalAccountTokenFilterPolicy」才行,管理人員可以採用兩種方式進行啟用。

第一種方式,透過開啟 Registry Editor 後,切換至「HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\System」路徑後,新增 DWORD(32-bit)值,名稱為「LocalAccountTokenFilterPolicy」而值為「1」後,按下確認鈕進行新增即可(如圖 11 所示)。

圖 11、透過 Registry Editor 啟用 LocalAccountTokenFilterPolicy

第二種方式,管理人員直接執行 PowerShell 指令「New-itemproperty -path HKLM:\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\System –Name LocalAccountTokenFilterPolicy -Value 1」新增機碼值即可達成啟用的目的。



新增主要 DNS 尾碼

雖然,運作環境中已經具備 DNS 名稱解析伺服器,然而成員伺服器因為處於工作群組環境,在預設情況下並不會自動帶入 DNS 尾碼,所以必須手動幫每一台成員伺服器組態設定 DNS 尾碼。

請依序點選「Settings > System > About > Advanced System Settings > Computer Name > Change > More」項目,在 Primary DNS suffix of this computer 欄位,鍵入 DNS 尾碼「lab.weithenn.org」後按下 OK 鈕(如圖 12 所示),系統會提示必須重新啟動主機才能套用生效。

圖 12、為所有成員伺服器組態設定 DNS 尾碼



新增 WinRM 遠端管理信任主機

由於工作群組叢集中,並沒有 Active Directory 網域環境,所以必須針對所有成員伺服器,組態設定 WinRM 遠端管理機制,將成員伺服器互相設定為受信任的主機。同樣的,管理人員可以採用兩種方式進行組態設定。

第一種方式,鍵入 gpedit.msc 開機本機群組管理原則編輯器後,依序點選「Local Computer Policy > Computer Configuration > Administrative Templates > Windows Components > Windows Remote Management(WinRM)> WinRM Client > Trusted Hosts」,在 Trusted Hosts 視窗中點選至 Enabled 項目,然後在 TrustedHostsList 欄位中,鍵入成員伺服器主機名稱為信任主機,多筆主機名稱之間採用逗號進行分隔,確認無誤後按下 OK 鈕即可(如圖 13 所示)。

圖 13、透過本機群組管理原則編輯器,組態設定 WinRM 遠端管理信任主機清單

第二種方式,管理人員直接執行 PowerShell 指令「Set-Item WSMan:\localhost\Client\TrustedHosts -Value "node01,node02"」,在 WinRM Security Configuration 系統回應訊息中,請管理人員按下 Y 鍵,確認新增 WinRM 遠端管理信任主機清單,接著再次執行「Get-Item WSMan:\localhost\Client\TrustedHosts」指令,確認 WinRM 遠端管理信任主機是否套用生效。



安裝 Hyper-V 角色和容錯移轉叢集功能

在本文實作環境中,將會在工作群組叢集中運作 Hyper-V 虛擬化平台,並建立 VM 虛擬主機運作相關服務。請在所有成員伺服器中,為主機安裝 Hyper-V 和容錯移轉叢集功能,請在啟動伺服器管理員後,依序點選「Manage > Add Roles and Features > Role-based or feature-based installation > Node01 > 勾選Hyper-V > 勾選 Failover Clustering」,由於安裝 Hyper-V 伺服器角色後需要重新啟動主機,請勾選「Restart the destination server automatically if required」選項後,按下 Install 鈕進行安裝作業(如圖 14 所示)。

圖 14、所有成員伺服器安裝 Hyper-V 角色和容錯移轉叢集功能

管理人員也可以在 PowerShell 指令視窗中,執行「Install-WindowsFeature –Name Hyper-V,Failover-Clustering –IncludeManagementTools」指令,進行 Hyper-V 角色和容錯移轉叢集功能的安裝作業,在重新啟動主機後,執行「Get-WindowsFeature –Name Hyper-V,Failover-Clustering」指令,確認安裝作業是否成功。



SMB 檔案共用伺服器

在本文實作環境中,SMB 主機將安裝檔案伺服器角色,擔任 Node01 和 Node02 雙節點工作群組叢集中的儲存資源角色。請在 SMB 主機開啟伺服器管理員,依序點選「Manage > Add Roles and Features > Role-based or feature-based installation > SMB.lab.weithenn.org > File and Storage Services > File and iSCSI Services > File Server」項目,為 SMB 主機安裝檔案伺服器角色。

安裝作業完成後,在伺服器管理員中,依序點選「File and Storage Services > Shares >Tasks > New Share」項目,在彈出視窗中首先選擇「SMB Share - Applications」項目為分享類型,在 Share location 區塊中,選擇預設的「C :」即可,在 Share name 欄位中鍵入「VMs」,在下方可以看到,系統將預設使用「C:\Shares\VMs」路徑,以及遠端路徑「\\SMB\VMs」為分享路徑(如圖 15 所示),後續將存放 Node01 和 Node02 建立的 VM 虛擬主機。

圖 15、組態設定 SMB 檔案分享名稱和路徑

在 Other Settings 視窗中,採用系統預設值即可,在 Permissions 視窗中請按下 Customize permissions 鈕,在彈出自訂權限視窗中,首先按下「停用繼承」(Disable inheritance)鈕,再按下「Convert inherited permissions into explicit permissions on this object.」,以便將繼承的權限轉換成此物件中的明確權限,確保 Administrators 群組,以及 SYSTEM 和 CREATOR OWNER 具備「完全控制」(Full Control)權限即可。



執行叢集驗證測試

在正式建立工作群組叢集之前,建議先執行叢集驗證測試,確保通過所有叢集驗證測試,以便稍後建立工作群組叢集時,可以順利建立不會遭遇非預期的錯誤。

請在 Node01 或 Node02 主機中,在伺服器管理員視窗中的 Tools 選項清單內,開啟 Failover Cluster Manager,在容錯移轉叢集管理員視窗中,依序點選「Failover Cluster Manager > Management > Validate Configuration」,在 Select Servers or a Cluster 視窗中,鍵入 Node01 和 Node02 主機的 FQDN 名稱後,按下 Add 鈕加入至伺服器清單中(如圖 16 所示)。

圖 16、將 Node01 和 Node02 主機加入至伺服器清單中

在 Testing Options 測試清單頁面中,選擇系統預設值「Run all tests」執行所有驗證測試項目,在系統執行叢集驗證測試結果中,請確保 Node01 和 Node02 主機,皆通過所有叢集驗證測試項目(如圖 17 所示),倘若有任何驗證測試項目發生警告或失敗的情況時,請管理人員務必判斷並修正問題後,再次執行並通過叢集驗證測試,管理人員也可以透過 PowerShell 指令「Test-Cluster -Node node01.lab.weithenn.org,node02.lab.weithenn.org」,執行叢集驗證測試的工作任務。

圖 17、執行叢集驗證測試工作任務



建立工作群組叢集

順利通過叢集驗證測試作業後,便可以放心建立工作群組叢集,請在容錯移轉叢集管理員視窗中,依序點選「Failover Cluster Manager > Management > Create Cluster」,同樣的在 Select Servers 視窗中,將 Node01 和 Node02 主機加入至成員伺服器清單內,在 Access Point for Administering the Cluster 頁面中,鍵入工作群組叢集的名稱,本文實作環境為「wg-cluster」,而叢集固定 IP 位址則是「10.10.75.15」(如圖 18 所示)。

圖 18、組態設定工作群組叢集名稱和固定 IP 位址

在 Confirmation 視窗中,系統會顯示工作群組叢集的組態設定資訊,確認無誤後按下 Next 鈕繼續,系統便會自動執行建立工作群組叢集的動作,然後在 Summary 視窗中顯示部署結果,管理人員也可以按下 View Report 鈕查看詳細資訊(如圖 19 所示),或按下 Finish 鈕完成。

圖 19、查看部署工作群組叢集的詳細資訊

同樣的,管理人員也可以透過 PowerShell 指令「New-Cluster –Name wg-cluster –Node node01.lab.weithenn.org,node02.lab.weithenn.org –AdministrativeAccessPoint DNS –StaticAddress 10.10.75.15」,達成建立和部署工作群組叢集的工作任務(如圖 20 所示),並且執行 PowerShell 指令「Get-Cluster」和「Get-ClusterResource」,確認和檢查工作群組叢集相關資訊。

圖 20、順利部署工作群組叢集



建立檔案共用見證

根據微軟官方的最佳建議作法,當容錯移轉叢集中成員伺服器數量為「偶數」時,便應該組態設定「仲裁」(Quorum)或稱「見證」(Witness),以便容錯移轉叢集發生災難事件,導致成員伺服器停止運作或中斷連線時,仲裁見證機制便可以讓容錯移轉叢集能繼續正常運作。

值得注意的是,採用檔案共用見證機制時,倘若是未加入 Active Directory 網域的叢集環境時,則組成容錯移轉叢集的成員伺服器,必須至少是 Windows Server 2019 或更新版本,並且採用的 SMB 版本至少要 2.0 或更新版本。

請先切換至 SMB 主機,採用跟剛才一樣的作法,建立給工作群組叢集使用的 SMB 檔案共用見證,在建立時同樣採用「SMB Share - Applications」分享類型,在 Share location 區塊中,選擇預設的「C :」即可,在 Share name 欄位中鍵入「Witness」,在下方可以看到,系統將預設使用「C:\Shares\Witness」路徑,以及遠端路徑「\\SMB\Witness」為分享路徑,後續便存放工作群組叢集的仲裁見證資訊。

切換回 Node01 或 Node02 主機中,在容錯移轉叢集管理員視窗中,依序點選「wg-cluster.lab.weithenn.org > More Actions > Configure Cluster Quorum Settings」,在選擇仲裁類型視窗中選擇「Select the quorum witness」選項,在選擇使用的仲裁方式視窗中,選擇「Configure a file share witness」,在檔案共用路徑欄位中,鍵入剛才於 SMB 主機建立的「\\SMB\Witness」遠端分享路徑,確認無誤後系統便自動為工作群組叢集,組態設定及建立檔案共用見證機制,確保工作群組叢集遭遇災難事件時,能夠繼續正常運作(如圖 21 所示)。

圖 21、為工作群組叢集組態設定及建立檔案共用見證機制





結語

透過本文的深入剖析和實戰演練後,相信管理人員除了理解最新 Windows Server 2025,有哪些亮眼特色功能外,並實戰演練工作群組叢集並加上檔案共用見證機制,讓小型企業和組織,即便在沒有 Active Directory 網域環境的情況下,也能輕鬆建構容錯移轉叢集運作環境。

Announcing NCA & NCP-MCI v6.10 - Get Certified for Free with Limited-Time Offer | Nutanix

$
0
0


簡介


在 Nutanix 認證架構中共有四個等級,分別是 Associate, Professional, Master, Expert,這次開放 Associate 和 Professional 相關課程和考試卷。






NCA v6.10 Certification

對於 Nutanix Certified Associate (NCA) 認證有興趣的朋友,可以透過 Nutanix Hybrid Cloud Fundamentals (NHCF) | NCA 6.10 Learning Plan 課程學習後去應考。






NCP-MCI v6.10 Certification







注意事項

Data Encryption and Key Management | Nutanix

$
0
0


簡介

本文為擷取 Data Encryption and Key Management | The Nutanix Cloud BibleAOS Security 6.10 - Data-at-Rest Encryption 文件內容中,針對 Nutanix 提供的資料加密部份進行整理。

圖、Nutanix Cluster 加密架構示意圖



Data Encryption

在討論資料加密時,通常會有下列兩種方式 (In-transit、At-rest),針對資料層級進行加密的方式:

In-transit: 針對兩方之間的傳輸資料進行加密,例如,透過網路傳送資料。在 Nutanix 環境中,便是透過軟體加密方式,在 Nutanix Cluster 中保護 RF 資料複寫時進行加密。
  • 軟體式加密 (FIPS-140-2 Level-1 / AES-256),從 Nutanix AOS 5.5開始支援。
  • 採用 AHV 時,支援 Cluster Level、VM Level、VG Level 加密,有關支援 VM Level 和 VG Level 加密的部份,請參考 Prism pc.2024.2 - Storage Policy Based Encryption 文件內容。
    • Nutanix 建議採用 Cluster Level 加密,以避免造成額外的工作負載和管理開銷。
    • 一旦在 Cluster Level 或 Container Level 啟用加密機制後,便「無法停用」加密機制!! 即便停止或重新啟動 Nutanix Cluster 也沒用。
    • 資料複寫至「另一個 Cluster」時,並「不會加密」,所以必須為每個叢集啟用加密功能。
  • 採用 ESXi, Hyper-V 時,同時支援 Cluster Level 和 Container Level 加密。
圖、Data Encryption - Enabled (cluster level)

At-rest: 針對靜態資料進行加密,例如,儲存在裝置中的資料。在 Nutanix 環境中,透過整合實體儲存裝置的 Self-Encrypting Drives (SED) 功能,達到靜態資料加密的目的。
  • SED 硬體式加密 (FIPS-140-2 Level-2),支援  Cluster Level 加密。
  • 當資料寫入磁碟機時,會自動進行加密,當讀取資料時會進行解密,儲存裝置中的晶片組會控制加密和解密過程,系統效能不受影響並且不依賴於系統軟體。
  • 在初始化設定時,SED 會建立一個唯一的隨機金鑰,用於在資料寫入期間加密並在讀取時解密資料,資料加密金鑰 (Data Encryption Key,DEK),可以確保儲存裝置中的資料始終加密,因為每次寫入資料或讀取資料時,都需要 DEK 對資料進行加密和解密才行,倘若 DEK 不可用的話,便無法存取 SED 內的資料,導致儲存裝置內的資料都無法使用。
圖、用於 SED 儲存裝置的 DEK 加密金鑰



Native Software-based Encryption

Nutanix 軟體加密提供原生的 AES-256 資料靜態加密,它可以跟任何符合 KMIP 或 TCG 的外部 KMS 伺服器,例如 Vormetric、SafeNet……等進行互動,也可以使用 Nutanix 從 5.8 版本開始支援的原生 KMS。同時,整合 Intel AES-NI 進行資料加解密時,能夠最小化軟體加密對效能的影響。

當資料寫入時(OpLog 和 Extent Store),資料在寫入磁碟之前,會在Checksum Boundary 時進行加密,然後將加密資料複寫到遠端的 CVM 中 (RF 複寫)。原則上,軟體式加密機制並不會影響進階功能,例如,Deduplication, Compression, Zero Block Suppression,因為資料加密是在這些進階功能之後才執行。

圖、Data Encryption - Transform Application



SED Based Encryption

SED 資料加密的工作原理,是將儲存裝置分成「Strips」,當 Nutanix 叢集啟動時,將會呼叫 KMS 伺服器取得解鎖儲存裝置的金鑰,為了確保安全性,叢集上不會快取任何金鑰,一旦發生 Cold Boot 和 IPMI Reset 事件時,節點會需要 Callback KMS 伺服器以解鎖儲存裝置,至於 CVM Soft Resatrt 則不會發生這種情況。

圖、Data Encryption - SED

圖、儲存裝置啟用 SED 加密



Key Management (KMS)

Nutanix 支援 Local Key Manager (LKM),也就是將 LKM 服務分佈在每台 Nutanix 節點中,然後在 CVM 上運作,以簡化管理,但是仍然支援外部 KMS。

目前,Nutanix 加密方式中支援下列三種類型的金鑰:
  • Data Encryption Key (DEK): 用於加密「資料」的金鑰。
  • Key Encryption Key (KEK): 用於加密「 DEK」的金鑰。
  • Master Encryption Key (MEK): 用於加密「KEK」的金鑰。
圖、Data Encryption - Key Management

Nutanix Hybrid Cloud Fundamentals (NHCF) | Module 1

$
0
0


簡介

趁著有免費考試卷的機會,就順便再讀一下 Nutanix Hybrid Cloud Fundamentals (NHCF) | NCA 6.10 Learning Plan 線上課程去應考吧。下列為本章節的個人重點整理。





Module 1 - Introduction to HCI, Nutanix, and Prism

Nutanix Hybrid Cloud Fundamentals (NHCF) 是入門課程,可以幫助你熟悉 Nutanix 叢集的特色功能 (Features)和運作元件 (Components)。



Understanding Hyperconverged Infrastructure

傳統的三層式架構中,包括,獨立的儲存設備和儲存網路及硬體伺服器,不但無法支援現代商業和企業應用的快速發展,反而成為一種障礙。這些基礎架構製造出資源孤島,阻礙了變革和進步。在採購、部署和管理的每一過程中,這些資源孤島都會帶來影響,例如,新專案需要多個團隊的批准、IT 資源需求必須提前三到五年進行預測,以及鎖定和授權成本壓縮了本來就不多的預算。

因此,企業 IT 團隊尋求能以公有雲服務,例如,AWS、Azure、GCP……等的速度和營運效率,向內部客戶提供地端資料中心的服務部署方法。

值得注意的是,這些雲端公司及一些全球最大的網路公司,早在市場面臨傳統基礎架構的限制之前,就已經開發出分散式系統技術,滿足其可擴展性、可靠性和營運效率的需求,這也就催生出 HCI 超融合基礎架構。

圖、Comparing Three-tier Architecture and HCI Infrastructure



An Introduction to Nutanix

Nutanix 提供統一混合多雲管理的單一平台。Nutanix 雲平台整合了運算、虛擬化、儲存、網路、安全及容器,簡化了企業 IT 環境的日常管理,並從私有雲擴展到公有雲,例如,AWS 和 Microsoft Azure。

透過在業界標準的 x86 伺服器上運行 Nutanix 軟體,企業能夠以相對較小的部署開始,並根據需要逐步擴展每個節點(伺服器)。每個節點包括搭載 Intel 或 AMD 硬體的 x86 處理器,配備  SSD 和 HDD。

單一的 Nutanix 叢集可以擴展至與超融合叢集相同的規模。不同的硬體平台可滿足各種計算和儲存需求。Nutanix 軟體對硬體具有廣泛的相容性,並且可以在 Dell、Lenovo、Cisco、HPE……等多家硬體供應商的硬體上運作。

圖、Characteristics of the Nutanix Cloud Platform



What is the Nutanix Cloud Platform?

Nutanix 解決方案包括下列解決方案,詳細資訊請參考 Nutanix Cloud Platform Software Options

圖、Nutanix Cloud Platform

圖、Nutanix Cloud Platform Layers



The Core Components of the Nutanix Solution

AOS Storage、AHV Virtualization、Prism (PE / PC) 組成整個 Nutanix 解決方案的核心。
  • AOS Storage: High performance storage, Resilient and secure storage, Flexible and scalable cloud infrastructure。
  • AHV Virtualization: Ease of management, Native security, Low operational costs, Exceptional performance。
  • Prism: 1-click management simplicity, Automate operations, Optimize resources and cost。

圖、Core components of the Nutanix solution



Introduction to Nutanix Prism

了解 Nutanix 管理平台 Prism 又區分為 Prism Element (PE) 和 Prism Central (PC) 兩種。簡單來說,通常管理單一叢集就採用 PE,而管理多個叢集時就用 PC,但細節的部份仍有不同。

圖、Prism 包含 PE 和 PC

如何登入 PE 管理介面,詳細資訊可以參考 Prism 6.10 - Logging Into the Prism Element Web Console 文件內容。原則上,開啟瀏覽器鍵入 Cluster VIP 位址搭配 Port 9440 即可,順利登入後即可看到 Prism Element Home Dashboard。

圖、Prism Element Home dashboard

值得注意的是,預設情況下,登入 PE 管理介面的 admin 帳號的密碼,將會在「60 天」後過期,管理人員可以透過指令進行修改,詳細資訊請參考 Prism 6.10 - Cluster Management 文件內容。

圖、 PE 管理介面 admin 帳號的密碼,預設 60 天後過期

原則上,登入 PC 管理介面,跟登入 PE 管理介面類似,詳細資訊請參考 Prism pc.2024.2 - Logging Into Prism Central 文件內容。Prism Element 與 Prism Central 的首頁儀表板滿足了不同的叢集監控需求。Prism Element 提供即時且強大的監控體驗,方便快速獲取概要和詳細資訊。而 Prism Central 除了具備 Prism Element 的所有功能外,還提供高度自訂的監控體驗,可以根據特定需求進行調整。此外,Prism Central 是唯一能夠從單一位置監控多個叢集的介面。

相較於 Prism Element,Prism Central 還包含更多管理功能,例如,在 VM 虛擬主機管理方面,Prism Central 除了 Prism Element 的功能外,還可以啟用或禁用效能測量、異常檢測、將 VM 虛擬主機加入目錄、運行 Playbook、管理類別……等。因此,即使是管理單一叢集,也建議使用 Prism Central 以利使用進階特色功能。

圖、Capabilities of Prism Central and Prism Element



Understanding Nutanix Pulse

預設情況下,系統會啟用 Nutanix Pulse 功能,以便向 Nutanix Insights 服務提供診斷系統資訊。原則上,這些診斷數據在背景中無干擾地收集,對系統效能影響極小,以便自動檢測問題並簡化故障排除。

初次登入 Prism 或升級後,系統會檢查是否啟用 Pulse。如果未啟用,系統會提示您啟用 Pulse。
一旦啟用 Pulse 後,預設每天將叢集配置的摘要電子郵件發送到 Nutanix 支援伺服器,這些收集的資訊,將會透過 HTTPS(443 埠)使用 TLS 1.2 發送到 insights.nutanix.com和指定的電子郵件地址。收集的資訊如下,詳細資訊請參考 Information collected by Pulse (KB 2232) :
  • System alerts.
  • System tasks.
  • System logs.
  • System configuration.
  • Performance metrics.
  • Current Nutanix software version.
  • Nutanix processes and Controller VM (CVM) information.
  • Hypervisor details such as type and version.



Performing Initial Cluster Setup

下列為 Nutanix 叢集建構完成後,初始的組態設定建議:










Nutanix Hybrid Cloud Fundamentals (NHCF)

  • (本文) Module 1 - Introduction to HCI, Nutanix, and Prism
  • Module 2 - Hardware and Storage Concepts
  • Module 3 - AHV Networking Fundamentals
  • Module 4 - Image Management Fundamentals
  • Module 5 - VM Management Fundamentals
  • Module 6 - Data Protection and DR Fundamentals
  • Module 7 - Cluster Monitoring Fundamentals
  • Module 8 - Understanding Licensing and Performing Upgrades

打造小型企業雲端方案,建立 Nutanix 雙節點叢集 | 網管人 227 期

$
0
0


網管人雜誌

本文刊載於 網管人雜誌第 227 期 - 2024 年 12 月 1 日出刊,NetAdmin 網管人雜誌為一本介紹 Trend Learning 趨勢觀念、Solution Learning 解決方案、Technology Learning 技術應用的雜誌,下列筆記為本站投稿網管人雜誌獲得刊登的文章,網管人雜誌於每月份 1 日出刊您可於各大書店中看到它,或透過城邦出版人讀者服務網進行訂閱。





本文目錄






前言

在傳統的 Nutanix 叢集運作架構中,叢集內至少需要「三台」成員節點主機才行(如圖 1 所示)。然而,企業和組織有許多規模較小的分公司或 ROBO 小型公司,需要有更低成本但仍具備高彈性的運作架構,所以 Nutanix 便推出「雙節點叢集」(Two-Node Cluster)

圖 1、三台成員節點主機組成的 Nutanix 叢集運作架構示意圖

與單節點叢集叢集不同的是,雙節點叢集可以提供類似三台節點主機叢集的部份彈性功能,然而雙節點叢集本身在運作架構上也有些許限制,所以管理人員在準備建置雙節點叢集之前,應先理解雙節點叢集具備哪些功能和限制條件,避免導入後才發現無法滿足企業和組織的需求。

首先,在 Hypervisor 虛擬化平台方面,支援採用 AHV 和 ESXi 兩種虛擬化平台,選擇採用 AHV 時 Controller VM(CVM)最小硬體需求,必須配置 6 vCPU 及 20GB vMemory 硬體資源。

在 Replication Factor(RF)資料複寫和完整性方面,預設採用 RF2 以便資料複寫能夠跨越二台節點主機之間,雖然 RF1 也支援使用,但管理人員必須認知採用 RF1 時的風險。此外,在中繼資料(Metadata)方面,則是採用 RF4 機制,將中繼資料複寫存放到二台節點主機的 SSD 儲存資源中,以便雙節點叢集發生災難事件時,能夠快速將健康的節點主機轉換為單節點模式並繼續運作,同時保持資料容錯能力確保可用性(如圖 2 所示)。

圖 2、Cassandra Ring 運作架構示意圖

在儲存資源工作負載方面,由於只有二台節點主機,所以必須考量一台節點主機發生故障時,喪失 50% 的運算和儲存資源,以及接手故障節點主機的工作負載,所以在平時正常運作時,節點主機的儲存和記憶體工作負載不應超過40%」,以避免屆時發生災難事件時成為唯讀狀態。

值得注意的情況是,雙節點叢集可以承受其中一台節點主機發生故障並繼續運作,但是存活的另一台節點主機,倘若此時發生 SSD 磁碟故障的話,那麼便會立即轉換為「唯讀模式」(Read-Only Mode)

在特色功能方面,雙節點叢集的運作架構下,支援 Compression 資料壓縮及 Asynchronous DR 機制,但是不支援增加成員節點主機擴充為三節點叢集,不支援 Deduplication 重複資料刪除,不支援 Erasure Coding 資料節省機制,不支援 Nearsync DR 和 Metro Availability,不支援 Network Segmentation……等機制,所以企業和組織在導入雙節點叢集前,應再次確認是否會使用到不支援的特色功能。

倘若,企業和組織在舊有 AOS 5.x 版本中,希望建構雙節點叢集時,強烈建議至少使用「AOS 5.10.7」或後續版本,以避免遭遇許多潛在問題影響運作,例如,LCM 升級雙節點叢集失敗、雙節點叢集無法從失敗狀態中自動復原……等,詳細資訊請參考 Nutanix KB 7585 知識庫文章。本文則會使用最新 AOS 6.8 版本建構雙節點叢集。





雙節點叢集故障情境剖析

在雙節點叢集運作架構中,叢集的健康狀態和復原步驟,取決於發生何種故障情境,舉例來說,成員節點主機發生故障時,以及 Witness VM 仲裁機制發生故障時,叢集的因應方式和復原步驟便不相同。



成員節點主機故障時

當雙節點叢集中,其中一台成員節點主機發生故障時(如圖 3 所示),另一台健康情況良好的成員節點主機,將會發送「Leadership Request」給 Witness VM 仲裁主機,請求重新啟動 Zookeeper 系統服務,並將運作模式切換為「單節點模式」(Single-Node Mode)

圖 3、當其中一台成員節點主機發生故障時

值得注意的是,成員節點主機從健康運作狀態,轉換為單節點模式的工作時間需要「30-60 秒」,才能完成運作模式切換的工作任務,此時上層運作的 VM 虛擬主機,可能會遭遇到 I/O 讀寫逾時的情況,建議管理人員應將 VM 虛擬主機的 SCSI 控制器,將 Timeout 數值調整為至少「60 秒」,以避免災難事件發生時,造成上層 VM 虛擬主機 I/O 讀寫逾時的情況。

當主機進入單節點模式時,雖然仍採用 RF2 機制確保資料可用性,但此時的 RF2 機制已經從原本「主機層級」(Node Level),轉換為「磁碟層級」(Disk Level),這表示資料複寫機制從原本跨越二台成員節點主機,轉換為單台成員節點主機內的二顆磁碟中。

此時,倘若存放中繼資料的二顆 SSD 磁碟當中,其中一顆 SSD 磁碟發生故障時,那麼進入單節點模式的主機將會進入「唯讀模式」(Read-Only Mode),資料僅能讀取而無法寫入,直到加入新的 SSD 磁碟提供中繼資料服務後,系統才會離開唯讀模式讓資料恢復讀寫狀態。

一旦故障離線的成員節點主機,修復完畢重新加入叢集後,那麼原本進入單節點模式的成員節點主機將會復原,並且 RF2 資料複寫機制,將會恢復成原本的主機層級機制,確保資料複寫在二台成員節點主機之間,以上這些拆解動作,在災難事件發生時,都將由系統自動執行和轉換運作模式,管理人員無須手動干預。



成員節點主機之間網路中斷時

在雙節點叢集架構中,二台成員節點主機之間的心跳網路,系統將會每隔「2 秒」執行一次 Ping 的心跳檢查,倘若在 10 秒內心跳檢查都失敗時(也就是連續 Ping 失敗 5 次),那麼系統將會判定成員節點主機之間的心跳網路中斷(如圖 4 所示)。

圖 4、當成員節點主機之間心跳網路發生故障時

此時,二台成員節點主機將會同時向 Witness VM 仲裁主機,發送 Leadership Request 請求訊息,無論哪一台成員節點主機獲得 Leadership Lock 後,將會保持在運作狀態並進入單節點運作模式,而另一台未獲得 Leadership Lock 的成員節點主機,則會將所有資料讀寫操作和系統服務關閉,只保留 Genesis 系統服務,以便後續叢集運作狀態改變時,接收來自 Zookeeper 的通知,主機此時將進入「等待狀態」(Waiting State)

一旦系統偵測到心跳網路恢復之後,叢集將會確保心跳網路至少維持 15 分鐘的健康狀態,才會開始執行叢集復原的操作程序,也就是一台成員節點退出單節點運作模式,二台成員節點主機重新建立 RF2 資料複寫機制……等工作任務。



主機和仲裁之間網路中斷時

預設情況下,雙節點叢集的成員節點主機與仲裁主機之間,網路延遲時間不應超過「500 ms」,倘若超過這個網路延遲時間時,將會觸發系統的 RPC Timeout 逾時。

不同於成員節點主機之間的心跳網路,成員節點主機和仲裁主機之間,每「60 秒」執行一次 Ping 檢查的動作,仲裁主機可以容忍 2 秒的超時時間,所以可以容忍 1 秒的網路連線延遲。

當單一成員節點主機和仲裁主機之間,發生網路連線中斷的情況時(如圖 5 所示),系統將會自動產生告警,內容為成員節點主機和仲裁主機之間喪失通訊,但此時雙節點叢集仍為健康狀態不影響運作。

圖 5、當成員節點主機和仲裁主機之間網路發生故障時



仲裁機制故障時

當仲裁主機發生故障時,或者二台成員節點主機和仲裁主機之間的網路同時中斷時,系統都會視為仲裁機制故障(如圖 6 所示),此時系統將會自動產生告警,內容為成員節點主機和仲裁主機之間喪失通訊,但雙節點叢集仍為健康狀態,不影響叢集以及上層的 VM 虛擬主機正常運作。

圖 6、當仲裁主機發生故障時

一旦仲裁主機恢復作並重新上線時,將會自動和成員節點主機再次建立仲裁機制,倘若仲裁主機受損嚴重無法復原時(Unrecoverable),則必須要管理人員介入,手動重新部署和配置仲裁主機。





實戰 – 雙節點叢集

在本文實作環境中,採用日前官方 最新釋出的 Nutanix CE 2.1 版本(如圖 7 所示),除了包含大量新功能 AOS 6.6AOS 6.7AOS 6.8AOS 6.8.1之外,還包括 Prism Central 2024 v4 API,也有適合用於分公司或小型環境的 X-Small Prism Central 部署選項。

圖 7、最新 Nutanix CE 2.1 安裝流程示意圖



巢狀式虛擬化環境

在巢狀式虛擬化環境中,由於最新版本的 AOS 6.8.1 和過去舊版的 AOS 6.5 相較之外,除了新增許多特色功能之外,更重要的是底層的作業系統版本也改版了,在 AOS 6.5 版本中,AHV 和 CVM 均採用 CentOS 7.9 作業系統版本,而最新的 AOS 6.8.1 版本中,AHV 和 CVM 則改為採用 Red Hat Enterprise Linux 8(RHEL8)系列作業系統版本 (其實是 Rocky Linux 8 😏),Python 相關服務和腳本也從 2.7 升級為 3 版本,其它詳細資訊請參考 Nutanix AOS 6.8 Release Notes 文件內容。

因此,在開啟 VMware Workstation 虛擬化軟體,點選 Create a New Virtual Machine 選項後,在選擇 Guest OS 客體作業系統時,請選擇 Linux 選項中的「Red Hat Enterprise Linux 8 64-bit」項目(如圖 8 所示),待安裝程序完成後,屆時管理人員登入便能看到 AHV 和 CVM,皆採用 Red Hat Enterprise Linux 8 作業系統版本。

圖 8、新版 AOS 6.8.1 請選擇採用 RHEL 8 作業系統版本

在選擇 vDisk 虛擬硬碟類型時,由於選擇採用 RHEL 8 作業系統版本,所以預設的 vDisk 虛擬硬碟類型將為「NVMe」,請改為選擇至「SCSI」選項(如圖 9 所示),否則屆時安裝完成後 CVM 主機將無法順利啟動。

圖 9、選擇採用 SCSI 的 vDisk 虛擬硬碟類型

此外,在建立 VM 虛擬主機完成後,先別急著開機進入安裝程序,請使用系統管理員權限開啟 Notepad 筆記本,修改 Guest Hypervisor 虛擬主機的「.vmx」組態設定檔,加上「disk.EnableUUID = "TRUE"」參數值,確保指派給 vDisk 虛擬硬碟 Serial Number 序列號,否則在稍後的安裝程序中,可以看到硬碟未顯示 Serial Number,後續也會導致啟動叢集服務時,在 Medusa 服務啟動環境時卡住並產生錯誤,造成叢集無法順利啟動。

在本文雙節點叢集運作架構中,總共會安裝三台 AHV 主機(如圖 10 所示),其中二台擔任雙節點叢集的成員主機,另一台則負責運作 Witness VM 仲裁機制,在 IP 位址的配置如下:
  • AHV Hypervisor: 10.10.75.11,12,15
  • Controller VM(CVM): 10.10.75.21,22,25
  • CVM Cluster IP: 10.10.75.30
  • Witness Cluster IP: 10.10.75.35
圖 10、安裝最新 Nutanix CE 2.1 版本,包含 AOS 6.8.1 和過往新增特色功能



建構 Nutanix 叢集

由於 Nutanix CE 社群版本,在官方文件中有明確說明,僅支援建立單節點、三節點、四節點叢集,必須採用實體伺服器才能建構雙節點叢集,所以在本文中將建立三節點叢集,搭配 Witness VM 仲裁機制模擬雙節點叢集運作環境。

管理人員只要登入其中一台 CVM 主機,並使用 ping 指令確認 3 台主機之間,AHV 和 CVM 主機皆能 ping 通無誤之後,便可以鍵入「cluster -s 10.10.75.21,10.10.75.22,10.10.75.25 create」指令,執行建構多節點 Nutanix 叢集的工作任務。

建構多節點 Nutanix 叢集的工作任務,需要等待一段時間才完成,在部署過程中,管理人員從資訊中可以看到,系統會自動指派其中一台 CVM 主機,擔任 ZeusLeader 角色負責 Nutanix 叢集的指揮作業,當叢集環境建構完成後,系統將出現「INFO MainThread cluster:3104 Success!」訊息,提醒管理人員 Nutanix 叢集已經部署並啟動完成。

管理人員可以手動執行「cluster status」、「ncli cluster info」等指令,確認叢集運作和健康狀態,以及叢集的組態設定等資訊。



叢集基礎設定

雖然,已經成功建立叢集環境,但是叢集仍有其它組態設定未完成,例如,叢集名稱、叢集 IP 位址、DNS 名稱解析伺服器……等。請開啟瀏覽器,鍵入任一 CVM 主機的 IP 位址,例如,http://10.10.75.25,系統將會自動導向至 https://10.10.75.25:9440,在嘗試連線 Prism Element(PE)管理介面時,會看到系統提示「NET::ERR_CERT_INVALID」網頁警告訊息。

此時,只要在警告頁面中的空白處,直接按下鍵盤上的「thisisunsafe」,即可順利載入 PE 管理介面的登入畫面,使用預設管理帳號「admin」和密碼「nutanix/4u」,登入後系統會提示需要變更管理者帳號的密碼,變更後再度回到 PE 登入介面以管理帳號和新的密碼登入。

首先,預設情況下叢集名稱為「Unnamed」,並且未設定叢集專用的 Virtual IP(VIP)位址,請在登入 PE 管理介面後,依序點選「Settings > General > Cluster Details」,將 Cluster Name欄位中的預設值 Unnamed 刪除,鍵入本文實作環境的叢集名稱「ntnx-cluster」,在 Virtual IP 欄位填入「10.10.75.30」叢集 VIP 位址後,按下 Save 鈕存檔(如圖 11 所示)。

圖 11、組態設定叢集名稱和 VIP 位址

當組態設定套用生效後,管理人員便可以登出現有 CVM IP 位址連線的 PE 管理介面,改為採用叢集名稱搭配 VIP 位址名稱解析的網址登入,本文實作環境請在網址列鍵入「https://ntnx-cluster.lab.weithenn.org:9440」,順利通過使用者身份驗證程序並登入 PE 管理介面後,可以在管理介左上角看到叢集名稱已經套用生效。

接著,組態設定叢集使用的 DNS 名稱解析伺服器,以及 NTP 時間校對伺服器,請在 PE 管理介面中,依序點選「Settings > Network > Name Servers」後,將預設的「8.8.8.8 和 8.8.4.4」IP 位址刪除後,按下 Add 鈕新增「10.10.75.10」環境中的 DNS 名稱解析伺服器。

在 PE 管理介面中,依序點選「Settings > Network > NTP Servers」,先將預設值「1.pool.ntp.org 和 0.pool.ntp.org」的 NTP 時間校對伺服器刪除後,按下 Add 鈕新增一台內部「10.10.75.10」,和外部的「clock.stdtime.gov.tw」NTP 時間校對伺服器(如圖 12 所示)。

圖 12、新增內部和外部的 NTP 時間校對伺服器



部署 Witness VM 仲裁主機

在 Nutanix 叢集架構中,仲裁機制是透過部署 Witness VM 主機達成,請先登入至 Nutanix Support Portal,依序點選「Nutanix Support & Insights > Downloads > Essential Tools > WitnessVM」項目,依據採用的 Hypervisor 虛擬化平台,選擇下載的 Witness VM 主機印像檔,倘若是 ESXi 則下載 .ova,若是 AHV 則是下載 .qcow2 印像檔(如圖 13 所示)。

圖 13、下載適用於 AHV 虛擬化平台的 Witness VM 映像檔

下載完成後,請切換至 PE 管理介面,依序點選「Settings > General > Image Configuration > Upload Image」,在 Create Image 視窗中,填入 Witness VM 映像檔資訊:
  • Name: 由於 Witness VM 有三個映像檔(boot、data、home),請分別填入 Witness VM 映像檔名稱以供識別。
  • Annotation: 此欄位為選擇填寫項目(可不填),請填入 Witness VM 映像檔描述資訊。
  • Image Type: 選擇上傳的映像檔類型為 ISO 或 Disk,此欄位為選擇項目(可不選)。
  • Storage Container: 選擇上傳的 Witness VM 映像檔,要儲存在哪個 Storage Container 儲存資源中,本文實作環境儲存至預設的 Storage Container 儲存資源。
  • Image Source: 選擇上傳的 Witness VM 映像檔來源,選擇 From URL 方式時,可以透過 NFS 或 HTTP 通訊協定上傳,選擇 Upload a file 方式時,則可以點選 Choose File 鈕選擇由本機直接上傳。
圖 14、上傳適用於 AHV 虛擬化平台的 Witness VM 映像檔

建立 Witness VM 虛擬主機,請在 VM Dashboard 頁面中,按下 Create VM 準備建立 Witness VM 虛擬主機,在彈出的 Create VM 視窗中,依序填入和選擇下列資訊:
  • Name: 鍵入建立的 VM 虛擬主機名稱。
  • Description: 鍵入 VM 虛擬主機的描述資訊,此欄位為選擇填寫項目(可不填)。
  • Timezone: 選擇 VM 虛擬主機採用的時區,倘若建立的是 Linux VM 虛擬主機,請保持預設的 UTC 時區設定即可。
  • vCPU: 組態設定 VM 虛擬主機的 vCPU 數量,根據官方文件說明 Witness VM 虛擬主機,至少需要配置 2 vCPUs 虛擬處理器。
  • Number of Cores per vCPU: 組態設定 VM 虛擬主機每個 vCPU 的 Cores 數量,根據官方文件說明 Witness VM 虛擬主機,至少需要配置 2 vCPUs 虛擬處理器。
  • Memory: 組態設定 VM 虛擬主機的 vMemory 空間,根據官方文件說明 Witness VM 虛擬主機,至少需要配置 6GBvMemory 空間。
  • 按下 Add New Disk,在 Add Disk 視窗中,將三個 Witness VM 映像檔加入(如圖 15 所示)
    • Type: 選擇至 Disk 項目。
    • Operation: 選擇至 Clone from Image Service 項目。
    • Bus Type: 選擇至 SCSI 項目。
    • Image: 依序選擇剛才上傳的三個 Witness VM 映像檔(boot,data,home)。
  • 按下 Add New NIC,在 Create NIC 視窗中,組態設定 vNetwork 虛擬網路
    • Subnet Name: 選擇準備連接的 Subnet 網路環境。
    • Network Connection State: 選擇預設的 Connected 項目。
  • Save: 按下 Save 鈕,系統便開始建立 Witness VM 虛擬主機。
圖 15、新增 vDisk 虛擬硬碟,採用剛才上傳的 Witness VM 映像檔



組態 Witness VM 仲裁主機

在 VM Dashboard 頁面中,切換至 Table 頁籤後,選擇 Witness VM 虛擬主機執行 Power On 開機的動作,順利啟動後執行 Lunch Console,可以看到 Witness VM 虛擬主機,預設會嘗試搜尋網路中是否有 DHCP Server 派發 IP 位址,如果有的話會直接抓取 IP 位址。

在實務上,管理人員應該為 Witness VM 虛擬主機,組態設定固定 IP 位址,請在 Console 視窗中,使用預設管理者帳號 nutanix 和密碼 nutanix/4u 登入,執行「sudo vi /etc/sysconfig/network-scripts/ifcfg-eth0」指令,修改網卡設定檔為如下內容:
DEVICE="eth0"
NM_CONTROLLED="no"
ONBOOT="yes"
BOOTPROTO="none"
IPADDR="10.10.75.35"
NETMASK="255.255.255.0"
GATEWAY="10.10.75.254"

組態設定完成並存檔離開後,執行「sudo reboot」指令重新啟動主機以便套用生效。重新啟動完成後,執行「cat /etc/redhat-release」指令確認系統版本資訊,執行「ip -c -br a」指令確認網路資訊,執行「hostname」指令確認主機名稱(如圖 16 所示)。

圖 16、確認 Witness VM 虛擬主機網路組態設定

最後,在 Witness VM 虛擬主機上,執行「cluster -s 10.10.75.35 --cluster_function_list=witness_vm create」指令,建立 Witness VM 叢集以便完整仲裁機制的組態設定(如圖 17 所示)。

圖 17、建立 Witness VM 叢集以便完整仲裁機制的組態設定

現在,即可開啟瀏覽器,在網址列鍵入「https://witness.lab.weithenn.org:9440」,登入 Witness 仲裁機制管理介面(如圖 18 所示)。

圖 18、登入 Witness 仲裁機制管理介面



註冊 Witness 仲裁機制

請切換至 PE 管理介面後,依序點選「Settings > Data Resiliency > Configure Witness」,管理人員可以在 Witness Address 欄位中,鍵入 Witness VM IP 位址「10.10.75.35」,一旦運作環境符合 Two-Node Clusters 時,便能順利按下 Save 鈕套用生效(如圖 19 所示)。

圖 19、指定 Witness VM 仲裁機制 IP 位址

切換回 Witness 仲裁機制管理介面,在 Configure Witness 組態設定頁面中,填入 Witness 仲裁機制 IP 位址,預設管理者帳號「admin」和預設管理密碼「Nutanix/4u」後,按下 Apply & Continue 鈕套用生效(如圖 20 所示),至此 Nutanix 叢集順利建立 Witness 仲裁機制。

圖 20、註冊並組態設定 Witness 仲裁資訊





結語

透過本文的深入剖析和實戰演練後,管理人員除了理解雙節點叢集的特色功能和相關限制外,透過實戰演練小節逐步操作後,相信能幫助分公司或小型企業和組織的管理人員,輕鬆建立 Nutanix 雙節點叢集運作環境。

關於站長 (更新: 2024 年度回顧)

$
0
0


關於本站

本網站所引用他人商標或圖示均屬該來源網站或其合法權利人所有,本站內容多為個人研究心得,其所寫之實作筆記內容多為參考網路上資料並實際操作後所記錄完成,歡迎分享網站內容並標示出處及作者但僅限於非商業用途連結,且禁止改作(若你重混、轉換本素材,或依本素材建立新素材,則你不得散布改作後的素材!!) [本網站內容受 創用 CC 授權 3.0保護],本網站若有任何地方侵犯到您權利的地方,請 Mail 給我 將會立刻處理謝謝您。





Weithenn 摸索 IT 世界回顧:




2025 年



2024 年

12 月: 
          擔任 WebConf Taiwan 2024講師。


          擔任 .NET Conf Taiwan 2024講師。


          今年首度獲選 Nutanix Technology Champions (NTC) 2025獎項,這是個每年只挑選 100 名入選的獎項計劃。




11 月: 
          擔任 Kubernetes Summit 2024講師。




9 月: 
          擔任 Hello World Dev Conference 2024講師。




8 月: 
          擔任 COSCUP 2024 - Google 開發者派對講師。




7 月: 
         第 13 年當選 Microsoft MVP - Cloud and DataCenter Management 項目 Microsoft MVP Profile - Wei-Ren Wang。今年全球共有 3,771 位 MVP,台灣則是 50 位。



          擔任 DevOpsDays Taipei 2024講師。

          擔任 Cloud Summit Taiwan 2024講師。




4 月: 
          人生首次到海外演講,擔任 DevOpsDays Tokyo 2024講師。


          擔任 SRE Conference 2024 工作坊講師。




2 月: 

          第 13 年當選 VMware vExpert 2024 Awards Announcement 技術專家 VMware vExpert Information - Wei-Ren Wang,今年全球共有 1,385 位左右的 vExpert,台灣則是 4 位。






2023 年 (年度回顧)

12 月: 

          擔任 .NET Conf 2023 Taiwan 大會講師。




          擔任 Google DevFest Taipei 2023 大會講師。




11 月: 

          擔任 MWC (Modern Web Conference) 2023 體驗工作坊講師。




10 月: 

          擔任 Kubernetes Summit 2023 體驗工作坊和 Soft Skills 議程講師。




9 月: 

          擔任 DevOpsDays Taipei 2023 體驗工作坊講師。




7 月: 

          (1) 第 12 年當選 Microsoft MVP - Cloud and DataCenter Management項目 Microsoft MVP Profile - Wei-Ren Wang。今年全球共有 3,176 位 MVP,台灣則是 46 位。


          (2) 擔任 Cloud Summit 2023議程和工作坊講師。


          (3) 擔任 COSCUP 2023 議程和工作坊講師。




2 月: 

          第 12 年當選 VMware vExpert 2023 Awards Announcement技術專家 VMware vExpert Information - Wei-Ren Wang,今年全球共有 1,400 位左右的 vExpert,台灣則是 5 位。






2022 年 (年度回顧)

10 月: 

          (1) 擔任 Kubernetes Summit 2022 工作坊講師。


 
 

9 月: 

          (1) 擔任 DevOpsDays Taipei 2022 工作坊講師。



7 月: 


          (2) 擔任 Cloud Summit Taiwan 2022議程和工作坊講師



4 月: 

         (1) 擔任 SRE Conference 2022  議程講師。


2 月: 

         第 11 年 當選 VMware vExpert 2022 Awards Announcement 技術專家 VMware vExpert Information - Wei-Ren Wang






2021 年 (年度回顧)

11 月: 

         (1) 擔任 臺灣雲端大會 Cloud Edge Summit Taiwan 2021  議程講師。  

         (2) 擔任 DevOpsDays Taipei 2021 議程講師。 




7 月: 




3 月: 

         (1) 擔任 台北資策會 - VMware vCenter Server HA 高可用性實戰班   課程講師。  
         (2) 擔任 台北資策會 - Microsoft Hyper-V 伺服器虛擬化實戰班   課程講師。 
         (3) 擔任 台北資策會 - VMware vSphere 伺服器虛擬化實戰班  課程講師。 


2 月: 

         第 10 年 當選 VMware vExpert 2021 技術專家 VMware vExpert Information - Wei-Ren Wang






2020 年 (年度回顧)

9 月: 

         擔任 Taiwan Cloud Edge Summit 2020議程講師。




7 月: 

         (1) 擔任 台北資策會 - VMware vSphere 伺服器虛擬化實戰班  課程講師。 
         (2) 第 9 度當選 Microsoft MVP - Cloud and DataCenter Management 項目 Microsoft MVP Profile - Wei-Ren Wang



4 月: 

         (1) 擔任 台北資策會 - VMware vSphere 伺服器虛擬化實戰班  課程講師。
         (2) 擔任 Taiwan Global Azure 2020議程講師。




3 月: 

         (1) 擔任 台中資策會 - Microsoft Azure IaaS 實戰班 課程講師。
         (2) 擔任 台北資策會 - VMware vSphere 伺服器虛擬化實戰班  課程講師。
         (3) 第 9 度當選 VMware vExpert 2020 技術專家 VMware vExpert Information - Wei-Ren Wang


         (4) 擔任 2020 儲存趨勢論壇 (StorTrends 2020) 議程講師。



2 月: 

         地球村走一回,今年插旗的國家是 葡萄牙之旅



1 月: 

          (1) 擔任 台中資策會 - VMware vSphere 伺服器虛擬化實戰班 課程講師。
          (2) 和 VMware Taiwan 共同舉辦第一次 Taiwan VMUG (VMware User Group) 聚會






2019 年 (年度回顧)

12 月: 

         擔任 VMware vForum Taiwan 2019議程講師。



11 月: 

         擔任 OpenInfra Days Taiwan 2019議程講師。



10 月: 

         擔任 Cloud Native Forum 2019 議程講師。



9 月: 

         (1) 擔任 Dell Technologies Forum 2019議程講師。


         (2) 擔任 Kubernetes Summit 2019 議程講師。


7 月: 

        (1) 第 8 度當選 Microsoft MVP - Cloud and DataCenter Management 項目 Microsoft MVP Profile - Wei-Ren Wang


        (2) 擔任 聖約翰科大 - ABC 高科技人工智慧碩士學分班業界講師。

        (3) 完成人生中 第 19 本 著作 (英文翻譯書) VMware vSAN 6.7 U1 Deep Dive 中文版



6 月: 

        (1) 擔任 資策會 - VMware vSphere 伺服器虛擬化實戰班 課程講師。

        (2) 擔任 資策會 - Microsoft Azure IaaS 實戰班 課程講師。

        (3) 地球村走一回,今年插旗的國家是 波波斯之旅 (波羅的海三小國 / 波蘭 / 斯洛伐克)


5 月: 

         擔任 Cloud & Edge Summit 2019議程講師。


3 月: 

         (1) 第 8 度當選 VMware vExpert 2019 技術專家 VMware vExpert Information - Wei-Ren Wang,在 2018 年全球共有 1,731 位 VMware vExpert (Taiwan 共 5 位獲選)


         (2) 擔任 Windows Server 2019 成就多雲資料中心現代化議程講師。






2018 年 (年度回顧)

10 月: 

         (1) 首度當選 VMware vExpert PRO 技術專家 VMware vExpert Information - Wei-Ren Wang,這是由 2018 年全球 1536 位 VMware vExpert 2018 成員中再度選出 46 位獲選為 vExpert PRO。


         (2) 擔任 Acer / Microsoft - Tech 2019 New Future - Windows Server 2019議程講師。



9 月: 

         (1) 擔任 台灣微軟 Windows Server 高峰會 - 認識 Windows Server 2019 超融合架構 議程講師。



         (2) 擔任網管人主辦 2018 企業資安實務策略論壇 - 拒絕成為馬奇諾防線 - Windows Security Hardening議程講師。



8 月: 

         擔任 OpenInfra Days Taiwan 2018 - Openstack Containerization - Deploy OpenStack in Minutes議程講師。



7 月: 

        第 7 度當選 Microsoft MVP - Cloud and DataCenter Management 項目 Microsoft MVP Profile - Wei-Ren Wang



6 月: 

         擔任 iThome Kubernetes Summit 2018 - OpenFaaS on Kubernetes - 1 分鐘建構好你的 Serverless 平台議程講師。



4 月: 

         (1) 擔任 聖約翰科技大學雲端,人工智慧,物聯網暨大數據之生態與展望,產品行銷策略技術與管理」課程的業師,與該校 40 位老師/教授分享我在 SDDC 軟體定義資料中心的一些經驗談。

         (2) 擔任 資策會 - VMware vSphere 伺服器虛擬化實戰班 課程講師。


5 月: 

         (1) 擔任 iThome Cloud Summit 2018 - 打造 VM / Container / Serverless 三位一體的軟體定義資料中心 議程講師。


         (2) 擔任 資策會 - Microsoft Azure IaaS 實戰班 課程講師。

         (3) 擔任 國立台北商業大學 - Microsoft S2D - HCI 超融合規劃與建置實務班講師。


3 月: 

         (1) 與台灣微軟合作,錄製 六分鐘學會在 Azure VM 中啟用巢狀虛擬化 Nested Virtualization影片,幫助您實際操作了解如何在 Azure VM 啟用巢狀虛擬化技術。


         (2) 擔任 Serverless All-Star 研討會講師。



2 月: 

         第 7 度當選 VMware vExpert 2018 技術專家 VMware vExpert Information - Wei-Ren Wang,在 2018 年全球共有 1,536 位 VMware vExpert (Taiwan 共 5 位獲選)






2017 年 (年度回顧)

12 月: 

        (1) 擔任 國立台北商業大學 - 私有雲規劃與建置實務班 - Hyper-V 課程講師。

        (2) 擔任 法務部 - Windows Server Container 教育訓練課程講師。

        (3) 網管人雜誌專訪 軟體定義儲存也要嚴選,東森得易購導入微軟 S2D


        (4) 擔任 Dell/Microsoft - IT 未來新能量 研討會講師。

        (5) 出版人生中 第 18 本 著作 (英文翻譯書) Windows Server 容器技術


10 月: 

        (1) 擔任 國立台北商業大學 - Docker 容器技術實務應用班 課程講師。

9 月: 

        (1) 擔任 資策會 - VMware vSphere 伺服器虛擬化實戰班 課程講師。

        (2) 擔任 資策會 - Microsoft Azure IaaS 實戰班 課程講師。

        (3) 擔任 DevOpsDays Taipei 2017 - 打造 Infrastructure Agility: Mode 2 的基石 - SDS 軟體定義儲存 議程講師。


8 月: 

        (1) 擔任 106年度製造業價值鏈資訊應用計畫 - 全方位企業私有雲規劃與建置之最佳化調校實務班課程講師。

        (2) 首度當選 VMware vExpert 2017 - VSAN,這是由全球 1514VMware vExpert 2017成員中再度選出 vExpert VSAN,2017 年全球只有 74位獲選。


        (3) 出版人生中 第 17 本 著作 (個人著作) 微軟 S2D 軟體定義儲存技術實戰


7 月: 

        (1) 第 6 度當選 Microsoft MVP - Cloud and DataCenter Management 項目 Microsoft MVP Profile - Wei-Ren Wang


        (2 ) 擔任 106年度製造業價值鏈資訊應用計畫 - 全方位企業私有雲之SDS軟體定義儲存實務班  課程講師。

        (3) 出版人生中 第 15、16 本 著作 (英文翻譯書) VMware vSphere 6 企業級專家手冊


6 月: 

        擔任 iThome Cloud Summit 2017 - Bimodal IT 打造 SDDC 軟體定義資料中心 議程講師。

4 月: 

        擔任 國立臺北商業大學 - 私有雲規劃與建置 Hyper-V 實務班 課程講師。

3 月: 

        擔任 打造 Infrastructure Agility Mode 2 的基石 – Docker / Container 議程講師。

2 月: 

         第 6 度當選 VMware vExpert 2017 技術專家,VMware vExpert Information - Wei-Ren Wang






2016 年 (年度回顧)

11 月: 

       (1)  擔任 國立臺北商業大學 - 私有雲規劃與建置 VMware 實務班 講師。

       (2)  擔任 中華電信學院 - VMware vSphere 建置與維護實作進階班 講師。

8 月: 

        (1) 擔任 資策會 - VMware vSphere ESXi 桌面虛擬化實戰課程講師。

        (2) 擔任 Community Open Camp活動講師。


7 月: 

        (1) 第 5 度當選 Microsoft MVP - Cloud and DataCenter Management 項目 Microsoft MVP Profile - Wei-Ren Wang


        (2) 擔任 105 年度資訊應用服務人才培訓計畫 - 企業私有雲之規劃與建置 (實務班、進階班) - 以 Microsoft Hyper-V 為例  課程講師。

        (3) 擔任 財團法人中興工程顧問社 VMware Horizon VDI 虛擬桌面 內部教育訓練講師。

6 月: 

         (1) 出版人生中 第 14 本 著作 (英文翻譯書) Hyper-V 最佳實踐:快速建置虛擬化解決方案。    


         (2) 擔任 聖約翰科技大學 - VMware 虛擬化技術培訓課程 講師。

4 月: 

          出版人生中 第 13 本 著作 (英文翻譯書) VMware vSphere 最佳化效能調校


5 月: 

         擔任 國立臺北商業大學 - 私有雲規劃與建置 VMware 實務班 講師。

3 月: 

         (1) 貢獻多篇技術文章至 Microsoft TechNet 技術文件庫
                Windows Server vNext 新技術預覽
                WDS 部署服務
                Microsoft SDS 軟體定義儲存技術
                Microsoft 資料保護最後一哩 Storage Replica
                新世代伺服器 Nano Server

          (2) 與 TechNet 台灣部落格 合作,撰寫 Windows Server 2016 攻略連載文章:
               [Network] Windows Server 2016 攻略 (七) - 新世代虛擬網路交換器 SET ( Switch Embedded Teaming )
               [Network] Windows Server 2016 攻略 (八) - SDN 軟體定義網路

2 月: 

          (1) 第 5 度當選 VMware vExpert 2016技術專家,VMware vExpert Information - Wei-Ren Wang


          (2) 與 TechNet 台灣部落格 合作,撰寫 Windows Server 2016 攻略連載文章:
               [Storage] Windows Server 2016 攻略 (四) - SDS 軟體定義儲存
               [Storage] Windows Server 2016 攻略 (五) - 資料備援新選擇 Storage Replica
               [Storage] Windows Server 2016 攻略 (六) - 儲存資源品質管控機制 Storage QoS

1 月: 

          與 TechNet 台灣部落格 合作,撰寫 Windows Server 2016 攻略連載文章:
               [Compute] Windows Server 2016 攻略 (一) - 新世代虛擬化平台 Hyper-V
               [Compute] Windows Server 2016 攻略 (二) - 為雲端而生的極簡平台 Nano Server
               [Compute] Windows Server 2016 攻略 (三) - 整合雲端元素的容錯移轉叢集





2015 年 (年度回顧)

11 月: 

          出版人生中 第 12 本 著作 (英文翻譯書) Active Directory 環境的 PowerShell 活用指南


10 月: 

          (1) 與 MSDN 部落格合作翻譯 微軟正式宣布推出 PowerShell DSC for Linux Version 1.1 以及新的 Linux 資源文章。

          (2) 出版人生中 第 11 本 著作 (英文翻譯書) 實戰 Azure 混合雲|基礎架構 x 高可用性 x 災難復原


9 月: 

         (1) 擔任 資策會 Hyper-V 虛擬化實戰系列課程講師。

         (2) 於 Microsoft Techdays Taiwan 2015 舉辦期間,擔任 3場(ITM305、ECI309、ECI303) 議程講師。年會期間所有活動錄影及簡報 Channel 9 - TechDays Taiwan 2015


7 月: 

        (1) 與 Channel 9 Taiwan 合作「深入探討網路儲存及災難備援議題」線上課程,進行字幕及簡報的翻譯及審校。

        (2) 與 Channel 9 Taiwan 合作「充分使用 Open Source 加速解決方案」線上課程,進行字幕及簡報的翻譯及審校。

        (3) 與 Channel 9 Taiwan 合作「使用 Azure 優化工作負載架構和管理能力」線上課程,進行字幕及簡報的翻譯及審校。

        (4) 第 4 度當選 Microsoft MVP - Hyper-V 項目 Microsoft MVP Profile - Wei-Ren Wang


6 月: 

         擔任 台灣微軟 IT 管理技術高峰論壇 (MMS 2015) 講師。


5 月: 

          (1) 擔任 微軟 EMS 全方位企業雲端解決方案 講師。


          (2) 受邀 iThome 雜誌採訪,分享 全面透視虛擬環境網路效能的瓶頸觀點。

          (3) 擔任 104 年度資訊應用服務人才培訓計畫 - 企業私有雲實戰講堂 - 以 VMware 為例  課程講師。

          (4) 貢獻 虛擬化環境導入評估工具 MAPStorage Space 存放集區、 Azure RemoteApp 應用程式虛擬化  等文章至 Microsoft TechNet 文件庫,Microsoft TechNet Library - 王偉任

          (5) 與 TechNet 部落格合作翻譯 針對軟體定義資料中心而生的 - 新世代儲存機制 、企業級虛擬化及新世代應用程式平台 文章。

          (6) 出版人生中 第 10 本 著作 (技術審校書) SDN 軟體定義網路


4 月: 

          (1) 出版人生中 第 9 本 著作 (個人著作) Windows Server 2012 R2 Hyper-V 3.0 叢集雲端架構實戰 (高級篇)


        (2) 與 Channel 9 Taiwan 合作「建立 Microsoft Azure IaaS 雲端基礎建設」線上課程,進行字幕及簡報的翻譯及審校。

2 月: 

          第 4 度當選 VMware vExpert 2015VMware vExpert Information - Wei-Ren Wang






2014 年 (年度回顧)

12 月: 

          貢獻 MVMC 2.0Windows Server 2012 R2 運作模式切換 文章至 Microsoft TechNet 文件庫,Microsoft TechNet Library - 王偉任

11 月: 

          出版人生中 第 8 本 著作 (英文翻譯書) VMware Virtual SAN 管理手冊


9 月: 

          於 Microsoft Techdays Taiwan 2014 舉辦期間,擔任 四場(PCIT306、DCIM309、PCIT305、DCIM402) 議程講師。年會期間所有活動錄影及簡報 Channel 9 - TechDays Taiwan 2014MVA - TechDays Taiwan 2014


8 月: 

          貢獻 Windows Server 2012 升級至 2012 R2 文章至 Microsoft TechNet 文件庫,Microsoft TechNet Library - 王偉任

7 月: 

          (1) 出版人生中 第 7 本 著作 (個人著作) Windows Server 2012 R2 Hyper-V 3.0 虛擬化環境實戰 (初級篇)

          (2) 第 3 度當選 Microsoft MVP - Hyper-V 項目 Microsoft MVP Profile - Wei-Ren Wang


          (3) 擔任 北區農會電腦共用中心 - VMware / Hyper-V 伺服器及桌面虛擬化基礎 內部教育訓練講師。

6 月: 

          (1) 擔任 台灣微軟 IT 管理技術高峰論壇 (MMS 2014) 講師。
               當天所有議程簡報 2014 台灣微軟 IT 管理高峰會簡報下載

          (2) 參加 Microsoft 主辦雲端戰士團,獲得 2014 年第三屆金翅級認證
               當天活動新聞訊息 自由電子報 3C科技 - 台灣微軟匯聚雲端戰士團


          (3) 擔任 文藻外語大學 - VMware Horizon View 虛擬桌面 內部教育訓練講師。

5 月: 

          (1) 擔任 集英信誠 - 與大師對談技術論壇講師。
               當天所有議程簡報 與大師對談活動簡報
               當天我的議程簡報 VMware 及 Hyper-V最佳虛擬化平台硬體規劃

          (2) 受邀擔任 雙和區資訊組長研習 - HyperV 3.0 R2 新功能研討研習 講師。

4 月: 

          (1) 擔任 春源鋼鐵 - VMware Horizon View 虛擬桌面 內部教育訓練講師。

          (2) 第 3 度當選 VMware vExpert 2014VMware vExpert Information - Wei-Ren Wang

       
          (3) 貢獻 Windows Server 2012 R2 虛擬桌面部署建議文章至 Microsoft TechNet 文件庫,Microsoft TechNet Library - 王偉任

3 月: 

          (1) 貢獻 Windows Server 2012 R2 - Hyper-V 10 大特色功能Windows Server 2012 R2 虛擬化平台最佳實務文章至 Microsoft TechNet 文件庫,Microsoft TechNet Library - 王偉任

          (2) 擔任 2014 微軟技術關卡破解日 講師。
               當天所有議程錄影 Channel 9 - MVP 微軟技術關卡破解日
               當天議程錄影及簡報 虛擬化平台最佳選擇 - Windows Server 2012 R2 Hyper-V 新功能展示



2 月: 

          貢獻 Windows Server 2012 R2 - 虛擬化平台最佳實務文章至 Microsoft TechNet 文件庫,Microsoft TechNet Library - 王偉任





2013 年

12 月: 

         (1) 擔任 雙和區資訊組長研習 - Hyper-V 3.0與 VMware vSphere 5.5 虛擬化新功能比較講師。

         (2) 擔任 元智大學 - 雙 V 駭客,架設高可用的服務主機 (Hyper-V 上午場)(VMware 下午場)研習活動講師。


11 月: 

          (1) 出版人生中 第 6 本 著作 (英文翻譯書) 打造雲端工作站 VMware View 5 建置與維護


          (2) 擔任 威盛電子 - Windows Server 2012 R2 虛擬化平台最佳選擇 內部教育訓練講師。

          (3) 貢獻 Windows Server 2012 即時遷移文章至 Microsoft TechNet 文件庫,Microsoft TechNet Library - 王偉任

          (4) 擔任 102學年度全國大專校院 - 資訊行政主管研討會 - 淡江大學軟體雲建置實例分享議程講師,當天議程簡報 淡江大學軟體雲建置實例分享(PDF)

          (5) 擔任 VMware 桌面虛擬化及軟體雲應用研討會講師,當天議程簡報 虛擬桌面最佳化調校


10 月: 

          (1) 擔任 艾鍗學院 - 職訓課程 - 網管工程師類 - 私有雲與虛擬化系統工程師養成班講師。

          (2) 貢獻 Microsoft Virtual Machine Converter文章至 Microsoft TechNet 文件庫,Microsoft TechNet Library - 王偉任

9 月: 

          於 Microsoft Techdays Taiwan 2013舉辦期間,擔任 虛擬化平台最佳選擇: Windows Server 2012 R2 (Hyper-V 3.0 R2) vs VMware vSphere 5.1 及進行Vmware 無痛移轉之工具及建議議程講師。當天活動錄影及簡報 Channel 9 - Techdays Taiwan 2013


8 月: 

          (1) 擔任 雙和區資訊組長研習 - 虛擬化應用與基礎電腦病毒安全防護 (A場)(B場)講師。

          (2) 擔任 特新光電 - Windows Server 2008 R2 教育訓練 內部教育訓練講師。

7 月: 

          (1) 第 2 度當選 Microsoft MVP - Virtualization Virtual Machine 項目 Microsoft MVP Profile - Wei-Ren Wang


          (2) 貢獻 Windows Server 2012 MPIO 文章至 Microsoft TechNet 文件庫,Microsoft TechNet Library - 王偉任

6 月: 

          (1) 第 2 度當選 VMware vExpert 2013VMware vExpert Information - Wei-Ren Wang


          (2) 擔任 雙和區資訊組長研習 - VMware vSphere/Microsoft Hyper-V 虛擬化技術平台之 CentOS Webmin 應用講師。

          (3) 受邀採訪並刊登於 商業週刊第1334期 - 這家公司 讓微軟恨、林百里愛

5 月: 

          (1) 出版人生中 第 5 本 著作 (個人著作) 24 小時不打烊的雲端服務-專家教你用 Windows Server 2012 Hyper-V3.0 實戰虛擬化技術


          (2) 擔任 2013 微軟 MVP 實戰課程日講師。
                當天議程簡報Hyper-V 3.0 實戰 - 打造你的完美伺服器虛擬化平台
                當天活動簡報台灣微軟 - 研討會與活動簡報下載 - 微軟實戰課程日
                當天活動錄影台灣微軟 - 實戰課程日回顧篇

4 月: 

          (1) 擔任 第二屆 - 虛擬化戰士 Hyper-V 3.0 培訓計畫助教。

          (2) 貢獻 Hyper-V 2.0 文章至 Microsoft TechNet 文件庫,Microsoft TechNet Library - 王偉任

          (3) 貢獻 Hyper-V 3.0 文章至 Microsoft TechNet 文件庫,Microsoft TechNet Library - 王偉任

3 月: 

          擔任 Microsoft TechNet - 邁向雲端虛擬化的全方位攻略 - Hyper-V 與 VMware 大不同課程講師。
          當天議程簡報Hyper-V 與 VMware 大不同
          當天議程錄影Hyper-V 與 VMware 大不同 (上)Hyper-V 與 VMware 大不同 (下)

1 月: 

          擔任 WebConf Taiwan 2013講師,當天議程簡報無廢話 DRBD + Heartbeat 實戰,當天議程錄影無廢話 DRBD + Heartbeat 實戰WebConf Taiwan 2013 懶人包WebConf Taiwan 2013 Day 1 - 活動照片WebConf Taiwan 2013 Day 2 - 活動照片






2012 年

12 月:

          (1) 擔任 雙和區資訊組長研習 - Windows Server 2012 新功能技術研討講師。

          (2) 出版人生中 第 4 本 著作 (技術審校書) MySQL+PHP初心者的學習殿堂:資料庫×動態網頁設計實務養成(附CD)


11 月:

          (1) 擔任 板橋區資訊組長研習 - VMware vSphere ESXi 5.1 實作講師。

          (2) 擔任 Acer Infrastructure & Virtualization 技術會議 內部教育訓練講師。

          (3) 受邀採訪並刊登於 網管人雜誌 第 81 期 資訊這條路 ─ 從無到有十年苦功 王偉任嶄露頭角

9 月: 

          (1) 出版人生中 第 3 本 著作 (技術審校書) 世界連在一起,搜尋引擎的核心秘密


          (2) 受邀推薦 iThome 2012 年 iT 人必看的好書 - 系統與網路管理類

          (3) 於 Microsoft Techdays Taiwan 2012舉辦期間,在 Windows Server 2012 攤位擔任 問專家



8 月: 

          (1) 與 Microsoft Taiwan DPE - 林大鈞 (Ta-Chum Lin) 合作 Windows Server Blog - 部份文章審校

          (2) 參加 Windows Server 2012 (Hyper-V 3) 好文比賽獲得 分享獎

7 月: 

          (1) 當選 Microsoft MVP - Virtualization Virtual Machine項目 Microsoft MVP Profile - Wei-Ren Wang


          (2) 與 Microsoft Taiwan DPE - 林大鈞 (Ta-Chum Lin) 合作 Windows Server 2012 實戰影片審校

6 月: 

          (1) 擔任 雙和區資訊組長研習 - Hyper-V Server 2008 R2 進階技術研習講師。

          (2) 跟 Microsoft Taiwan DPE - 林大鈞 (Ta-Chum Lin) 合作 Microsoft Technet Blog - 文章審校

5 月: 

          (1) 擔任 雙和區資訊組長研習 - FreeNAS 進階技術研習講師。

          (2) 出版人生中 第 2 本 著作 (技術審校書) 企業級的網路安全架構:終極防駭技術大剖析


4 月: 

          (1) 擔任 雙和區資訊組長研習 - CentOS HA 高可用性進階技術研習講師。

          (2) 成為 台灣第 1 位獲選 VMware vExpert 殊榮的人 VMware vExpert Information - Wei-Ren Wang,並受邀採訪刊登於 VMware VMTN Blog: vExpert Spotlight: Wei-Ren Wang


3 月: 

          (1) 擔任 雙和區資訊組長研習 - VMware vSphere ESXi 進階技術研習講師。

          (2) 參加 Microsoft 所主辦的虛擬化戰士團,獲得 2012 年第一屆金翅級認證,微軟伺服器虛擬日 V-Day 虛擬化戰士頒獎典禮






2011 年

12 月:

          (1) 出版人生中 第 1 本著作 24小時不打烊的雲端服務:專家教你用 CentOS 架設萬年不掛的伺服器。感謝大家熱情支持,此著作已經登上 博客來 2012 年度排行榜 - 電腦類 TOP 50


11 月:

          (1) 擔任 慶聯有線電視 - HP/Dell/IBM 伺服器及 CentOS 作業系統基礎設定 內部教育訓練講師。

          (2) 受邀推薦 iThome 2011 年 IT 好書 100 - 系統與網路管理類





2010 年

10 月:

          受邀採訪並刊登於 iThome 第 480 期 iT 人甘苦談 ─ 架 Wiki 做筆記,IT 人分享學習心得

5 月:

          遇見了 VMware vSphere 虛擬化技術的良師 Johnny





2007 年

3 月:

          想開了!! 開始到世界各地走走,開始記錄遊山玩水的點點滴滴。





2003 年

8 月: 

          第 2 份工作中,遇見 Clive開始接觸 FreeBSD便一腳陷入惡魔的世界 (BSD Committer TW 之一 Clive 的電腦世界回顧與展望)。

4 月:

          第 1 份工作時,在 Bruce 的鼓勵下考取生平第一張證照 CCNA。





2002 年

11 月:

          網路工程師班結訓後,第一份工作學習到有關 Cisco、3Com 網路設備...等技術 ,並且創立本站。

8 月:

          懷著一份對電腦世界的興趣及崇拜,因而參加網路工程師班,並認識了良師 George 及益友 Mandy、Tony...等技術同好。

6 月:

          憲兵退伍,連主要分割區是什麼東東也不知的人不自量力的想進入所謂的 IT 界工作。

    站長 2024 年度回顧

    $
    0
    0
    圖片來源: Career Photos | Pexels


    2024 年度回顧

    其實,每到年度回顧時刻,總會有點小驚訝,今年的戰績比起年初訂的目標還高!  如果,你在年初問我,年底時要能達成這麼多目標,我一定會回答你應該辦不到才對。 😁
    那麼,我到底是如何達成這些任務的呢? 我會嘗試快速歸納出幾點多年養成的習慣「善用零碎時間」、「制約」、「一次專注完成一個小任務」,提供給大家參考,這是我多年後發現控制我這台「Avatar」的好方法,不一定適合你,但可以參考看看:


    善用零碎時間

    還記得第一年寫網管人雜誌時,必須要花費至少三-四週的時間,才能寫好一篇技術專欄。因為,撰寫的過程中只要被打斷,就必須花費好一段時間才能再進入工作狀態,甚至有時候就無法進入工作狀態了。😂

    透過稍後提到的「制約」,在這幾年慢慢的自我訓練之下,現在能夠很快透過制約的方式,讓我在很短時間內進入工作狀態 (當然有時還是會失敗)。現在的話,平均只要二-三天的時間,就能寫好一篇網管人技術專欄了。


    制約

    過去,我只要被打斷後,就必須要很長一段時間才能回到工作狀態,或是根本回不了工作狀態。現在,透過一些自我制約的方法,可以讓我有機會更快回到工作狀態,達到善用零碎時間完成工作任務的目的。

    舉例來說,我只有在需要完成工作任務時,才會在書桌上進行,其它看影片或娛樂的性質不要在書桌上進行,讓身體記得這個場域就是工作的地方。再來,我會在工作前播放 Mozart 音樂,暗示我要進入工作狀態了,至於為何是 Mozart 音樂? 我猜是因為第一次去歐洲時去了奧地利,聽了許多 Mozart 的音樂,後續聽到時就會聯想到當時去旅遊的愉快,進而達到內心平靜的效果,然後進入工作狀態 (笑…😎

    當然,每個人的方式都不同,你可以嘗試各種方法,讓自己能進入工作狀態的方式就是好方法,至少對我來說是有效的。😄


    將大任務拆細拆小,然後一次專注完成一個小任務

    我蠻建議大家,無論是工作上或其它方面,有個簡單的原則,不要嘗試一次就想要完成一個大專案,就像你使用 AI 工具一樣,如果只想要下一次 Prompt 就完成巨大的工作,通常是不太可能達成的,而是應該把你想要達成的任務切細切小,然後逐一達成才是比較可行的方法。

    從我過去親身的經歷來說,一個非常大的專案或工作任務,只要能夠逐一拆解,然後把工作任務切小,再逐步完成,並適當的給自己每個小勝利或達標的獎勵,真的在不知不覺中,你累積的每個小勝利,最後就會變成本來的大專案,然後你的身體會記住這種感覺。👹



    充實的一年 (火力展示)

    那麼,來回顧一下今年除了原本的正職工作之外,完成哪些事情。

    網管人雜誌 - 技術專欄

    首先,最自豪的,當然是每年持續產出的網管人雜誌 - 技術專欄,這是我最原始 Input/Output的泉源,每個月撰寫一篇,今年是持續撰寫的第 14 年 (再次給自已鼓鼓掌 💪)。2024 年寫了下列 12 篇 網管人雜誌 - 技術專欄


    社群專家獎項

    另一個養份的來源,當然是持續維持的社群專家獎項,不光是因為這些獎項帶來的福利,更重要的是結識許多志同道合的好朋友,無論是知識的交流、職涯的討論、人生的方向,這些年來吸收到的養份,早就超過我對社群的付出了。
    今年,因為工作的關係,開始接觸 Nutanix 技術,順著累積多年的學習模式,索性也申請 Nutanix NTC 獎項看看,很高興中選了,後續繼續努力。其實,學習上的累積,不外乎就是先從工作上會用到的部份開始精進,一旦手上的工作用好用順,後續再往相關方面繼續延伸,至少這麼多年來,這個學習模式一直幫助著我不斷精進,也在職涯上能夠不斷成長的原因之一。然後,在今年八/九月份,這二個月的時間考取了 8 張 Nutanix 證照。



    公開演講

    今年的公開演講數量,細數之後,發現居然多達 10 場之多 (驚!)。

    其中,最讓人難忘的,當然是人生成就解鎖的海外演講初體驗啦。事實上,去年在投稿 DevOpsDays Tokyo 2024 時,根本是沒有抱著任何期待 (因為不期不待沒有傷害麻!),而且去年台灣這邊據了解也有十幾位講師投稿,所以被通知入選時,非常意外和高興。

    當然,投稿後說沒有任何期待其實是騙人的,不過,我現在投稿時的心態,已經訓練成投稿時盡力而為,然後投出後就往下個工作任務繼續前進,投稿有入選當然很好很高興,但如果投稿失敗了,難過失望一下下就好,畢竟勝敗乃兵家常事 (投稿,有時很吃緣份的~笑)。
    • 今年我投稿命中率是 100%,也就是為何能講那麼多場的原因。
    • 某一年,我投稿七次,有五次失敗,也因為該年的訓練,讓我能比較輕鬆看待之後的投稿。

    從 FB 上看這個時間軌跡後,更有感了,有時真的盡力而為,其它就交給命運安排了。

    當然,我也趁著這次機會,在演講前後多請幾天假,跟太太好好體驗跟享受這次的日本行。


    順便工商一下,想要在 2025 年多參與社群活動的朋友們,可以考慮參加:

    至於,工程師在職涯上如何精進並提升職場價值,Gipi 院長也在最近 WebConf 2024 中分享過,並且撰寫成很棒的內容,很值得大家參考看看。
    另外,我在 2023 年時有分享過一次我的職涯給大家參考,分享職涯上的個人作法和建議,以及職涯路上各種試錯(trial and error)經驗,讓與會人員能夠參考並少走冤枉路,例如,職涯路上薪水成長的關鍵、個人如何自我學習成長並廣結善緣、如何從寫部落格開始、到持續撰寫網管人雜誌技術專欄 12 年、出版 19 本書籍、IT 研討會講師經驗擔任超過百場、獲選 Microsoft MVP、成為台灣第一位 VMware vExpert……等。




    保持餘裕 / 以終為始

    首先,有關「餘裕」的部份,本來也想快速聊一下,但發現 Gipi 院長已經又撰寫一篇關於餘裕的好文,請直接閱讀服用即可:

    另外,其實關於 2025 年或之後的人生,其實都只要想著「以終為始」就可以做很多事情,甚至幫助你選擇或判斷,哪些事情是你真正想要的?  舉例來說,我目前正職工作或這些額外的努力,不光是在技術上的精進或是職涯向上的過程,我一直想要的是能夠在這些為前提之下,順道又能有額外的收入,讓我能夠更輕鬆的去支撐走遍地球村的夢想。
    其實,我們每個人生長在這個地球村當中,相信許多人可能跟我之前的觀念一樣要過別人眼中的「直線人生」,也就是每天工作的目標只為了 提升生活品質   >   趕快繳清房貸   >   退休   >   環遊世界……等。但是,事實上真的是如此嗎?   難保過程中不會有任何意外發生嗎? 或者等到年老時有錢有閒 (其實也不一定有錢?)  還有足夠的體力能夠環遊世界嗎? (現在的我對於每每要經歷長途飛行,其實已經感到相當疲憊和痛苦了)

    那麼,為何我會在這幾年之間突然看開且脫離直線人生呢?   其實,只要能夠體會到人生無常這件事,相信你也很容易能夠看開某些原本在意的事情 (舉例來說,突然有好朋友或前輩離開這人世間,或者是努力打拼一輩子卻每天悶悶不樂的長輩,或者是到醫院急診室了解人生無常的無奈……)。

    我想要表達的是,你應該盡情過好你所選擇的每一天!!  思考後發現,我在有生之年最想要做的事情就是踏遍世界,所以我努力工作和生活的最終目標都是為了往「地球村走一回」努力。因此,對於我來說「旅行」就是我盡情放鬆重新再出發的最好動力,你呢? 你最佳放鬆再出發的方式是什麼?


    VMware vExpert 2025 開放申請

    $
    0
    0


    簡介

    VMware vExpert 是針對在 VMware 社群中,有卓越貢獻的專家們的一種榮譽。

    申請 VMware vExpert 2025程序非常簡單,只需要您提供在 2024 年,相關貢獻活動的資訊即可。申請截止日期為 2025 年 1 月 10 日,內部投票將從 1 月 13 日開始於 2 月 7 日結束,並預計在 2 月底前公佈 VMware vExpert 2025 年的得獎者。



    獲選 VMware vExpert 的好處

    當你申請後獲選為 VMware vExpert 的話有哪些好處呢?
    • Content Promotion: 成為 vExpert,您的內容可以透過 VMware 的 @vExpert、@VMwareExplore 的 Twitter 帳號、LinkedIn、Broadcom Advocacy 以及 VMware 部落格 RSS 來源獲得可見性,將可以您的文章、影片或其他技術貢獻帶來流量。
    • Building Your Personal Brand: vExpert 品牌可增強您在科技社群中的個人和專業聲譽。
    • Professional Recognition: vExpert Directory中列出 vExpert 頭銜可以驗證您的社群貢獻,使您脫穎而出,尤其是在尋求新的職業機會時。 
    • Complimentary VMUG Advantage membership:免費 VMUG Advantage 會員資格
    • Free VMware Licenses: 只要 vExpert 通過 VCP-VCF 認證考試,就可以獲得 VCF Home Lab Licenses,幫助您簡單建立研究和測試環境。
    • Exclusive Networking Opportunities: 可以與其他 vExpert 進行交流。
    • NDA Briefings and Early Access Content: 在 NDA 保密協議的前提下,提前獲得 VMware 的未來路線圖和準備公開發佈的內容。
    • Blogger Passes to VMware Explore: vExpert 可以免費獲得 VMware Explore 活動的 Blogger Passes (雖然數量有限)。

    AHV Internals: Memory Overcommit | Nutanix

    $
    0
    0


    簡介

    在虛擬化基礎架構中,相信大家對於「Memory Overcommit」機制應該很熟悉,簡單來說,透過 Memory Overcommit 機制,可以讓虛擬化基礎架構中的 VM 虛擬主機數量增加的一種技術,舉例來說,一台 Nutanix AHV 主機具備 128 GB 實體記憶體,但卻可以運作 10 台甚至 14 台,配置使用 16 GB Memory 的 VM 虛擬主機。

    在本文中,將說明在 Nutanix HCI 超融合環境中,官方的最佳建議作法:
    • 建議,用於「測試或研發環境」(Test and Development environments)
    • 不建議,用於營運環境」(Production environments),因為可能會導致效能下降。





    Ballooning 與 Swapping

    如上所述,預設情況下,Nutanix 官方不建議啟用 AHV 的 Memory Overcommit 機制。那麼,在不啟用的情況下,AHV Hypervisor 是如何達成運作更多數量 VM 虛擬主機的目的? 答案就是透過 Ballooning 和 Swapping 機制。

    首先,VM 虛擬主機必須確保已經安裝 VirtIO 驅動程式,那麼系統便會透過 VirtIO 驅動程式整合 Ballooning 機制,將 VM 虛擬主機中未使用到的記憶體空間,歸還給 AHV Hypervisor 以便提供給其它 VM 虛擬主機使用。

    舉例來說,在下圖中可以看到,管理人員配置 3 台 20 GB 記憶體的 VM 虛擬主機,但是對於 AHV Hypervisor 來說只用了 40 GB 記憶體空間,這是怎麼辦到的? 簡單來說,Ballooning 機制會將 VM 虛擬主機中,記憶體的使用情況回報給 AHV Hypervisor,以便 AHV Hypervisor 可以收回 VM 虛擬主機中「未使用」到的記憶體空間後,提供給其它 VM 虛擬主機使用,達到動態配置記憶體的效果。


    當然,如果 VM 虛擬主機需要使用到更多記憶體空間時,Ballooning 機制會通知 AHV Hypervisor 後,將剩餘可用的記憶體空間慢慢收回,並不影響 VM 虛擬主機的運作。然而,在資源爭奪強烈的環境中,可能 Ballooning 機制會來不及調度記憶體空間,並且超過 AHV Hypervisor 總記憶體空間時怎麼辦? 此時,就需要使用到 Swapping 機制了!

    如下圖所示,當眾多 VM 虛擬主機因為同時忙碌,總共的記憶體使用空間,超過 AHV Hypervisor 實體記憶體空間時,將會採用「Least Recently Used (LRU)」演算法進行處理,並將不足的記憶體空間,透過 Host Swap 的方式,來滿足 VM 虛擬主機超用的記憶體需求。然而,因為是使用 Host Swap 的方式,給予 VM 虛擬主機記憶體,與實際使用記憶體空間在效能上有很大的差異。


    因此,倘若管理人員發現 Host Swap 的情況經常發生時,首先應該考慮為 AHV 主機擴充實體記憶體空間,倘若無法擴充的情況下,則建議採用 VM 虛擬主機內的 Swap 機制,因為相比之下 Guest Swap 會比 Host Swap 來得有效率。

    舉例來說,配置 VM 虛擬主機 20GB 記憶體時,會使用到 Host Swap 機制時,不如考慮配置成 VM 虛擬主機配置 10GB 記憶體,並搭配 VM 虛擬主機內作業系統的 Swap 機制 10GB Swap Disk 來滿足需求。





    ADS 與 Memory Overcommit

    接來下,談談啟用 Acropolis Dynamic Scheduler (ADS)與 Memory Overcommit 的情境。在 AHV Hypervisor 具備 40GB 記憶體空間的環境中,配置 3 台 10GB 的  VM 虛擬主機,當需要啟動 1 台配置 15GB 的 VM 虛擬主機時,會發生什麼情況?

    首先,AHV Hypervisor 會進行記憶體可用空間估算,假設 3 台 10GB 的  VM 虛擬主機,已經使用記憶體資源池 30GB 空間,當需要啟動 15GB 的 VM 虛擬主機時,先透過上述提到的 Ballooning 和 Swapping 機制,嘗試回收未被 VM 虛擬主機使用的記憶體空間,假設收回 5GB 記憶體空間,此時記憶體資源池降低為使用 25GB 空間,並透過 ADS 的 Initial Placement 機制,來啟動配置 15GB 的 VM 虛擬主機。






    Memory Overcommit Ratio

    預設情況下,每台 VM 虛擬主機,系統會確保至少有 25%的記憶體空間來自 AHV Hypervisor 實體記憶體空間,表示透過 Ballooning + Swapping 機制,最多可以預留 VM 虛擬主機 75%的虛擬記憶體。

    當然,上述是理想的情況下,實際則是在配置 4 台 10GB VM 虛擬主機的環境中,每台 VM 虛擬主機最大化縮小至使用 25% 的記憶體空間,所以使用 AHV Hypervisor 記憶體資源池 10GB。

    此時,可以在啟動 3 台配置 10GB 的 VM 虛擬主機,因為 VM 虛擬主機剛啟動時,需要使用全部的記憶體空間,但開機完成後經過一段時間,便可以透過 Ballooning + Swapping 機制,收回未使用的記憶體空間,提供給更多 VM 虛擬主機使用。

    如下表所示,可以看到在 AHV Hypervisor 擁有 40GB 實體記憶體,然後每台 VM 虛擬主機配置 10GB 虛擬記憶體的情境下,最大可以達到 3.25 倍的集縮比,運作配置 10GB 虛擬記憶體最多達 13 台 VM 虛擬主機。


    值得注意的是,上述表格中的估算,是假設 Nutanix 叢集未啟用 High Availability (HA) 高可用性機制,倘若啟用 HA 高可用性機制後,系統為了保留系統資源以便因應故障事件,所以集縮比將會下降至 1.33 倍





    Upgrades 和 Live Migrations

    在 AHV 升級過程中,通常會先將 AHV 主機進入維護模式,當升級程序執行完畢後,AHV 主機需要重新啟動以便套用生效,但在此之前必須將運作其上的 VM 虛擬主機,透過 ADS Live Migration 線上遷移至其它 AHV 主機繼續運作。 

    倘若,有啟用 Guaranteed HA功能,那麼每台 VM 虛擬主機要遷移的目地端 AHV 已經確認,系統就會直接將 VM 虛擬主機線上遷移過去,倘若未啟用 Guaranteed HA 功能的話,AHV 會識別每台 VM 虛擬主機適合運作的 AHV 主機環境。

    因為線上遷移 VM 虛擬主機時,牽涉到記憶體複製的動作,並且要使用所有的實體記憶體空間。因此,倘若有啟用 Memory Overcommit 機制的 VM 虛擬主機,因為使用的記憶體空間並非全部都是實體記憶體空間,便會導致遷移時間較久。

    簡單來說,「未啟用」Memory Overcommit 機制的 VM 虛擬主機,可以在較短時間遷移完畢,而「已啟用」Memory Overcommit 機制的 VM 虛擬主機,則因為要將 Swapping 空間寫回實體記憶體中,導致遷移時間較長並影響效能,這也是 ADS 在計算遷移時,啟用 Memory Overcommit 機制的 VM 虛擬主機,會是較高遷移成本的原因。






    參考資源



    <script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>