Quantcast
Channel: 不自量力 の Weithenn
Viewing all 591 articles
Browse latest View live

Best Practices - AHV Network Management | Nutanix

$
0
0


前言

本文為閱讀 Best Practices - Nutanix AHV Networking | Nutanix文件後,整理的個人重點心得。



查看 VMs 的 VLAN 網路設定

透過 Prism 切換至 Network Configuration > Virtual Networks即可查詢。

圖、Prism UI Network List 示意圖

圖、Prism UI VM Network 示意圖



查看 AHV 網路設定

同樣的,透過 Prism 可以查看 AHV 的網路設定。詳細資訊請參考 Network Visualization Section of the Prism Web Console Guide文件。

圖、AHV Host Network Visualization 示意圖



透過 aCLI / AHV Bash / OVS 查看網路設定

 相關指令請參考下列連結:



Network Function Virtualization

當企業和組織在 Nutanix Cluster 環境中,有部署 Virtual Firewalls, Routers, VPNs, and Load Balancers……等特殊 NFV Appliance 時,必須注意下列事項,確保獲得最佳 NFV (Network Function Virtualization) 運作效能。

AHV Networking Best Practices - Part 1 | Nutanix

$
0
0


前言

本文為閱讀 Best Practices - Nutanix AHV Networking | Nutanix文件後,整理的個人重點心得。在本文中,官方文件有提到,請優先使用 GUI 進行操作,除非 GUI 不支援才使用 CLI 指令操作。



Open vSwitch Bridge 和 Bond 的建議

在 Use Case 表格中,雖然是用 10 GbE 環境為例,當然如果使用 25 GbE, 40 GbE, 100 GbE 網路環境時,則請自行替換。下列是 Bond 網卡時的注意事項:
  • 在同一個 Bond 中,「不要」使用不同供應商的網卡。
  • 在同一個 Bond 中,「不要」使用不同速度的網卡。
  • 在同一個 Bond 中,「不要」使用不同驅動程式版本的網卡,使用「ethtool -i <nic_name>」指令,即可確認網卡驅動程式版本資訊。
圖、Bridge and Bond Use Cases 情境示意圖



情境一、10 GbE x2

CVM 和所有 VMs 虛擬主機,都跑在這個 Bond (10 GbE x2) 中採用「Active-Backup」負載平衡模式,這個模式配置簡單且上層 Switch 無須額外組態設定。此外,在這個情境圖中沒有顯示 1 GbE 的 IPMI 部份。

圖、Network Connections for 2 × 10 GbE NICs 示意圖

AOS 5.19和後續版本開始,都請使用 Prism UI 管理介面進行網路組態設定,而非使用 CLI 指令處理 Uplink 設定。此外,請從預設虛擬交換器中取消勾選未使用」的網路卡,以及取消勾選不同傳輸速度」的網路卡,例如,下圖中將 1 GbE 的網路卡都取消勾選,僅勾選使用中的 10 GbE 網路卡。值得注意的是,組態設定後將會套用到 Nutanix 叢集中「所有」主機,並自動啟動維護模式,以便每次處理一台主機。
  • Bond Type: Active-Backup
  • Select Hosts: All Hosts
  • Select Uplink Ports: Connected and Unconnected Uplink Ports
  • Uplink Port Speeds: All Speeds
圖、Virtual Switch Configuration for 2 × 10 GbE Active-Backup 示意圖



情境二、1 GbE x2 和 10 GbE x2

如下圖情境中,將 10 GbE x2 建立 br0-up (vs0),而 1 GbE x2 建立 br1-up (vs1),其中傳輸速度快的 10 GbE 網路環境,給 CVM 和 User VM 1 專用,而 User VM 2 則是使用 1 GbE 網路環境。

圖、Network Connections for 2 × 10 GbE and 2 × 1 GbE NICs 示意圖

同樣的,從 AOS 5.19 和後續版本開始,都請使用 Prism UI 管理介面進行網路組態設定,而非使用 CLI 指令處理 Uplink 設定。此外,請從預設虛擬交換器中取消勾選未使用」的網路卡,以及取消勾選不同傳輸速度」的網路卡,例如,下圖中為組態設定 1 GbE 的網路卡 (br1-up)。值得注意的是,組態設定後將會套用到 Nutanix 叢集中「所有」主機,並自動啟動維護模式,以便每次處理一台主機。
  • Bond Type: Active-Backup
  • Select Hosts: All Hosts
  • Select Uplink Ports: Connected and Unconnected Uplink Ports
  • Uplink Port Speeds: All Speeds
圖、Create New Virtual Switch with 1 GbE Adapters 示意圖

在本文實作環境中,br1-up會是 vs1 的成員,所以記得組態設定採用 vs1

圖、Create Network on Additional Virtual Switch 示意圖





AHV Networking Best Practices

Deploying GKE Autopilot Clusters

$
0
0


簡介

在實作 GKE Autopilot Clusters 之前,先了解整個 GKE(Google Kubernetes Engine)技術的演進歷史,方便我們更了解為何現在 GKE 用起來如此便利。






手工打造 Kubernetes vs GKE

相信有手工打造過 Kubernetes 環境的勇者們 (煙),應該可以深刻體會這條路有多難走。下列,是針對手工打造 Kubernetes 環境,以及一開始 Google Cloud 中的 GKE,在新版 GKE Autopilot 發佈後稱為 GKE Standard,以及在 2021 年 2 月正式推出的 GKE Autopilot 的差異。

在下列表格中,「黑色字體」表示管理人員需要負責處理的部份,而「黃色底」則表示由 Google Cloud 負責處理,可以看採用 GKE Autopilot 之後,管理人員只要全心處理應用程式的部份即可,其它部份全部無須擔心。此外,GKE Autopilot  也在 2023 年 4 月,正式取代 GKE Standard 成為建立 GKE Cluster 的預設值。



GKE Standard vs GKE Autopilot

可以看到,一開始 Google Cloud 的 GKE,雖然系統已經幫忙處理煩人的 Patches & Upgrades, Availability & Scaling, Monitoring等部份,但還是需要處理 Worker Node Management,以及 Node Pool specification & configuration的部份,所以管理人員倘若對於 Kubernetes 沒有一定熟悉度的話,使用 GKE 後還是會有點卡卡的,所以新版的 GKE Autopilot 也處理這部份,管理人員只要全心處理應用程式即可。

圖、舊版 GKE Standard 管理人員仍需要一定程度熟悉 Kubernetes

至於運作架構層面,可以看到舊版的 GKE Standard 和 GKE Autopilot 上,這兩者在運作架構上的差別。

圖、GKE Standard 運作架構示意圖

圖、GKE Autopilot 運作架構示意圖

此外,不止運作架構有所差異,就連支付費用的部份也相對節省許多,舉例來說,過往 GKE Standard 架構,企業和組織必須支付 Worker Node的費用,但 GKE Autopilot則無須支付,僅以 Pod為單位進行計價。

圖、GKE Standard 和 GKE Autopilot 支付費用差異比較示意圖





Deploying GKE Autopilot Clusters 系列文章

  • (本文) Deploying GKE Autopilot Clusters | Overview
  • Deploying GKE Autopilot Clusters | Task1
  • Deploying GKE Autopilot Clusters | Task2
  • Deploying GKE Autopilot Clusters | Task3

AHV Networking Best Practices - Part 2 | Nutanix

$
0
0


前言

本文為閱讀 Best Practices - Nutanix AHV Networking | Nutanix文件後,整理的個人重點心得。在本文中,官方文件有提到,請優先使用 GUI 進行操作,除非 GUI 不支援才使用 CLI 指令操作。



Load Balancing in Bond Interfaces

在 Nutanix 運作架構中,支援三種模式將網卡整合達到負載平衡和容錯的機制,分別是 Active-Backup、Balance-SLB、LACP and Balance-TCP,下圖為這三種機制的使用情境:

圖、Load Balancing Use Cases 表格



模式一、Active-Backup

這是 Bond mode 的預設模式,AHV 在啟用這個 Bond mode 時,會隨機挑選其中一個成員網卡當成 Active 其餘則是 Backup,優點是簡單易用且無須上層 Switch 支援即可使用,缺點是平時只有使用 Active 網卡,只有等到 Active 網卡發生故障時,Backup 網卡才接手網路流量。

圖、Active-Backup Fault Tolerance 運作示意圖



模式二、Balance-SLB

Nutanix 不建議使用這個 Bond mode,原因在於,Balance-SLB 負載平衡機制 (透過來源 MAC Hash後平均分散流量),在 vSwitch 層級會將 Inbound Multicast 進行轉送,但實體交換器上「預設」開啟的 IGMP Snooping機制,會干擾這種運作方式,所以必須停用實體交換器上的 IGMP Snooping,或組態設定 Static IGMP Groups才行。此外,也不能跟實體交換器上的 LACP結合使用。

值得注意的是,即便 Balance-SLB 負載平衡機制可行也要記得,只有 AHV Host才能使用多個網卡頻寬,VM虛擬主機還是只能使用單一網卡頻寬,如下圖所示。

圖、Balance-SLB Load Balancing 運作示意圖

在組態設定 vSwitch 時,只要在 Bond Type 選單中,選擇到 Active-Active with MAC pinning項目,便是採用 Balance-SLB Load Balancing  機制。

圖、Virtual Switch Configuration for Balance-SLB 組態設定示意圖



模式三、LACP with Balance-TCP

此 Bond mode 模式,無論是 AHV 或 VM 虛擬主機,都能使用到 Bond 內所有網路卡頻寬。值得注意的是,Nutanix 和 OVS 要搭配實體交換器的 Dynamic link aggregation with LACP設定才行,請不要使用  Static link aggregation with LACP,例如,EtherChannel with AHV。此外,建議在實體交換器上設定,當 LACP Negotiation Fails時退回 Active-Backup 模式。

組態設定完成後,透過 Balance-TCP 負載平衡機制,會使用 Source IP、Destination IP、Source Port、Destination Port將網路流量進行負載平衡,這也是為何無論是 AHV 或 VM 虛擬主機,都能使用到 Bond 內所有網路卡頻寬。

值得注意的是,預設情況下,AHV 主機會以「每秒 1 個」速率的方式,向實體交換器請求 LACP Control Packet (LACPDU),但大多數實體交換器的預設值為「30 秒」,所以建議將實體交換器的組態設定,調整為跟 AHV 主機相同,以達到一致性和快速故障偵測的目的,並且將實體交換器上的 lacp-time 組態設定為「fast」,屆時 LACP 故障偵測時間,便會從 90 秒縮減至 3 秒,也就是說只要 AHV 主機未接收到「3 個 (3 秒)」LACPDUs 時,那麼就會判定 LACP 連接故障。

圖、LACP and Balance-TCP Load Balancing 運作示意圖

在組態設定 vSwitch 時,只要在 Bond Type 選單中,選擇到 Active-Active 項目,便是採用 Balance-TCP Load Balancing  機制。

圖、Virtual Switch Configuration for Balance-TCP with LACP 組態設定示意圖





AHV Networking Best Practices

Cloud Summit 2024 | 站長開講

$
0
0


活動簡介

雲端運算,不再是新常態,雲與端,已成生活日常,企業必須。然而,企業成長與創新未曾停歇人工智慧、數位韌性、永續營運踵而至,無不改寫雲與端未來的全方位發展。在 iThome Cloud Summit Taiwan 2024讓我們一起探索未來雲端運算的更多可能性。





活動資訊

日期:   2024 年 7 月 7 日 (三)
時間:   09:00 - 17:00
地點:   南港展覽館 2 館 7 樓 (台北市南港區經貿二路 2 號 7 樓)
報名:   報名連結
議程:   大會議程表
講者:   講者陣容






議程和 Cloud Lab

在本次大會中,站長分別有 30 分鐘的「打造超大型規模 Azure Stack HCI 和 AKS 基礎架構」議程分享,以及站長規劃一個 90 分鐘的「實戰演練 - 打造超大型規模 Azure Stack HCI 和 AKS 基礎架構」Cloud Lab,詳細內容請參考大會網站:





DevOpsDays Taipei 2024 | 站長開講

$
0
0


活動簡介

DevOpsDays Taipei 2024是臺灣最大的 DevOps 盛會,將於 7 月 10-11 日於南港瓶蓋工廠舉行,預計將吸引超過 1,000 位 IT 從業人員及開發者參加與會。參與這場活動,您將有機會與各地而來的 DevOps 實踐者、專家和開發者,以及與技術社群、業界技術專業人士接軌、交流互動。

誠摯邀請您共襄盛舉,加入我們一起探討 DevOps 的最新趨勢和實踐方法,助於拓展您的技能並成為這股技術變革浪潮中的先行者





活動資訊

日期:   2024 年 7 月 10 - 11 日 (三 - 四)
時間:   09:00 - 17:00
報名:   報名購票
議程:   大會議程表
講者:   講者陣容






體驗工作坊

在本次大會體驗工作坊中,站長規劃 90 分鐘的「自動化最後一哩 - GitOps with Event-Driven」體驗工作坊共有二場,詳細資訊請參考大會網站



Deploying GKE Autopilot Clusters | Task1

$
0
0


簡介

在上一篇 Deploying GKE Autopilot Clusters | Overview文章中,相信已經了解整個 GKE(Google Kubernetes Engine) 技術的演進歷史。管理人員可以採用 Google Cloud Console 或 Cloud Shell 方式,達到部署 GKE Clusters 的目的。但在本文中,則會採用 Google Cloud Console 圖形化介面的方式,來部署 GKE Autopilot Clusters。


圖、GKE Autopilot 運作架構示意圖



Task 1. Deploy GKE clusters

順利通過使用者身份驗證機制,進入 Google Cloud Console 圖形化介面後,請依序點選「Navigation menu > Kubernetes Engine > Clusters > Create」項目,在 Cluster basics 頁面中,請在 Name 欄位中填入「autopilot-cluster-1」,在 Region 中選擇本文實作環境的「us-west1」資料中心後,按下 CREATE 鈕。


當系統開始執行建立 GKE Autopilot Clusters 的動作時,可以點選右上角的鈴鐺,然後點選 SEE ALL ACTIVITIES 查看部署 GKE Autopilot Clusters 的詳細資訊。在本文實作環境中,花費 8 分鐘時間便完成 GKE Autopilot Clusters 的動作。





部署完成後,在 Google Cloud Console 圖形化介面中,點選「Kubernetes Engine > Clusters 」項目,查看 GKE Autopilot Clusters 各類資源的詳細資訊。








Deploying GKE Autopilot Clusters 系列文章


部署 Nutanix 多節點叢集,沒有超融合設備也能實測 | 網管人 221 期

$
0
0


網管人雜誌

本文刊載於 網管人雜誌第 221 期 - 2024 年 6 月 1 日出刊,NetAdmin 網管人雜誌為一本介紹 Trend Learning 趨勢觀念、Solution Learning 解決方案、Technology Learning 技術應用的雜誌,下列筆記為本站投稿網管人雜誌獲得刊登的文章,網管人雜誌於每月份 1 日出刊您可於各大書店中看到它,或透過城邦出版人讀者服務網進行訂閱。





本文目錄






前言

在前一篇技術專欄中,已經帶領讀者實際部署和建構 Nutanix 單節點叢集,讓企業和組織的管理人員,能夠透過極小型的運作環境進行研究和測試作業。然而,在實務上,企業和組織不可能將重要的營運服務,運作在只有單節點的叢集架構中。

因此,在本文中將部署和建構 Nutanix 多節點叢集環境,以便管理人員後續能夠實作 HCI 超融合基礎架構(如圖 1 所示),以及其它進階特色功能和災難演練的部份。

圖 1、Nutanix HCI 超融合基礎架構運作示意圖





實戰演練 – 部署 Nutanix 多節點叢集

建立巢狀式虛擬化環境

在實戰演練小節中,將會安裝和部署「3 台」Nutanix 節點主機後,建構 Nutanix 多節點叢集環境,並且透過 Prism Element 圖形化管理介面或指令,進行叢集基礎架構的基本組態設定,確保叢集運作環境的穩定性和高可用性。

由於,在企業或組織的地端資料中心內,可能並未具備足夠的硬體資源可供實戰演練和功能測試,所以 IT 管理人員同樣可以透過 「巢狀式虛擬化」(Nested Virtualization)機制的幫助下,輕鬆建構 Nutanix 多節點叢集運作環境。

然而,在本刊 <第 218 期 - 測試 Nutanix 社群版,實作超融合單節點叢集> 技術專欄中,已經詳細說明,如何建立巢狀式虛擬化環境、部署擔任 Nutanix 的 Guest Hypervisor 虛擬主機、安裝 Nutanix AHV 虛擬化平台的部份,因此本文便不再贅述。



部署 3 節點 Nutanix 叢集

順利部署 3 台 Nutanix 節點主機後,管理人員可以從 Console 登入,或是透過 SSH Client 登入 AHV虛擬化平台,以及 CVM 主機運作環境。在本文實作環境中,3 台 Nutanix 主機的 AHV IP位址為「10.10.75.21、10.10.75.22、10.10.75.23」,CVM IP 位址為「10.10.75.31、10.10.75.32、10.10.75.33」。

管理人員只要登入其中一台 CVM 主機,並使用 ping 指令確認 3 台 Nutanix 主機之間,AHV 和 CVM 主機皆通訊無誤後,便可以鍵入「cluster -s 10.10.75.31,10.10.75.32,10.10.75.33 create」指令,執行部署多節點主機的 Nutanix 叢集工作任務。
請注意,建立 Nutanix 叢集必須使用所有 CVM 主機的 IP 位址,而非 AHV 主機的 IP 位址。

部署 Nutanix 多節點叢集需要等待一段時間才完成,在部署過程中,可以看到其中一台 CVM 主機,將會自動擔任 ZeusLeader 角色,並負責整個 Nutanix 叢集的總指揮中心,一旦 3 台 Nutanix 節點主機,將叢集系統服務順利啟動完成後,系統將出現「INFO MainThread cluster:3104 Success!」訊息,表示 Nutanix 多節點叢集已經部署和啟動完成(如圖 2 所示)。當然,管理人員想要再次確認叢集狀態時,只要執行「cluster status」指令即可進行確認。

圖 2、部署並啟動 Nutanix 多節點叢集

多節點 Nutanix 叢集部署完畢後,請執行「ncli cluster info」指令,查詢 Nutanix 叢集組態設定資訊,舉例來說,目前 Cluster Name 欄位為「Unnamed」,也就是尚未組態設定 Nutanix 叢集名稱,Node Count 欄位為「3」,表示此 Nutanix 叢集目前擁有 3 台節點主機,NCC Version 欄位為「ncc-4.6.2.1」表示目前的 NCC 版本,以及 Cluster Version 欄位為「6.5.2」為叢集目前使用的 AOS 版本(如圖 3 所示)。

圖 3、查詢 Nutanix 叢集組態設定資訊

預設情況下,在多節點叢集運作架構中,會有多台 AHV 虛擬化平台和多台 CVM 主機,倘若仍需要一台一台主機逐一 SSH 登入進行管理的話,那麼除了造成管理上的麻煩之外,也可能因為人為操作錯誤的關係,例如,打錯字或貼錯指令……等,造成叢集管理上的困擾。

因此,如何快速簡單且一致性的管理便相形重要,在 Nutanix 叢集環境中,提供便利的「allssh」指令,能夠一次管理所有 CVM 主機,以及「hostssh」指令一次管理所有 AHV 虛擬化平台,達到快速管理的目的(如圖 4 所示)。

圖 4、透過 allssh 和 hostssh 一次管理 CVM 或 AHV 虛擬化平台

舉例來說,當管理人員想要查詢目前 Nutanix 叢集中,所有 CVM 主機的 DNS 名稱解析伺服器的組態設定時,只要執行「allssh cat /etc/resolv.conf」指令即可,想要查看所有 AHV 虛擬化平台的 DNS 組態設定時,只要執行「hostssh cat /etc/resolv.conf」指令即可(如圖 5 所示)。

圖 5、快速查詢叢集中 CVM 和 AHV 的 DNS 組態設定內容



設定 DNS 名稱解析伺服器

預設情況下,在多節點 Nutanix 叢集架構中,只要透過「任一台 CVM IP 位址」即可連線 Prism Element(PE)管理介面(後續簡稱為 PE),在登入 PE 管理介面之前,請執行「allssh "netstat -tunpl | grep 9440"」指令,確認所有 CVM 主機的 PE 管理介面服務(Port 9440)已經正常運作。

開啟瀏覽器,鍵入任一 CVM 主機的 IP 位址,例如,https://10.10.75.31:9440,倘若嘗試登入 PE 管理介面時,遭遇「NET::ERR_CERT_INVALID」網頁警告訊息的話,只要在錯誤網頁中空白處,直接鍵入「thisisunsafe」,即可順利看到 PE 管理介面的登入畫面,並使用預設管理帳號「admin」預設密碼「nutanix/4u」,登入後系統便會提示變更管理密碼,變更後會再度回到登入介面以新的管理密碼登入。

倘若,無法順利通過 NEXT Credentials 驗證視窗時,記得檢查在 My Nutanix 帳號中,是否針對 Community Edition 區塊,點選「Activate」鈕進行啟用,或者是多節點 Nutanix 叢集運作環境中,防火牆是否允許 TCP 通訊協定 Port 80 或 8443 網路封包通過,一旦 Pulse 遙測服務順利啟動後,即可看到 PE 儀表板管理介面(如圖 6 所示)。

圖 6、順利登入 Prism Element 儀表板管理介面

預設情況下,叢集採用的 DNS 名稱解析伺服器,為網際網路上的「8.8.8.8 和 8.8.4.4」。本文實作環境中,內部使用的 DNS 名稱解析伺服器為「10.10.75.10」,在進行組態設定之前,請先執行「allssh "nc -vz 10.10.75.10 53"」指令,確認所有 CVM 主機,都能夠和內部 DNS 名稱解析伺服器進行溝通。

確認與 DNS 名稱解析伺服器溝通無誤後,在 PE 管理介面中,依序點選「Settings > Network > Name Servers」後,按下 Add 鈕新增「10.10.75.10」DNS 名稱解析伺服器,並將預設的「8.8.8.8 和 8.8.4.4」刪除(如圖 7 所示),管理人員可以切換到 CVM 主機,執行「ncli cluster get-name-servers」指令,再次確認叢集的 DNS 名稱解析伺服器組態設定是否套用生效。

圖 7、組態設定 Nutanix 叢集 DNS 名稱解析伺服器

事實上,在 PE 管理介面為 Nutanix 叢集,組態設定 DNS 名稱解析伺服器之後,系統將會自動同步套用至所有 AHV 和 CVM 主機中,管理人員可以在 CVM 主機上,執行「allssh "cat /etc/resolv.conf"」指令,可以發現 Nutanix 叢集中,所有 CVM 主機已經自動套用生效,使用指定的內部 DNS 名稱解析伺服器,執行「hostssh "cat /etc/resolv.conf"」指令,同樣可以發現所有 AHV 主機,也自動套用內部 DNS 名稱解析伺服器(如圖 8 所示)。

圖 8、叢集中所有 CVM 和 AHV 主機,自動套用生效使用內部 DNS 名稱解析伺服器



設定叢集名稱和 VIP 位址

在預設情況下,雖然順利部署好 Nutanix 叢集,然而透過執行「ncli cluster info」指令,或登入 PE 管理介面後可以發現,預設的叢集名稱為「Unnamed」,並且也未組態設定叢集的 VIP(Virtual IP)位址,所以只能透過任一台 CVM 主機的 IP 位址,連線及登入至 PE 管理介面。

請在登入 PE 管理介面後,依序點選「Settings > General > Cluster Details」,將 Cluster Name 欄位中的預設值 Unnamed 刪除,鍵入本文實作環境的叢集名稱「ntnx-cluster」,在 Virtual IP 欄位填入「10.10.75.20」叢集 VIP 位址後,按下 Save 鈕存檔(如圖 9 所示)。

圖 9、組態設定叢集名稱和 VIP 位址

一旦組態設定套用生效後,管理人員便可以登出現有採用 CVM IP 位址連線的 PE 管理介面,改為採用叢集名稱搭配 VIP 位址名稱解析的網址登入,本文實作環境請在網址列鍵入「https://ntnx-cluster.lab.weithenn.org:9440」,順利通過使用者身份驗證程序並登入 PE 管理介面後,可以看到叢集名稱也已經套用生效為「ntnx-cluster」(如圖 10 所示)。

圖 10、採用叢集名稱搭配 VIP 位址名稱解析登入 PE 管理介面

值得注意的是,在剛才組態設定叢集資訊頁面中,FQDN欄位和 VIP 欄位只能擇一填寫,無法同時使用。簡單來說,當管理人員日後部署 Prism Central(PC)管理平台時,可以部署多台 PC 主機,搭配組態設定「DNS 名稱解析輪循」(DNS Round-Robin)功能,即可填入 FQDN 欄位達到多台 PC 主機負載平衡的功能,同樣的情境下,採用 VIP 機制時雖然能提供容錯的彈性機制,但卻無法提供負載平衡功能。



設定時區和 NTP 時間校對

預設情況下,叢集的時區組態設定值為「UTC 格林威治標準時間」,並且在目前的 PE 管理介面中,並沒有提供組態設定叢集時區的部份。請登入任一台 CVM 主機後,執行「ncli cluster info | grep Timezone」指令,查詢目前單點叢集的時區組態設定,執行「timedatectl list-timezones | grep Asia/Taipei」指令,確認系統是否支援「UTC+8」的「Asia/Taipei」台北時區。

確認系統支援台北時區後,執行「ncli cluster set-timezone timezone="Asia/Taipei"」指令,組態設定叢集為台北時區時,系統會詢問是否要套用新的時區設定,請鍵入「y」確認進行變更,系統提示必須重新啟動 CVM 主機,或是重新啟動叢集所有服務後,新的日誌事件時間才能套用新的時區。

值得注意的是,從 AOS 5.18 和 pc.2020.8版本開始,CVM 主機和 PC 管理平台中的服務日誌時間戳記,仍會強制使用 UTC 時區,即便管理人員變更時區。此外,和設定 DNS 名稱解析伺服器不同的是,時區的組態設定僅會套用至 CVM 主機,而不會套用至 AHV 虛擬化平台中,詳細資訊請參考 Nutanix KB1050 知識庫文章

由於多節點叢集已經正常運作,採用重新啟動 CVM 主機方式的話,一次只能重新啟動一台 CVM 主機,然後等待資料區塊重新同步完成後,才能再重新啟動另一台 CVM 主機,這樣的處理方式需要等待時間太久,所以改為選擇重新啟動叢集服務方式,請執行「cluster stop」指令,在系統詢問是否確認停止叢集服務時,鍵入「I agree」確認停止所有叢集服務。

待所有 CVM 主機的叢集服務都停止後,執行「cluster status |grep -v DOWN」指令,確認每台 CVM 主機,僅剩下必要的「Zeus、Scavenger、Xmount、VipMonitor」服務為啟動之外,其餘服務皆為停止狀態。

確認無誤後,即可執行「cluster start」指令啟動叢集服務。此時,系統就像在建構叢集服務時一樣的動作,許多的叢集服務依序啟動,直到所有叢集服務啟動完成為止,執行「cluster status |grep -v UP」指令,確認所有 CVM 主機的叢集服務皆已順利啟動,並執行「ncc health_checks system_checks cluster_services_down_check」指令,檢查是否有叢集服務未啟動成功的情況發生(如圖 11 所示)。

圖 11、透過 ncc 指令檢查叢集服務的健康情況

預設情況下,叢集採用的 NTP 時間校對伺服器,為網際網路上的「1.pool.ntp.org 和 0.pool.ntp.org」,本文實作環境中,使用內部的 NTP 時間校對伺服器為「10.10.75.10」,在組態設定之前,請先執行「allssh "nc -vz 10.10.75.10 -u 123"」指令,確認所有 CVM 主機,都能和內部 NTP 時間校對伺服器進行溝通。值得注意的是,nc 指令預設情況下採用「TCP」通訊協定,但 NTP 時間校對伺服器使用「UDP」通訊協定,所以指令必須加上「-u」參數,才能讓 nc 指令使用 udp 協定進行測試作業(如圖 12 所示)。

圖 12、確認所有 CVM 主機能和內部 NTP 時間校對伺服器進行溝通

請在 PE 管理介面中,依序點選「Settings > Network > NTP Servers」,將預設值「1.pool.ntp.org 和 0.pool.ntp.org」NTP 時間校對伺服器刪除,按下 Add 鈕新增內部「10.10.75.10」的 NTP 時間校對伺服器(如圖 13 所示)。

圖 13、組態設定叢集使用內部 NTP 時間校對伺服器

原則上,組態設定完成後,系統便會自動找內部 NTP 時間校對伺服器進行對時作業,倘若管理人員希望立即執行對時的動作,請執行「allssh "/usr/sbin/ntpdate -t 10 -q 10.10.75.10"」指令,立即和內部 NTP 時間校對伺服器進行時間校對作業,然後執行「allssh "date"」指令,確認 CVM 主機的時間校對情況,詳細資訊請參考 Nutanix KB4519 知識庫文章

此時,AHV 虛擬化平台仍為 UTC 時區,管理人員可以執行「hostssh "timedatectl set-timezone Asia/Taipei"」指令,將叢集中所有 AHV 虛擬化平台的時區,組態設定為 Asia/Taipei,然後執行「hostssh "timedatectl"」指令,確認時區組態設定是否套用生效。



變更 AHV 和 CVM 主機名稱

預設情況下,系統自動命名 AHV 主機名稱的格式為「NTNX-<block_serial>-<position-in-block>」,而 CVM 主機名稱則是建構於 AHV 主機名稱之上,會在 AHV 主機名稱結尾加上「-CVM」,以本文實作環境來講,第一台 AHV 主機名稱為「NTNX-da1a87c0-A」,而 CVM 主機名稱為「NTNX-da1a87c0-A-CVM」。

在變更 AHV 主機名稱的部份,請在 CVM 主機上,執行「change_ahv_hostname --host_ip="10.10.75.21" --host_name="NTNX-Node01-AHV"」指令,即可指定將本文實作環境中,第一台 AHV 主機名稱變更為「NTNX-Node01-AHV」,管理人員即可依據同樣的方式,變更叢集中其它台 AHV 主機名稱,變更完成後可以執行「hostssh "hostname"」指令,查看所有 AHV 主機名稱是否套用生效,或在 PE 管理介面中點選「Hardware」項目,即可看到叢集中所有 AHV 主機名稱(如圖 14 所示)。

圖 14、查看叢集中所有 AHV 主機名稱

至於變更 CVM 主機名稱的部份,必須遵照系統命名規則,開頭為「NTNX-」結尾為「-CVM」,請執行「sudo /usr/local/nutanix/cluster/bin/change_cvm_hostname NTNX-Node01-CVM」指令,系統會提醒必須重新啟動才能套用生效,按下 Y 鍵後便會重新啟動,重新啟動後可發現 CVM 主機名稱順利變更為「NTNX-Node01-CVM」,詳細資訊請參考 Nutanix KB3517 知識庫文章

然而,管理人員將會發現,雖然 SSH 登入後 CVM 主機名稱已經變更,但是在 AHV 虛擬化平台中,使用指令「virsh list」指令查看 CVM 主機資訊時,或是在 PE 管理介面中,看到的 CVM 主機名稱仍然是未變更前的舊名稱?(如圖 15 所示)

圖 15、在 PE 管理介面中,發現 CVM 主機仍使用未變更前的舊有主機名稱

此時,只要登入別台 CVM 主機,執行「change_cvm_display_name --cvm_ip="10.10.75.31" --cvm_name="NTNX-Node01-CVM"」指令,系統詢問必須重新啟動 CVM 主機才能套用生效,請按下 Y 鍵即可,當 CVM 主機重新啟動完成後,管理人員即可發現,在 AHV 虛擬化平台中查看 CVM 主機資訊時,或是在 PE 管理介面中看到的 CVM 主機名稱,便會是變更後的主機名稱(如圖 16 所示)。

圖 16、在 PE 管理介面中,順利看到變更後的 CVM 主機名稱



變更預設管理密碼

在預設環境下,雖然使用系統預設密碼仍然能正常運作,但是此舉容易導致企業和組織發生資安風險,所以在 PE 管理介面中,倘若管理人員未變更相關預設管理密碼時,那麼在 Critical Alerts 事件中,將會不斷提醒管理人員應該變更預設管理密碼(如圖 17 所示)。

圖 17、系統提醒管理人員應該變更預設管理密碼

那麼有哪些系統管理帳號和密碼,是官方建議變更以降低資安風險,下列將條列系統相關的管理帳號和建議變更預設密碼,詳細資訊請參考 Nutanix KB6153 知識庫文章
  • Nutanix Controller VM(CVM):建議變更本機「nutanix」管理帳號的預設密碼。
  • Hypervisor :採用 AHV 虛擬化平台時,建議變更本機「root,admin,nutanix」管理帳號的預設密碼,採用 ESXi 虛擬化平台時,建議變更「root」預設密碼,採用 Hyper-V 虛擬化平台時,建議變更「administrator」預設密碼。
  • Prism Central :建議變更 Prism GUI 的「admin」帳號預設管理密碼,以及本機「nutanix」管理帳號的預設密碼。
  • Out-of-Band Management(IPMI):建議變更遠端管理「ADMIN」帳號預設管理密碼。
  • File Server VMs(FSVMs):建議變更本機「nutanix」管理帳號的預設密碼。

那麼多的系統預設管理帳號和密碼,應該如何一次性且快速的進行檢查 ?管理人員可以透過 ncc 指令,搭配「default_password_check,pc_default_password_check,file_server_default_password_check」參數,即可進行快速檢查作業。

舉例來說,管理人員可以在任一 CVM 主機上,執行「ncc health_checks system_checks default_password_check」指令,即可檢查系統中包含 CVM 的管理帳號是否採用預設密碼,系統將會檢查「/etc/shadown」檔案內容,比對並確認是否採用預設密碼。習慣圖形介面操作的管理人員,可以在 PE 管理介面中,依序點選「Health > Actions > Run NCC Checks > All Checks > Run」即可。

那麼該如何快速變更這些系統管理帳號的預設密碼呢 ? 首先,在變更 CVM 本機 nutanix 管理帳號密碼的部份,只要登入其中一台 CVM 管理主機,並且執行「sudo passwd nutanix」指令,在系統提示後鍵入二次新的密碼,那麼叢集中所有的 CVM 主機將會自動同步並採用新的密碼。

在變更 AHV 虛擬化平台中,本機「root,admin,nutanix」管理帳號的預設密碼的部份,官方也提供相關 Script 進行處理,舉例來說,變更「root」密碼時,請在任一台 CVM 管理主機中,執行「echo -e "CHANGING ALL AHV HOST ROOT PASSWORDS.\nPlease input new password: "; read -rs password1; echo "Confirm new password: "; read -rs password2; if [ "$password1" == "$password2" ]; then for host in $(hostips); do echo Host $host; echo $password1 | ssh root@$host "passwd --stdin root"; done; else echo "The passwords do not match"; fi」指令(如圖 18 所示),即可一次變更叢集中所有 AHV 虛擬化平台中本機 root 帳號的預設密碼。

圖 18、一次變更叢集中所有 AHV 虛擬化平台中本機 root 帳號的預設密碼

至於 PE 管理介面 admin 帳號管理密碼的部份,只要登入後依序點選右上角的「admin > Change Password」,然後填入目前的密碼以及二次新的密碼後,按下 Save 鈕即可。倘若,管理人員忘記 admin 帳號的管理密碼,或是密碼錯誤次數太多導致帳號被鎖定時,只要在任一台 CVM 主機中,執行「ncli user reset-password user-name="admin" password="YOUR-NEW-PASSWORD"」指令,即可重設 admin 帳號的管理密碼並解除鎖定狀態。

確認變更所有管理帳號的預設密碼後,請再次執行 ncc 檢查指令,或是在 PE 管理介面再次執行檢查作業,一旦通過檢查作業後,便可以在 PE 管理介面的 Health 健康狀態區塊中,看到顯示為綠色 GOOD 圖示,且原先在 Critical Alerts 區塊中,出現的警告事件也會消失(如圖 19 所示)。

圖 19、PE 管理介面顯示 Nutanix 叢集恢復至健康狀態



PE 外觀設定

在 PE 管理介面外觀組態設定的部份,只要登入後依序點選「Settings > Appearance」即可。首先,在 PE 管理介面操作語系的部份,預設使用 English,並額外支援「簡體中文、日語、韓語」等語系,在 UI Settings 頁面中,可以選擇佈景主題格式,以及組態設定閒置時預設登出時間,值得注意的是,admin 管理帳號的閒置登出時間最大僅能設定「1 hour」(如圖 20 所示),即便設定更久時間仍是無效的,最後在 Welcome Banner 頁面中,企業和組織可以根據需求將歡迎訊息以 HTML 格式貼上,並勾選「Enable Banner」選項後存檔離開即可。

圖 20、組態設定 PE 管理介面預設閒置操作登出時間





結語

透過本文的深入剖析和實戰演練後,企業和組織即便在沒有專屬的 Nutanix 硬體伺服器情況下,也能透過巢狀式虛擬化技術,輕鬆建構出 Nutanix 多節點叢集基礎架構,後續也將和讀者分享部署 Nutanix 管理平台 Prism Central(PC)的最佳作法。

AHV Networking Best Practices - Part 3 | Nutanix

$
0
0


前言

本文為閱讀 Best Practices - Nutanix AHV Networking | Nutanix文件後,整理的個人重點心得。在本文中,官方文件有提到,請優先使用 GUI 進行操作,除非 GUI 不支援才使用 CLI 指令操作。



VLANs for AHV Hosts and CVMs

Nutanix 建議,倘若可行,請將 AHVCVM放在「Untagged VLAN」(或稱 Native VLAN) 環境中,所以 AHV 和 CVM 都無須額外設定。在實體交換器的部份,則是用 802.1Q VLAN Tags 處理和隔離 VM 虛擬主機網路。

圖、Default Untagged VLAN for CVM and AHV Host 網路環境示意圖

然而,實務上是比較難的,而且處於 Untagged VLAN 網路環境的 AHV 和 CVM 主機,有可能會受到其它干擾。所以,實務上,通常也會針對 AHV 和 CVM 主機設定使用 VLAN,但是記得 AHV 和 CVM 必須處於同一個 VLAN

圖、Tagged VLAN for CVM and AHV Host 網路環境示意圖




VLAN for Guest VMs

預設情況下,VM 虛擬主機會使用 VM Network,而在 Prism 管理介面中,預設的 br0 和 vs0 便是 VM Network。所以,運作環境有多個 br 和 vs 時,可以調整 VM 虛擬主機要使用的 br 和 vs。

在 AHV 主機上運作的 VM 虛擬主機網卡,支援下列三種模式
  • Access:預設值,實體交換器已經處理好 VLAN 的部份,所以 VM 虛擬主機無須處理 VLAN Tag。
  • Trunked: 當 VM 虛擬主機需要自行處理 VLAN Tag 時,必須組態設定使用此模式,但僅能在 aCLI 操作,Prism 尚未支援組態設定此部份。
  • Direct: 讓 VM 虛擬主機網卡直接連到 brX然後 bypass Bridge Chain,除非這個建議來自 Nutanix Support,否則不要使用此模式。



MAC Address Management Best Practices

預設情況下,由 AHV 建立的 VM 虛擬主機網卡 MAC Address,將會以「50:6B:8D」開頭。但是,當企業和組織規模需要建立「多個」Nutanix Cluster 時,Nutanix 不保證多個叢集之間的 VM 虛擬主機,都能得到唯一的 MAC Address。

因此,從 Nutanix AOS 6.7版本開始,倘若企業和組織是多個 Nutanix Cluster 環境,並且需要 VM 虛擬主機有唯一 MAC Address 時,可以在部署 VM 虛擬主機時,使用自訂功能定義 MAC Address Prefixed。詳細資訊請參考 AHV 6.8 - MAC Address Prefix (nutanix.com) 文件內容。



Jumbo Frame

管理人員可以在 AHV 主機的網卡上啟用 Jumbo Frame (MTU of 9,000 bytes)。但是,Nutanix 不支援將 CVM 網路介面的 MTU 配置更高的數值,也就是說 CVM  只能使用標準的 MTU of 1,500 bytes






AHV Networking Best Practices

AOS Storage - Data Structure | Nutanix

$
0
0


簡介

本文為閱讀 AOS Storage | The Nutanix Cloud Bible文章中,針對 Data Structure 章節的重點整理,詳細資訊請參考 AOS Storage | The Nutanix Cloud Bible 文章。在開始之前,可以先看一下 Data Layout in Nutanix AOS影片了解 AOS Storage 整體運作概念:






How AOS Storage works

相信認識 Nutanix AOS 一定程度的朋友,肯定知道基本的運作概念,便是每台 Nutanix Node 節點主機,會將底層的儲存裝置交給 CVM 掌管,整合儲存資源的 Nutanix Cluster,搭配多台 CVM/AOS 進行儲存資源的調度和使用。






AOS Data Structure

Nutanix AOS Storage 運作元件中 High-Level組成如下:
  • Storage Pool: Group of physical devices,每台 Nutanix Node 包含 PCIe SSD, SSD, and HDD 儲存裝置,多台 Nutanix Node 組成 Nutanix Cluster,整合所有儲存裝置的儲存資源便是 Storage Pool,並且隨著 Scale-Out 擴充 Nutanix Node 時,Storage Pool 儲存資源也隨之提升。
  • Container: Group of VMs/files,由 Storage Pool 切出來的邏輯分段便是 Container,這個 Storage Container 中包含 VMs 虛擬主機或 vDisk 虛擬磁碟。
  • vDisk: VM hard disks,由 vBlocks 切出來的邏輯元件,在 AOS 中只要超過 512KB大小的檔案便是 vDisk,然後透過 Block Map 機制對應至底層的 vBlocks。原則上,在 AOS/Stargate 中的 vDisk 沒有限制大小,從 AOS 4.6 版本開始,vDisk size 支援至 64bit,這表示 vDisk 虛擬磁碟最大支援至 2^63-1 or 9E18(9 Exabytes)

圖、High-level Filesystem Breakdown

Nutanix AOS Storage 運作元件中 Low-Level 組成如下:
  • vBlock: 1 MB chunk of vDisk address space,多個 vBlock 組成 vDisk,每個 vBlock 就是大小為 1 MB 的資料區塊。舉例來說,一個 100MB 的 vDisk,等於 1MB vBlock x 100,其中 vBlock 0 對應 0-1MB,而 vBlock 1 對應 1-2MB,而 vBlocks map 對應至 Extents,然後再對應至 Extent Group。
  • Extent: Logically contiguous data,為 1 MB的邏輯連續資料,由 n 個連續 Blocks 組成,取決於 Guest OS 的檔案系統資料區塊大小而定,考慮資料大小的顆粒度和效率,所以會在 Slice 層級進行資料的 Written/Read/Modified作業。
  • Extent Group: Physically contiguous stored data,為 1 MB 或 4 MB 的實體連續資料,會以檔案的型式儲存在 CVM 掌管的儲存裝置中,並且 Extent 會以動態分佈的方式在 Extent Group 中,以達到跨 Node 和 Data Striping 的目的以提升儲存效能。值得注意的是,從 AOS 4.0 版本後,採用 1 MB 或 4 MB 取決於是否啟用 Dedeplication 功能。
圖、Low-level Filesystem Breakdown

圖、Graphical Filesystem Breakdown

在下列影片中,有說明 Extent 和 Extent Group 的部份,可以幫助更了解這二個底層元件:


Deploying GKE Autopilot Clusters | Task2

$
0
0


簡介

在上一篇 Deploying GKE Autopilot Clusters | Overview文章中,相信已經了解整個 GKE(Google Kubernetes Engine) 技術的演進歷史。在本文中,將會透過 Google Cloud Console 部署 GKE Autopilot Clusters。

圖、GKE Autopilot 運作架構示意圖
















Deploying GKE Autopilot Clusters 系列文章



DevOpsDays Tokyo 2024 | 站長開講 (更新: 簡報上傳)

$
0
0


活動簡介

DevOpsDays は世界中で開催されているカンファレンスです。ソフトウェア開発、ITインフラ運用、そしてその境界線上にあるトピックをカバーし、特に DevOps を実現するための自動化、テスト、セキュリティ、組織文化にフォーカスします。

IT 技術を駆使して変化に強いビジネスインフラを実現するスキルを身に着けるために、国内外の最先端の事例とプラクティスを結集します。海外から第一人者を直接招き、ここでしか手に入らない最新情報をリアルタイムで入手出来ます。 

最先端のテクノロジの活用法はもちろん、先進企業で必要とされてきた背景までも理解し、正しく組織内に展開するための洗練された知見を得られます。

このイベントが日本のみならず、世界の DevOps プラクティスを共有できる、意義のあるイベントになれるよう、願っております。
 




活動資訊

日期:   2024 年 4 月 16、17 日
時間:   09:30 - 18:00
報名:   報名購票
議程:   大會議程表
講者:   講者陣容










站長議程

很榮幸,今年能夠實體參加 DevOpsDays Tokyo 2024 大會,並且在會議中分享 GitOps 議題。


下列為站長當天將分享的議題「GitOps - Add an automation engine to your IaC platform」和簡報內容。


Deploying GKE Autopilot Clusters | Task2

$
0
0


簡介

在上一篇 Deploying GKE Autopilot Clusters | Overview文章中,相信已經了解整個 GKE(Google Kubernetes Engine) 技術的演進歷史。在本文中,將會部署範例工作負載至 GKE Autopilot Clusters。

圖、GKE Autopilot 運作架構示意圖



Task 2. Deploy a sample workload

在這個工作任務中,我們將會使用 Google Cloud Console,部署一個執行 Nginx 網頁伺服器的 Pod 作為範例工作負載。 請在 Google Cloud Console 管理介面中,依序點選「Navigation menu > Kubernetes Engine > Workloads > Create deployment」。


在 Create a deployment 視窗中,選擇 Existing container image選項,採用預設的容器映像檔 nginx:latest 即可,屆時系統會透過該映像檔部署三個 Pod,每一個 Pod 都會運作最新版本的 nginx 容器。


確認後,其它組態設定則採用預設值即可,將畫面捲動到視窗底部並點擊 Deploy 按鈕,開始進行部署 Nginx 容器的動作。


部署完成後,只要重新整理頁面,即可看到部署完成的 Nginx 容器詳細資訊。







Deploying GKE Autopilot Clusters 系列文章

透過 RDU 升級 vCenter 縮短停機時間讓營運如常 | 網管人 222 期

$
0
0


網管人雜誌

本文刊載於 網管人雜誌第 222 期 - 2024 年 7 月 1 日出刊,NetAdmin 網管人雜誌為一本介紹 Trend Learning 趨勢觀念、Solution Learning 解決方案、Technology Learning 技術應用的雜誌,下列筆記為本站投稿網管人雜誌獲得刊登的文章,網管人雜誌於每月份 1 日出刊您可於各大書店中看到它,或透過城邦出版人讀者服務網進行訂閱。





本文目錄






前言

在 VMware vSphere 虛擬化架構中,vCenter Server 管理平台的重要性不言而喻,無論是管理 VM 虛擬主機和容器等工作負載,或是組態設定 vNetwork 虛擬網路和 vStorage 儲存資源,甚至是 vSphere vMotion 線上遷移工作負載和 vSphere HA 高可用性機制……等,都必須依靠 vCenter Server 管理平台才能達成。

然而,只要是軟體產品,便需要定期執行臭蟲修正和版本更新或版本升級的動作。在過去的 vCenter 版本中,每當 vCenter 管理平台必須執行重大安全性更新或版本升級時,在版本更新或升級過程中,都必須要部署新版本 vCenter 主機、停止舊版本 vCenter 主機內的系統服務、安裝安全性更新、安裝 Binary 檔案、匯出 / 匯入資料、執行自動化腳本、關閉舊版本 vCenter 主機、啟動新版本 vCenter 系統服務、新版本 vCenter 正式接手服務……等動作。

這樣的版本更新或升級流程中,除了部署新版本目的端 vCenter 管理平台時,不會產生「停機時間」(Downtime)之外,其餘的工作流程都將導致 vCenter 管理平台產生停機時間,增加企業和組織持續營運的風險。

因此,從 vSphere 7 Update3 版本開始,VMware 官方開始將用於 VMC on AWS 公有雲環境中,版本更新和升級機制嘗試落地,也就是由 Project Arctic 專案所演化而來的 API-Driven 技術,套用至企業和組織的地端資料中心內,推出 vCenter Server Reduced Downtime Upgrade(RDU)特色功能,讓 vCenter 管理平台,在執行安全性更新或版本升級時,能夠將停機時間最大化縮短,在最新的 vSphere 8 Update 2 版本中,甚至能將版本更新或升級作業程序的停機時間限縮在 5 分鐘之內。





vCenter RDU 運作架構

RDU 運作機制

那麼新版 RDU 運作機制,如何改善過往版本更新或升級的工作流程,有效降低 vCenter 管理平台停機時間呢? 首先,在階段 1 工作程序時,系統將會基於管理人員掛載的新版本 vCenter ISO 映像檔,建立和部署新版本 vCenter 虛擬主機並 Power On 開機(如圖 1 所示)。

圖 1、vCenter RDU 更新升級版本工作流程 - 階段 1

當系統順利部署新版本 vCenter 虛擬主機並開機完成後,便會進入階段 2 工作程序,系統將會自動為舊版本 vCenter 管理平台,開啟 SSH Service(Port 22)之後,傳送現有 vCenter 資料庫和相關組態設定檔至新版本 vCenter 主機內(如圖 2 所示)。

圖 2、vCenter RDU 更新升級版本工作流程 - 階段 2

當資料傳輸作業完成並且通過系統檢查程序後,將會進入階段 3 工作程序,系統顯示「切換」(Switchover)鈕可以執行。請注意,更新升級版本工作流程至此都未發生任何停機時間,只有當管理人員按下切換鈕,並且新版本 vCenter 主機接手完成的這段期間(通常在 5 分鐘內),才會發生停機時間(如圖 3 所示)。

圖 3、vCenter RDU 更新升級版本工作流程 - 階段 3

一旦新版本 vCenter 主機接手完成後,正式取代舊版本 vCenter 的 FQDN 及 IP 位址……等,此時便進入階段 4 工作程序,系統將會自動將舊版本 vCenter 主機關機,並且清除過程中產生的暫存資料(如圖 4 所示)。值得注意的是,在 RDU 版本更新升級機制的幫助下,確實能有效避免 vCenter 管理平台,在執行版本更新或版本升級時可能導致系統損壞的情況,並有效減少過程中產生的停機時間,然而它並不能夠取代企業或組織原有的 vCenter 備份機制,這是管理人員最容易忽略的地方。

圖 4、vCenter RDU 更新升級版本工作流程 - 階段 4



RDU 更新升級流程

雲端環境的 vSphere+ 更新機制重點為「遷移」(Migration-Base),在版本更新或升級動作執行之前,預先部署新版本的 vCenter 管理平台,並將舊版本 vCenter 資料庫和組態設定等資料,傳輸複寫至新版本 vCenter 主機內,屆時只要進行新舊版本的 vCenter 管理平台切換作業即可。

然而,和過往版本更新升級工作流程最主要的差別在於,新舊版本 vCenter 管理平台之間,在 vCenter 資料庫和組態設定資料複寫期間,舊版本的 vCenter 管理平台仍然能夠正常運作,執行相關進階特色功能並管理虛擬化基礎架構,整個版本更新升級工作流程中,唯一會產生停機時間的部份,就是在 vCenter 資料庫和組態設定複寫程序完成後,管理人員正式觸發切換工作任務,將舊版本 vCenter 停止系統服務,由新版本 vCenter 接手後啟動系統服務的這段期間,原則上來說會在五分鐘之內完成,這和過往版本更新升級的停機時間相比減少許多。

新式 RDU 版本更新升級機制,如下所條列共有五個步驟(如圖 5 所示),管理人員也可以在實際操作期間,查看每個工作任務的執行進度:

1. 掛載 ISO 映像檔: 將準備部署新版本的 vCenter ISO 映像檔進行掛載。值得注意的是,這個 vCenter ISO 映像檔必須是完整的安裝 ISO 映像檔,而非僅是含有安全性更新或修補臭蟲的 ISO 映像檔。

2. 檢查備份: 系統將會進行檢查和確認,運作中的舊版本 vCenter 管理平台,是否已經執行過備份的工作任務,倘若發現 vCenter 管理平台未定期執行備份,或未包含最新的備份時,將會提醒管理人員必須執行備份工作任務後,再回到此頁面繼續版本更新升級流程。

3. 更新 LCM Plugin 外掛程式: 系統將會在舊版本 vCenter 管理平台中,更新 vCenter LCM 生命週期服務的 Plugin,以便後續部署新版本 vCenter 管理平台時,能夠在 LCM Plugin 方面保持一致,一旦 LCM Plugin 外掛程式更新完畢後,系統將會自動重新整理 vCenter 管理介面,管理人員可以輕易發現管理介面有些許不同。

4. 組態設定新的 vCenter: 針對部署的新版本 vCenter 主機進行組態設定作業,包括,vCenter 虛擬主機名稱、臨時的 root 管理帳號和密碼、臨時的 vNetwork 虛擬網路設定……等,管理人員可以選擇繼承舊版本 vCenter 原有的組態設定,也可以選擇自行變更組態設定內容。在預設情況下,部署的新版本 vCenter 主機,將會繼承舊版本 vCenter 主機中,FQDN、IP 位址、root 管理帳號密碼和網路身份驗證……等。

5. 升級與執行切換: 一旦部署的新版本 vCenter 主機複寫資料和組態設定完畢,並且兩台 vCenter 主機都保持正常運作狀態時,管理人員便能決定何時執行切換作業,原則上可以立即執行切換 vCenter 管理平台的工作任務,也可以排程設定一天後或一週後都可以。值得注意的是,切換期間原有 vCenter 停止服務,新部署的 vCenter 接手並啟動服務,通常還是未產生五分鐘之內的停機時間。

圖 5、RDU 版本更新或升級運作流程示意圖





實戰演練 – 透過新式 RDU 進行 vCenter 版本升級

由於,RDU 是全新自我管理的版本升級機制,所以並未支援舊版 vCenter 7 升級至新版 vCenter 8 。目前,支援從 vCenter 8.0 GA、8.0 U1、8.0 P02 升級至最新 8.0 U2 版本。在實戰演練小節,將使用 RDU 機制將舊版 vCenter 8.0(如圖 6 所示),升級至最新 vCenter 8.0 U2版本。

圖 6、準備透過新式 RDU 機制升級至最新 vCenter 8.0 U2 版本



掛載新版 vCenter ISO 映像檔

首先,將下載完成的最新版本 vCenter 8.0 U2 的 ISO 映像檔,上傳至 Datastore 儲存資源或 Content Library 當中,並組態設定掛載至舊版 vCenter 8.0 的 CD/DVD 光碟機即可。值得注意的是,掛載時記得勾選「Connected」和「Connect At Power On」選項(如圖 7 所示),這兩個選項比較常被管理人員忽略,導致看似掛載 ISO 映像檔成功卻無法使用的情況。

圖 7、掛載最新版本 vCenter 8.0 U2 的 ISO 映像檔



選擇採用的 vCenter 新版本

請在 vCenter 管理介面中,依序點選「vCenter Server > Updates > vCenter Server Update」,在 RDU Update 區塊中,可以看到 1. Target Version 項目,除了顯示現有 vCenter 版本資訊,以及 VAMI(vCenter Server Appliance Management Interface)資訊之外,請點選 Target version 欄位中的 Select Version 連結,在彈出視窗中將會顯示可更新升級的 vCenter 版本,建議選擇和剛才上傳的 ISO 映像檔相同版本,避免系統透過網際網路下載最新版本。

點選完畢後,系統將會自動執行來源預先檢查作業,一旦通過預先檢查作業後,管理人員應點選 Product Interoperability產品互通性頁籤,確保新版本的 vCenter 主機,和 ESXi 虛擬化平台之間的版本相容性,是否順利通過系統檢查和驗證作業(如圖 8 所示)。

圖 8、選擇升級新版 vCenter 並檢查產品相容性



vCenter 備份確認與檢查

在 2. Backup 項目中,系統再次提醒管理人員,在執行 vCenter 管理平台版本升級之前,請先再次確認是否執行相關備份作業,避免升級版本過程中,倘若發生非預期的錯誤導致 vCenter 管理平台無法正常運作時,可以透過最後一次的完整備份快速進行復原作業。



更新 vCenter LCM Plugin

在 3. Prepare source 項目中,系統提醒管理人員由於 vCenter 管理平台版本升級後,屆時將會連帶將 LCM(Life-Cycle Manager)一起進行版本升級,在此之前請先按下 Update Plugin,預先執行 LCM Plugin 更新作業,一旦 LCM Plugin 更新的工作任務完成後,系統將提醒管理人員重新整理瀏覽器,此時 vCenter 圖形管理介面,將會因為 LCM Plugin 更新後而有所改變(如圖 9 所示)。

圖 9、成功更新 LCM Plugin 之後,vCenter 管理介面重整後有些微變化

值得注意的是,倘若在更新 LCM Plugin 階段中,發生失敗產生「Update 8.0.2.00000 for component vlcm is not found.」錯誤訊息時,請參考 VMware KB94779 知識庫文章內容,下載「fix_rdu.sh」指令碼至 vCenter 管理平台,然後執行修正作業後再次嘗試更新 LCM Plugin。



組態設定新版本 vCenter

在 4. Target Appliance 項目中,將會組態設定新版 vCenter 管理平台環境,請按下 Configure Target Appliance 進行組態設定作業,事實上這個組態設定流程和部署 vCenter 管理平台非常相似。首先,在 1. License Agreement 使用者授權協議畫面中,請勾選「I accept…」選項後按下 Next 鈕進入下一個組態設定程序。

在 2. CEIP 頁面中,必須勾選「Join…」選項,確保後續 vSphere Health、Host Hardware Compatibility、vCenter Server Update Planner……等功能持續運作。在 3. Target Location 頁面中,管理人員可以選擇「Deploy in the same location as source」選項,將新版本的 vCenter 管理平台,跟現有舊版 vCenter 部署在一起,或是選擇「Deploy in the different location as source」選項,將新版本 vCenter 管理平台,部署至其它 ESXi 虛擬化平台中,並提供管理者帳號及密碼以利連線作業。

在 4. Deployment Type 頁面中,選擇「Same Configuration」選項時,屆時新版本 vCenter 管理平台,將完全套用舊有 vCenter 管理平台的所有組態設定,倘若管理人員需要調整新版本 vCenter 管理平台的組態設定,例如,提升 vCenter 管理平台的 Size 運作規模、調整 vCenter 存放在不同資料夾、調整 vCenter 存放在不同的 Datastore 儲存資源……等,請點選「Detailed Configuration」選項(如圖 10 所示)。

圖 10、針對新版本 vCenter 管理平台調整相關組態設定

在 5. Folder 頁面中,請選擇稍後部署的新版本 vCenter 管理平台,存放在 Datacenter 中的哪個資料夾內。在 6. Compute Resource 頁面中,選擇新版本 vCenter 運作在哪個 Cluster 叢集、Resource Pool 資源集區、ESXi 虛擬化平台中。在 7. VM Appliance details 頁面中,組態設定新版本 vCenter 的 VM 虛擬主機名稱,以及暫時的 root 管理密碼(如圖 11 所示),值得注意的是,VM 虛擬主機名稱需要避免使用「%,/,\」這 3 個字元,否則將會發生非預期的錯誤,至於 root 管理密碼的部份除了必須符合複雜性原則之外,密碼的總長度不能超過「20」個字元。

圖 11、組態設定新版本 vCenter 的 VM 虛擬主機名稱和 root 管理密碼

在 8. Deployment Size 頁面中,預設採用和舊版本 vCenter 一樣的 Size 運作規模,倘若企業和組織因為專案或營運規模成長,導致工作負載增加時,可以考慮在此時一併將 vCenter 管理平台的 Size 運作規模進行提升。值得注意的是,新版本的 vCenter Size 運作規模,只能與舊有 vCenter 相同或更大,並不支援小於舊有 vCenter 的 Size 運作規模(如圖 12 所示)。

圖 12、部署新版本的 vCenter Size 運作規模只能相同或更大,不支援縮小 Size 運作規模

在 9. Datastore 頁面中,預設情況下,系統會選擇存放在和舊有 vCenter 一樣的 Datastore 儲存資源,管理人員可以依照需求,選擇部署新版本 vCenter 採用不同的 Datastore 儲存資源。在 10. Network Settings 頁面中,請填入部署新版本 vCenter 的相關網路組態設定內容,例如,FQDN、IP 位址……等,值得注意的是,這裡的 FQDN 和 IP 位址都是暫時使用的用途。在 11. Review 頁面中,再次檢視相關組態設定是否正確無誤,確認無誤後按下 Finish 鈕即可(如圖 13 所示)。

圖 13、再次檢視新版本 vCenter 相關組態設定是否正確無誤



部署新版本 vCenter

回到 vCenter Update Planner 頁面中,在 5. Upgrade 項目中,系統說明至此為止,新版本 vCenter 的預先部署作業和組態設定已經完成,只要按下 Start Upgrade 便會立即執行,部署新版本 vCenter 和複寫資料的動作,並且只有在「Switchover」階段,才會發生停機時間,這時間通常僅幾分鐘時間。

一旦按下 Start Upgrade 鈕之後,從 vCenter 管理介面下方的工作項目清單中可以看到,系統開始自動部署新版本的 vCenter 虛擬主機,組態設定新版本 vCenter 虛擬主機後進行 Power On 開機的動作(如圖 14 所示),並接收舊有 vCenter 的必要資料,包括,vCenter 資料庫、組態設定、TLS/SSL 憑證……等,此時舊有的 vCenter 管理平台仍持續運作中不受任何影響。

圖 14、系統自動部署並組態設定新版本 vCenter 管理平台

倘若,在部署新版本 vCenter 管理平台時,發生部署失敗或升級新版本失敗的情況,管理人員也無須擔心,系統將會自動把新版本的 vCenter 虛擬主機斷電後刪除,整個系統環境自動恢復到原有的運作狀態。



切換至新版本 vCenter 管理平台

一旦新版本 vCenter 部署並組態設定完畢後,系統的「SWITCHOVER」鈕便轉變為可執行狀態(如圖 15 所示),確認執行切換的動作後,系統便會正式將舊版來源 vCenter 的組態設定,複寫套用至新版本 vCenter 管理平台中,並且相關系統服務也將正式啟動,以便回應管理人員的各項管理操作。

圖 15、系統準備完成管理者可選擇適當時機進行 vCenter 管理平台切換

值得注意的是,vCenter 管理平台的停機時間,便是在按下 Switchover 鈕,開始執行切換工作任務,系統在確保新舊 vCenter 管理平台的資料一致後,便會將舊有 vCenter 管理平台關機,新版本 vCenter 管理平台,開始接手舊有 vCenter 管理平台的 FQDN、IP 位址、TLS/SSL 憑證、啟動所有系統服務……等(如圖 16 所示)。

圖 16、開始執行切換作業讓新版本 vCenter 管理平台接手

完成接手程序後開始回應管理人員操作,一般來說整個切換流程大約五分鐘以內即可完成,在本文實作環境中,整個切換作業花費「3 分 45 秒」,新版本 vCenter 管理平台便順利接手完成(如圖 17 所示)。

圖 17、新版本 vCenter 管理平台順利接手完成

現在,管理人員可以採用相同的 vCenter FQDN 和管理帳號及密碼登入,可以看到除了 vCenter VM 虛擬主機的名稱改變,以利識別之外其餘不變(如圖 18 所示)。此外,建議管理人員應立即為新版本 vCenter 執行備份工作任務,並且將舊版 vCenter 虛擬主機的網路連接選項取消勾選後,轉換為 VM Template 避免不小心將舊版 vCenter 開機造成衝突的情況。

圖 18、新版本 vCenter 管理平台順利接手並回應管理人員的各項管理操作





結語

透過本文的深入剖析和實作演練後,企業和組織的管理人員,除了理解新式 RDU 版本升級的運作流程外,透過實戰演練讓管理人員,能夠輕鬆完成 vCenter 管理平台版本升級的工作任務。

GDG Cloud Taipei | 站長開講

$
0
0


活動簡介

企業和組織除了建構 DevOps 和 Agile 等文化思維環境外,提升工作效率的方式之一,便是將現有「手動/重複」的工作任務自動化,舉例來說,從 Ops 人員角度來看,組態設定伺服器 BIOS、網路交換器、路由器、IPMS、Windows 組態設定、Linux 組態設定……等,從 Dev 人員角度來看,部署 VM 虛擬主機、容器、應用程式……等,上述手動和重複的工作任務,都可以採用 IaC(Infrastructure as Code) 搭配 GitOps 機制,達到自動化完成各項工作任務的目標。
因此,Dev / Ops 管理人員,都可以透過建構 GitOps 機制,達到標準且一致化的組態設定、版本控制、追蹤組態設定更改記錄以方便還原、為應用程式提供穩定來源……等。

在本場議程中,將以 GitOps 自動化機制,實際展示建立 GKE Cluster、部署容器、以及管理容器化應用程式生命週期……等操作為例。

此外,建構的 CI/CD 不敢用於 Production 營運環境? 擔心 GitOps 太過自動化,而導致連鎖錯誤嗎? 本議程也將實際展示 Approval 審核機制,在執行 Workflow 自動化流程時,必須先經過指定人員的 Approval 審核後,才放行並開始執行自動化工作任務。





活動資訊

日期:   2024 年 7 月 25 日 (四)
時間:   19:00 - 21:00
報名:   報名連結





站長議程

很高興,有機會到 GDG Taipei 跟大家分享「Using GitOps with Google Kubernetes Engine (GKE)」議題,有興趣的朋友別錯過了。





Deploying GKE Autopilot Clusters | Task3

$
0
0


簡介

在上一篇 Deploying GKE Autopilot Clusters | Overview文章中,相信已經了解整個 GKE(Google Kubernetes Engine) 技術的演進歷史。在本文中,將會透過 Google Cloud Console 查看部署 Nginx 容器工作負載的詳細資訊。

圖、GKE Autopilot 運作架構示意圖



Task 3. View details about workloads in the Google Cloud Console

在這個工作任務中,將會在 Google Cloud Console 管理介面中,查詢 GKE 工作負載的詳細資訊。請在 Google Cloud Console 管理介面中,依序點選「Navigation menu > Kubernetes Engine > Workloads > nginx-1」項目,可以查看 nginx-1 容器工作負載的詳細資訊,例如,資源使用率圖表、日誌、Pod……等。


切換到 Details頁籤,可以看到更多容器工作負載的詳細信息,包括 Pod 規格、Pod 副本的數量和狀態,以及有關水平自動縮放 Pod 的詳細資訊。


切換到 Revision History頁籤,可以看到容器工作負載的歷史資訊。


切換到 Events頁籤,可以看到容器工作負載的事件資訊。


切換到 YAML頁籤,可以看到定義元件的完整 YAML 檔案內容,以及 Nginx 容器工作負載的完整組態設定內容。


回到 Overview頁籤,往下捲動頁面,可以看到 Managed pods資訊,點選後,也可以看到 Pod 的詳細資訊。







Deploying GKE Autopilot Clusters 系列文章



Free Cert Exam When You Train by August 30 | Nutanix

$
0
0


簡介

Nutanix University在每一年,都有這個完成相關線上課程,即可取得免費考試卷的機會。今年時機出現了,只要在 2024 年 8 月 30 日以前,完成相關線上課程,即可取得相應的免費考試卷,有興趣取得 Nutanix 認證的朋友,可以參考看看。
在 Nutanix 認證架構中共有四個等級,分別是 Associate, Professional, Master, Expert,這次開放 Associate 和 Professional 相關課程和考試卷。






注意事項






線上課程和免費考試卷

Associate Level

完成 Nutanix Hybrid Cloud Fundamentals (NHCF) 線上課程,學習 Nutanix 基礎概念、Prism Central、Cluster 基礎管理等知識,並通過考試即可取得 Nutanix Certification Associate(NCA)證照。



Professional Level

完成 Enterprise Cloud Administration(ECA)線上課程,學習 Prism Central 管理和維護 Nutanix Cluster 環境等知識,並通過考試即可取得 Nutanix Certified Professional - Multicloud Infrastructure(NCP-MCI)證照。


完成 Nutanix Cloud Clusters on AWS Administration(NC2A-AWS)線上課程,學習如何部署、管理、將 On-Prem 連接至 AWS Cloud Cluster 等知識,並通過考試即可取得 Nutanix Certified Professional - Cloud Integration - AWS(NCP-CI-AWS) 6.7證照。


完成 Nutanix Cloud Clusters on Azure Administration(NC2A-Azure)線上課程,學習如何部署、管理、將 On-Prem 連接至 Azure Cloud Cluster 等知識,並通過考試即可取得Nutanix Certified Professional - Cloud Integration - Azure(NCP-CI-Azure) 6.7證照。


完成 Nutanix Unified Storage Administration(NUSA)線上課程,學習安裝、設定、管理、升級 Nutanix Unified Storage(NUS) 等知識,並通過考試即可取得 Nutanix Certified Professional - Unified Storage(NCP-US)證照。


完成 Nutanix Database Management & Automation(NDMA)線上課程,學習安裝、設定、操作 Nutanix Database Service(NDB)等知識,並通過考試即可取得 Nutanix Certified Professional - Database Automation(NCP-DB)證照。


完成 Nutanix Multicloud Automation Administration(NMCAA)線上課程,學習安裝、設定、操作、管理 X-PlayNutanix Cloud Manager(NCM)自助式服務等知識,並通過考試即可取得 Nutanix Certified Professional - Multicloud Automation(NCP-MCA)證照。


完成 Nutanix End User Computing Administration(NEUCA)線上課程,學習規劃、安裝、設定、管理 End-User Computing(EUC)等知識,並通過考試即可取得 Nutanix Certified Professional - End User Computing(NCP-EUC)證照。

Deploying GKE Autopilot Clusters | Export Port

$
0
0


簡介

在上一篇 Deploying GKE Autopilot Clusters | Overview文章中,相信已經了解整個 GKE(Google Kubernetes Engine) 技術的演進歷史。在本文中,將會透過 Google Cloud Console 為部署的 Nginx 容器,建立 Expose 讓網際網路能夠存取 Nginx 容器提供的網頁服務。

圖、GKE Autopilot 運作架構示意圖



為 Nginx 容器建立 Expose Port

其實,在官方的實作練習文件中並沒有這個部份,不過環境已運作起來了,也可以任意玩玩。現在,我們可以透過 Google Cloud Console 管理介面,輕鬆組態設定和體會 GKE 管理容器工作負載的便利,舉例來說,當 Nginx 容器工作負載順利運作後,如何讓網際網路存取 Nginx 網頁服務? 請在 Google Cloud Console 管理介面中,依序點選「Kubernetes Engine > Workloads > nginx-1 > Expose」項目。


在 Port mapping 頁面中,採用預設的 Port 80、Protocol TCP、Service type 是 Load balancer……等,確認無誤後按下 Expose 鈕。


確認針對 nginx-1 容器建立的 Expose 服務是否完成。


現在,已經可以從網際網路,順利存取 nginx 容器提供的網頁服務。






Deploying GKE Autopilot Clusters 系列文章

COSCUP 2024 | 站長開講

$
0
0


活動簡介

COSCUP是由台灣開放原始碼社群聯合推動的年度研討會,起源於 2006 年,是台灣自由軟體運動 (FOSSM) 重要的推動者之一。活動包括有講座、攤位、社團同樂會等,除了邀請國際的重量級演講者之外,台灣本土的自由軟體推動者也經常在此發表演說,會議的發起人、工作人員與講者都是志願參與的志工。

COSCUP 的宗旨在於提供一個聯結開放原始碼開發者、使用者與推廣者的平台。希望藉由每年一度的研討會,來推動自由及開放原始碼軟體 (FLOSS)。由於有許多贊助商及熱心捐助者,所有議程都是免費參加。

開放原始碼 (Open source) 是在 1998 年出現的名詞,大家早已耳熟能詳。這種在網路上已經進行二、三十年的軟體開發模式之所以能成功,有許多原因。其中一個極為關鍵的因素,就是開發者與使用者的直接接觸。無屏障的交流加速了問題的回報和修補機制,而當這個機制被網路效應放大到極限時,Linus 定律就出現了:「臭蟲難逃眾人法眼」(With enough eyeballs, all bugs are shallow),軟體品質因此顯著提昇。在開放原始碼的模式中,開發者和使用者中間的人不再是銷售員或客服,而是讓軟體更容易被接受的推廣者 (Promoters),他們打包套件讓軟體更好裝、寫說明文件讓軟體更易學、辦推廣活動讓更多人接觸到好軟體、在網路上回答問題解決使用者的疑惑,而且不會把開發者藏在背後產生資訊的不對稱。

開發者 (Coders)、使用者 (Users) 和推廣者 (Promoters) 是讓自由及開放原始碼軟體發光發熱的三大支柱,這個研討會就是專為這三種人舉辦的:你可以是 A 軟體的開發者、B 軟體的推廣者、C 軟體的使用者,不論你是已經踏入自由及開放原始碼軟體領域,還是一直站在門口不知如何入門,歡迎你來參加 COSCUP — Conference for Open Source Coders, Users and Promoters!





活動資訊

日期:   2024 年 8 月 3 - 4 日 (六 - 日)
時間:   09:00 - 17:00
議程:   大會議程表






站長議程

在本次大會中,站長有一場 30 分鐘的「LLM 初體驗 - Running Google Gemma Locally」議程,,詳細資訊請參考大會網站。


Hello World Dev Conference | 站長開講

$
0
0


活動簡介

Hello World Dev Conference希望打造一個軟體開發工作者可以橫向與縱向交流的場域,本年度特別策展 8 大面向會議,包含了: Agile Summit、DevAI Summit、DevLead Summit、DevOps Summit、DevSec Summit、Enterprise Summit、ModernWeb Summit、DevTalk。

透過技術、流程、營運、組織等各種向量的經驗交流,創造最豐富的技術增幅效果。歡迎各界的開發者與技術領導者來此發聲與交流,一起讓HelloWorld Dev Conference 成為開發人員探索未來的重要所在。





活動資訊

日期:   2024 年 9 月 11 - 13 日 (三 - 五)
時間:   09:00 - 17:00
議程:   大會議程表
報名:   報名購票






站長議程

在本次大會中,站長有二場 90 分鐘的「從 DevOps 到 SRE,從 IaC 到 GitOps」體驗工作坊,詳細資訊請參考大會網站。


Viewing all 591 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>