VxRail – Instalacja

Po wstępie teoretycznym przyszedł czas na uruchomienie pierwszego klastra VxRAIL.Testowany model to VxRAIL 120 wersji 3.5 (vSphere 6.0 update 2), bazujący na czterech serwerach firmy Quanta zamkniętych w jednej obudowie wysokości 2 RU. W skład pojedynczego serwera wchodzą:

  • dwa procesory Intel Xenon E5-2620 v3 2,4GHz
  • 192G RAM
  • jeden dysk SSD 400GB
  • trzy dyski HDD 1,2TB
  • dwa porty sieciowe 10Gb
  • jeden port IPMI do zarządzania serwerem
  • port VGA
  • dwa porty USB

Dodatkowo w ramach wspólnej obudowy znajdują się dwa zasilacze. Dostęp do interfejsów serwerów jest realizowany od tyłu, od przodu natomiast obudowa w całości jest wypełniona dyskami.

Rysunek 1 Widok tyłu obudowy. Z lewej strony zdjęcia, w centralnej części obudowy znajdują się zasilacze, na prawo od nich zauważyć można dwa węzły obliczeniowe.

Rysunek 1 Widok tyłu obudowy. Z lewej strony zdjęcia, w centralnej części obudowy znajdują się zasilacze, na prawo od nich zauważyć można dwa węzły obliczeniowe.

Warto zauważyć, że obudowa testowanego systemu pozwala na wykorzystanie sześciu dysków na serwer, zainstalowane jest tylko cztery. W razie konieczności zwiększenie rozmiaru przestrzeni dyskowej w klastrze, wystarczy zamontować kolejne dyski.

Rysunek 2 Widok obudowy po zdjęciu przedniej osłony. Łatwo można dostrzec cztery sekcje po sześć dysków na każdy węzeł (cztery zainstalowane obecność których jest sygnalizowana diodami, oraz dwa wolne sloty).

Rysunek 2 Widok obudowy po zdjęciu przedniej osłony. Łatwo można dostrzec cztery sekcje po sześć dysków na każdy węzeł (cztery zainstalowane obecność których jest sygnalizowana diodami, oraz dwa wolne sloty).

Po instalacja i okablowaniu możemy przejść do konfiguracji klastra. Wirtualna maszyna VxRAIL manager domyślnie uruchamia się z adresem statycznym 192.168.10.100, a hosty ESXi oraz interfejsy zarządzania konfigurują się z serwera DHCP. Należy zatem przygotować serwer DHCP (najwygodniej aby przydzielał on adresy z podsieci 192.168.10.0/24). Warto także wspomnieć, że hosty ESXi w domyślnej konfiguracji dostępne są na nietagowanym VLANie (management). Na przełącznikach sieciowych do których podłączone są węzły klastra warto przygotować dwa VLANy do celów ruchu klastra VSAN, oraz ruchu vMotion.

Rysunek 3 Rekomendowana, wysokodostępna topologia sieciowa, zapewniające dostępność środowiska w sytuacji awarii jednego z przełączników sieciowych

Rysunek 3 Rekomendowana, wysokodostępna topologia sieciowa, zapewniające dostępność środowiska w sytuacji awarii jednego z przełączników sieciowych

Po zakończonej konfiguracji sieciowej i włączeniu wszystkich hostów wezłów, należy podłączyć komputer administratora do VLANu zarządzającego hostów ESXi, komputer powinien się także skonfigurować z przygotowanego wcześniej serwera DHCP.

W kolejnym kroku uruchamiamy przeglądarkę i możemy rozpocząć konfigurację klastra.

Rysunek 4 Ekran powitalny, rozpoczynający konfigurację klastra

Rysunek 4 Ekran powitalny, rozpoczynający konfigurację klastra

Następnie należy zaakceptować licencję, oraz wybrać instalację typu „krok po kroku”, gdyż nie ma jeszcze przygotowanego pliku konfiguracyjnego.

Rozpoczyna się seria ekranów konfiguracyjnych gdzie podajemy wszelkie niezbędne parametry konfiguracyjne (rys 5).

Rysunek 5 Pierwszy z zestawu ekranów konfiguracyjnych środowiska

Rysunek 5 Pierwszy z zestawu ekranów konfiguracyjnych środowiska

Bardzo istotny jest adres serwera DNS, jeśli nie zostanie on zdefiniowany, wówczas serwer DNS zostanie uruchomiony na serwerze vCenter. Jest to bardzo istotny szczegół, którego świadomość pozwoli zrozumieć późniejsze działanie środowiska. Jeśli zrezygnujemy z zewnętrznego serwera DNS, komputer administratora należy skonfigurować aby korzystał z serwera DNS na vCenter, pozwoli to uniknąć kilku problemów w pracy ze środowiskiem.

W kolejnym kroku (rys 6), definiujemy podstawowe parametry klastra: adresy ip, nazwy hostów pozostałych serwerów.

Rysunek 6 Konfiguracje parametrów zarządzania klastrem

Rysunek 6 Konfiguracje parametrów zarządzania klastrem

Bardzo istotne jest, że w tym kroku można zdecydować o wykorzystaniu istniejącego już w środowisku, serwera vCenter.

W kolejnych krokach definiujemy adresacje i numery VLAN dla sieci vMotion, vSAN, oraz VM Network. W ostatnim kroku w którym należy podjąć jakąś decyzję jest sposób logowania w środowisku. Jeśli nie mamy już wdrożonego jakiegoś rozwiązania można się zdecydować na vRealize Log Insight. Szkoda jednak, że dostawca rozwiązania nie dał możliwości uruchomienia monitorowania środowiska w postaci vRealize Operations. Oczywiście jest możliwe uruchomienie wspomnianego rozwiązania już po uruchomieniu całego środowiska, wymaga to jednak dodatkowego czasu, którego producent nie chciał nam zaoszczędzić.

Po wprowadzeniu wszystkich danych następuje ich walidacja, gdy sprawdzenie jest pozytywne istnieje możliwość pobrania pliku konfiguracyjnego, który można wykorzystać przy kolejnych konfiguracjach (rys. 7)

Rysunek 7 Ostatni krok przed rozpoczęciem konfiguracji klastra.

Rysunek 7 Ostatni krok przed rozpoczęciem konfiguracji klastra.

Po wybraniu opcji zbudowania klastra rozpoczyna się około 30 minutowa operacja, po zakończeniu której środowisko jest gotowe do pracy.

Rysunek 8 Podgląd procesu konfiguracje nowego klastra

Rysunek 8 Podgląd procesu konfiguracje nowego klastra

Rysunek 9 Informacja o zakończeniu konfiguracji

Rysunek 9 Informacja o zakończeniu konfiguracji

Po zakończonym procesie można się logować do VxRail Managera jak i do vCenter, z poziomu którego zarządzamy całym klastrem vSAN.

Cały proces instalacji jest maksymalnie uproszczony i nie nastręcza większych problemów. Pewną niedogodnością jest konieczność posiadania serwera DHCP, jednak jego uruchomienie pozwala zaoszczędzić wiele czasu, który trzeba by było poświęcić na ręczne konfiguracje każdego hosta. Bardzo ciekawa jest natomiast możliwość uniezależnienia się od serwera DNS, co w małych lub testowych środowiskach jest bardzo wygodne i oszczędza część prac konfiguracyjnych. Czas wdrożenia nowego klastra został skrócony do minimum, praktycznie eliminując wszelkie błędy które można by popełnić podczas konfiguracji całego środowiska ręcznie – pozwala to szybko i sprawnie oddać do użytku nowe zasoby obliczeniowe oraz przestrzeń na dane. Późniejsza rozbudowa też nie powinna nastręczyć problemów.