W dzisiejszym artykule przyjrzymy się procesowi instalacji klastra, w sytuacji nowego wdrożenia, jak i zapoznamy się z procedurą dodawania nowych węzłów do istniejącego klastra. Zapoznamy się z interfejsem HyperFlex Connect oraz integracją rozwiązania z konsolą udostępnianą przez vCenter. Przyjrzymy się również jak rozwiązanie reaguje na awarie pojedynczych komponentów, jak i kilku jednocześnie. Uruchomimy także obciążenia, by zaobserwować jak rozkładają się one na poszczególne komponenty.

Zapoznawszy się z ideą hiperkonwergencji oraz jej implementacją w postaci produktu Cisco HyperFlex, przyjrzymy się, jak rozwiązanie to sprawuje się w praktyce.

Wszystkie testy wykonywaliśmy na platformie hybrydowej, a część mieliśmy okazję powtórzyć na klastrze all flash. Platforma sprzętowa zbudowana była z czterech serwerów Cisco HX240c M4SX, dwóch przełączników Fabric Interconnect z portami 10GbE, podłączonych do przełączników sieciowych  portami 1 GbE (topologia zgodna z rys. 2 z artykułu #2).

Pojedyncze serwery składały się z:

  • dwóch procesorów Intel E5-2690 (14 rdzeni obliczeniowych),
  • 512 GB RAM,
  • dysku SSD 480 GB,
  • sześciu dysków HDD 1,2 TB,
  • dwóch połączeń 10GbE prowadzących do dwóch urządzeń Fabric Interconnect.

Dostępny system all flash składał się z węzłów o następujących parametrach:

  • dwa procesory Intel E5-2698, po 20 rdzeni obliczeniowych każdy,
  • 256 GB RAM,
  • dysku SSD 800GB na potrzeby przyśpieszania operacji zapisów,
  • sześciu dysków SSD 960GB dla warstwy magazynowania danych,
  • dwóch połączeń 40GbE prowadzących do dwóch Fabric Interconnect.

Testowany system Hyperflex był w wersji 2.5. Warto odnotować fakt małej ilości okablowania wymaganego dla pojedynczego węzła w klastrze – niezbędne są tylko dwa podłączenia zasilania oraz dwa połączenia sieciowe, oraz ewentualnie, dodatkowe podłączenia dla KVM (monitor oraz USB dla klawiatury i myszy).

Instalacja klastra

Mając przygotowane fizyczne połączenia pomiędzy komponentami klastra, możemy przystąpić do jego uruchomienia. Przypominając założenia z poprzednich artykułów, następujące komponenty powinny być uruchomione niezależnie od klastra:

  • vCenter,
  • DHCP,
  • NTP,
  • DNS,
  • Active Directory.

Dodatkowo potrzebujemy jeszcze jednego komponentu, jakim jest Hyperflex Installer – jest to dedykowana maszyna wirtualna z zainstalowanymi wszelkimi elementami niezbędnymi do uruchomienia systemu, udostępniająca interfejs WWW z intuicyjnym kreatorem. Po uruchomieniu maszyny i zalogowaniu się do interfejsu, mamy dostępne trzy opcje: utworzenie klastra zwykłego lub klastra Edge, a także rozszerzenie istniejącego klastra.

Rys. 1. Interfejs dedykowanej maszyny wirtualnej służący do tworzenie nowego klastra lub jego powiększania (jeśli już istnieje).

Nawet w przypadku nowej instalacji możemy skorzystać z pliku odpowiedzi utworzonego podczas innych instalacji, co pozwoli zmniejszyć ilość wprowadzanych danych. Podczas instalacji zrekonfigurowane zostaną: USC Manager zarządzający Fabric Interconectami i szablonami serwerów UCS, vCenter oraz hosty ESXi (zainstalowane jeszcze w fabryce zgodnie z zamówieniem klienta), dlatego w pierwszym kroku należy wprowadzić dane dostępowe do wspomnianych narzędzi. Następnie weryfikujemy listę automatycznie wykrytych serwerów w środowisku, definiujemy parametry serwerów, którymi zarządza UCS Manager, nazwy i numery VLAN-ów, zakres adresów MAC, a także adres interfejsu CIMC służącego do zarządzania pojedynczymi serwerami oraz ustanawiania połączenia poprzez wbudowany KVM.

Także tu mamy możliwość zdefiniowania dostępów do macierzy dyskowych pozwalających na dostęp do danych poprzez protokoły iSCSI i FC. W kolejnym kroku definiujemy parametry dla hostów ESXi, które wejdą w skład klastra. Kluczowe na tym etapie jest by nazwy, z których korzystamy, już były wprowadzone do konfiguracji serwerów DNS. W następnym kroku definiujemy adresy IP, dla najważniejszych elementów klastra hiperkonwergentnego – kontrolerów wirtualnych. W ostatnim kroku decydujemy o wartości parametru Replication Factor (domyślnie przyjmuje wartość 3),  podajemy adresy serwerów NTP, DNS, strefę czasową oraz decydujemy czy włączyć funkcję Auto Support. Po zakończeniu tego etapu rozpoczyna się automatyczny wieloetapowy proces instalacji klastra HyperFlex.

Po zakończeniu tego etapu klaster jest gotowy do pracy, lecz zalecana jest jeszcze dodatkowa konfiguracja, którą można wykonać ręcznie lub użyć skryptu przygotowanego przez Cisco. W celu uruchomienia go należy zalogować się za pomocą SSH do maszyny Hyperflex Installera lub za pomocą przeglądarki wywołać adres https://<installer ip>/mssh . Po uzyskaniu dostępu do linii poleceń wywołujemy skrypt o nazwie post_install. Skrypt zapyta o dane dostępowe do vCenter i USC Managera, by następnie przeprowadzić następujące działania:

  • wprowadzić klucze licencyjne VMware (lub pozostać przy testowych),
  • włączyć HA/DRS,
  • wyłączyć ostrzeżenie o włączonym dostępie SSH do serwerów ESXi,
  • dodać i skonfigurować interfejsy vMotion,
  • dodać VLAN-y dla maszyn wirtualnych,
  • wysłać testowego e-maila,
  • zweryfikować ustawienia sieciowe.

Ostatnim już krokiem jest założenie hiperkonwergentnej przestrzeni na maszyny wirtualne – Datastore i mapowanie jej wszystkim węzłom w klastrze. Czynność tę można wykonać z poziomu interfejsu vCenter lub HyperFlex Connect – dedykowanego interfejsu udostępnianego przez kontrolery wirtualne.

Artykuł został opublikowany na łamach IT Professional.

Kolejna część artykułu dotyczyć będzie Interfejsu zarządzania, natomiast poniżej znajdą Państwo linki do wcześniejszych artykułów:

About the author

Administrator systemów IT. Zajmuje się infrastrukturą sieciowo-serwerową, pamięciami masowymi oraz wirtualizacją. Posiada tytuły VCP, MCP oraz CCNA.

Leave a Reply