W poprzedniej części opisałem fizyczną instalację klastra Nutanix, oraz kroki niezbędne do przeprowadzenia w warstwie sprzętowej. Dzisiaj przybliżę konsolę służącą do codziennej pracy z rozwiązaniem. Po zakończeniu konfiguracji sprzętu i uruchomieniu klastra, należy zalogować się na adres IP jednej z maszyn CVM za pomocą przeglądarki do konsoli PRISM. Do zalogowania wykorzystuje się domyślne dane dostępowe, w kolejnym kroku należy ustalić nowe hasło oraz zaakceptować umową licencyjną.

Konsola PRISM nutanix
Rysunek 1 Pierwszy widok w konsoli PRISM – podstawowym narzędziu do zarządzanie środowiskiem Nutanix

Po ukończeniu powyższych czynności ukazuje się konsola PRISM. Narzędzie to pozwala na wykonanie większości czynności administracyjnych oraz w jasny i przejrzysty sposób raportuje stan środowiska. Bardziej zaawansowane czynności wykonujemy z linii poleceń.
Pierwszy komunikat w górnej części ekranu zachęca do uruchomienia funkcjonalności Pulse, która odpowiada ze przesyłanie do producenta informacji, które w razie potrzeby pozwolą na szybsze rozwiązanie problemów (rys.1). Poniższa czarna belka to główne menu konsoli, jego wygląd i działanie jest niezmienne w każdym momencie pracy z PRISM. Menu to zawiera:

  • nazwę klastra,
  • wybrany widok (możliwe to: Home, Health, VM, Storage, Hardware, Data Protection, Analysis, Alerts),
  • stan zdrowia klastra (reprezentowane przez serce w kolorze zielonym, zółtym lub czerwonym,
  • informacja o alarmach lub trwających zadaniach (nie widoczne na rys. 1),
  • wyszukiwarka informacji lub dostępnych akcji (lupa),
  • opcje pomocy (znak zapytania),
  • menu zadań (trybik), pozwalające: konfigurować klaster (z jego rozszerzaniem włącznie),  aktualizować komponenty, zarządzać użytkownikami, skonfigurować powiadomienia email o alarmach w środowisku, zarządzać licencjami, konfigurować serwery NTP czy SMTP oraz wiele innych,
  • menu użytkownika – pozwalające np. zmienić hasło czy pobrać narzędzia linii poleceń.
Finalna  konfiguracja środowiska

Dotychczasowa konfiguracja ciągle nie jest kompletna, wykonana zatem zostaje:

  • aktywacja mechanizmu Pulse,
  • konfiguracja wirtualnego adresu IP klastra (pozwala on zawsze połączyć się z konsolą PRISM bez względu dostępność poszczególnych maszyn CVM,
  • konfiguracja powiadomienia email o alarmach. Warto tutaj zwrócić uwagę, że nie ma mechanizmu pozwalającego na weryfikację poprawności skonfigurowanego serwera SMTP. Weryfikacje odbywa się przy pierwszej próbie wysłania alarmu – co może się okazać brzemienne w skutkach.

Ostatecznie należy jeszcze skonfigurować współdzieloną pamięć do przechowywania maszyn wirtualnych – czyli istotę rozwiązania hiperkonwergentnego. Należy utworzyć Container (po stronie VMware widziany jako datastore) oraz Storage Pool (przestrzeń utworzona z wszystkich dysków dostępnych w klastrze) – odbywa się to za pomocą prostego kreatora (rys 2)

Rysunek 2 Poszczególne etapy tworzenia datastore udostępnianego dla hostów ESXi
Rysunek 2 Poszczególne etapy tworzenia datastore udostępnianego dla hostów ESXi

W wyniku jego działania do wszystkich hostów ESXi w klastrze podłączony zostaje nowo utworzony datastore. Niestety mechanizm VMware HA wymaga dwóch datastore podłączonych do jednego hosta (rys. 3)

Rysunek 3 Nowo utworzony kontener jest podłączony do hostów ESXi, niestety mechanizm HA wymaga dwóch datastore
Rysunek 3 Nowo utworzony kontener jest podłączony do hostów ESXi, niestety mechanizm HA wymaga dwóch datastore

Sytuację możemy rozwiązać na dwa sposoby

  • utworzyć drugi kontener (brak jest tu uzasadnienie, gdyż nie będą one niezależne – brak dostępności jednego zawsze będzie oznacz niedostępność drugiego)
  • wyłączyć monitorowanie tego aspektu (das.ignoreInsufficientHbDatastore)

Na powyższych czynnościach ostatecznie zakończona zostaje konfiguracja środowiska, jest ono gotowe do obsługi maszyn wirtualnych zapewniając ich prawidłowe działanie nawet przy awarii jednego węzła.

PRISM, zapoznanie z interfejsem

Przed rozpoczęciem testów rozwiązania warto zapoznać się z konsolą zarządzającą, a dokładniej z dostępnymi widokami, gdyż główne menu zostało już omówione.

HOME

Jest to pierwszy ekran wyświetlany po zalogowaniu, zawiera on wszystkie najważniejsze informacje o środowisku (rys. 1). W lewej części ekranu zawarte są informacje o wydajności i stopniu wykorzystania środowiska. W szczególności są to informacje o

  • rodzaju i wersji hiperwizora
  • podsumowanie wykorzystania klastrowej pamięci masowej
  • ogólna informacja o maszynach wirtualnych
  • podsumowanie środowiska sprzętowego
  • wykorzystanie CPU oraz RAM dla klastra
  • liczniki wydajnościowe pamięci masowej klastra (IOPS, tempo zapisów, opóźnienie w dostępie do danych)

Z prawej strony znajdują się natomiast informacje zdrowiu i alarmach. W ramach informacjach o zdrowiu dostępne są informacje o ilości dysków, węzłów oraz maszyn wirtualnych które sygnalizują problemy (ostrzeżenia lub alarmy) a także informacja o zdolności przetrwania potencjalnej awarii. W obszarze alarmów wymienione są informacja o alarmach krytycznych, ostrzeżeniach, powiadomieniach oraz zdarzeniach w klastrze.

Większość dostępnych informacji pozwala przejść do ekranu z większą ilością szczegółów celem dokładniejszej analizy.

HEALTH

Rysunek 4 Przykładowy widok zdrowia klastra
Rysunek 4 Przykładowy widok zdrowia klastra

W widoku tym (rys. 4) dostępne są szczegółowe informacje o zdrowiu rozwiązania, pozwalające uzyskać bardzo szczegółowe informacje o klastrze. Oprócz monitorowanych komponentów wymienionych w widoku HOME, dostępne są także elementy składające się na współdzielony zasób dyskowy. Z prawej strony dostępna jest lista wykonywanych automatycznie kontroli. Lista może być filtrowana wg krytyczności alarmów. Na przedstawionym zrzucie ekranu (rys. 4) po restarcie jednej z maszyn CVM, wyróżniony jest krytyczny alarm dla jednego hosta oraz wynikające z niego ostrzeżenie dla kontenera.

VM

W tym widoku ujawnia się dostępny dodatkowy pasek menu Screen Bar, zawierający możliwość wyboru informacji ogólnych (Overview) lub szczegółowych nazwanych Table (rys 5)

Rysunek 5 Szczegółowa lista maszyn wirtualnych
Rysunek 5 Szczegółowa lista maszyn wirtualnych

Obszar informacji ogólnych przypomina widok HOME, lecz poszczególne informacje odnoszą się do maszyn wirtualnych istniejących w środowisku. Bardziej interesujący jest widok szczegółowy (rys 5), gdzie dostępna jest lista maszyn wirtualnych z dużą ilością informacji. Gdyby okazało się, że te informacje są nie wystarczające po kliknięciu na daną maszynę w dolnej części ekranu pojawia się dużo więcej informacji na jej temat (rys 6).

Rysunek 6 Szczegółowe informacje o wybranej maszynie wirtualnej
Rysunek 6 Szczegółowe informacje o wybranej maszynie wirtualnej

W szczególności są tam dostępne wykresy liczników wydajności oraz alarmy i zdarzania.

STORAGE

Ten widok w obszarze Screen Bar ma już trzy opcje: Overview, Diagram oraz Table. Overview także zawiera ogólne zestawienie, analogiczne do widoku Home, oczywiście ukierunkowane na udostępnianą przestrzeń dyskową dla maszyn wirtualnych. Diagram zawiera już bardziej szczegółowe informacje o klastrze, włączając w to wykresy (rys. 20).

Rysunek 7 Widok Storage Diagram zawiera szczegółowe informacje o całym klastrze
Rysunek 7 Widok Storage Diagram zawiera szczegółowe informacje o całym klastrze

Table zawiera zawiera informacje o Volume Group, Container oraz Storage Pool, dlatego dodany został kolejny poziom menu, pozwalający się przełączać pomiędzy tymi obiektami (rys. 8)

Rysunek 8 Szczegółowy widok kontenera udostępnianego hostom ESXi na potrzeby przechowywanie maszyn wirtualnych
Rysunek 8 Szczegółowy widok kontenera udostępnianego hostom ESXi na potrzeby przechowywanie maszyn wirtualnych

Dla każdego z tych elementów, dostępne są szczegółowe dane, podobnie jak w poprzednio opisanych widokach. Godne uwagi jest specyficzne zachowanie rozwiązania – w przypadku utworzenia dysków grubych (Thick), cała wymagana przestrzeń jest rezerwowana w kontenerze. Przy tworzeniu maszyn wirtualnych warto sobie zdawać sprawę z takiego zachowania, gdyż w testowanej konfiguracji bez problemu utworzymy 3 maszyny wirtualne z dyskami cienkimi po 5 GB każdy, lecz dla dysków grubych to się nie uda.

Hardware

Widok ten zbudowany jest podobnie do poprzedniego. Diagram zawiera wizualizację sprzętowych komponentów podlegających zarządzaniu (rys. 9)

Rysunek 9 Wizualizacja sprzętowych komponentów podlegających monitorowaniu. W na przedstawionym zrzucie ekranu doświadczamy kontrolowanej awarii jednego z dysków
Rysunek 9 Wizualizacja sprzętowych komponentów podlegających monitorowaniu. W na przedstawionym zrzucie ekranu doświadczamy kontrolowanej awarii jednego z dysków

Obszar Table podzielony jest na Host, Disk oraz Switch, pozwalając uzyskać bardzo szczegółowe informacje o pracy poszczególnych elementów. Najbardziej interesujące wydają się być informacje o dyskach, gdyż możliwe jest uzyskanie informacji o obciążeniu poszczególnych dysków w czasie (rys. 10).

Rysunek 10 Dostęp do danych o obciążeniach pojedynczych dysków pozwala na dokładną analizę środowiska
Rysunek 10 Dostęp do danych o obciążeniach pojedynczych dysków pozwala na dokładną analizę środowiska

Data Protection

Widok pozwalający konfigurować ochronę maszyn wirtualnych (Async DR, Metro Avaliability, Remote Site). W testowanym środowisku zastosowanie ma tylko Async DR pozwalający na wykonywanie kopii (snapshotów) maszyn wirtualnych (rys. 11) oraz na ich późniejsze odtworzenie.

Rysunek 11 Zarządzanie ochroną maszyn wirtualnych
Rysunek 11 Zarządzanie ochroną maszyn wirtualnych

Analysis

Widok ten pozwala na dokładną analizę wszelkich wykresów z innych widoków jak i dodatkowych metryk które mogą być monitorowane. Warto zwrócić uwagę że na dotychczasowych widokach wszystkie wykresy zawierały dane za ostatnie trzy godziny i nie było możliwości zmiany tego parametru. Jednak każdy z tych wykresów można dodać do widoku Analysis, tutaj natomiast można już definiować potrzebne zakresy czasowe (rys. 12). Bardzo interesujące jest, że wyświetlone zostaną także alarmy, które wystąpiły w środowisku w zdefiniowanym czasie.

Nutanix PRISM ANALISIS view
Rysunek 12 Widok Analisis pozwala na szczegółowe zdefiniowane monitorowanych parametrów pracy środowiska jak wymaganych zakresów czasowych

Niestety w przypadku zdefiniowania zakresu czasu, który kończy się w teraźniejszości wykresy nie odświeżają się automatycznie. Warto aby producent dodał taką opcję, gdyż utrudnia to monitorowanie środowiska na bieżąco.

 

Alerts

Ostatni widok pozwala na przegląd tego co działo się w środowiska (rys.13)

Rysunek 13 Widok alarmów i zdarzeń w środowisku
Rysunek 13 Widok alarmów i zdarzeń w środowisku

Należy pamiętać, że w przypadku wykorzystania hyperwizora Acropolis, z konsoli PRISM zarządzamy kompleksowo całym środowiskiem, w środowisku testowym był natomiast wykorzystany ESXi, zatem standardowe działania wykonujemy za pomocą narzędzi VMware.

Podsumowanie

Zarządzanie środowiskiem Nutanix z konsoli PRISM jest bardzo proste i wygodnie. Nie wymaga instalacji na stacji administratora, żadnych dodatkowych kompomentów, a przejrzystość interfejsu i łatwość zagłębiania się w szczegóły pojawiających się alarmów, ostrzeżeń i statystyk pozwala bardzo szybko i efektywnie pracować ze środowiskiem… które w następnej odsłonie naszej serii lekko przyciśniemy testami.

About the author

Administrator systemów IT. Zajmuje się infrastrukturą sieciowo-serwerową, pamięciami masowymi oraz wirtualizacją. Posiada tytuły VCP, MCP oraz CCNA.

Leave a Reply