W poprzedniej części przybliżyłem firmę Simplivity oraz jej rozwiązanie – OmniCube. Dzięki uprzejmości Simplivity, za pośrednictwem firmy Passus, miałem możliwość osobistego przetestowania tego rozwiązania.

omnicube-cz-II

Uruchomienie rozwiązania rozpoczynamy od zapoznania się z uproszczoną 3 stronicową instrukcją na dobrej jakości papierze w formacie A3, gdzie możemy znaleźć wstępne wymagania.

Zaczynaja się od tego, że niezbędne są trzy sieci wykorzystywane przez Federację OmniCube, odseparowane fizycznie oraz opcjonalnie przez VLANy

  • 1GbE Management network
  • 10GbE Storage Network
  • 10GbE Federation Network

Wymagania sieciowe:

  • Połączenia między swichami muszą zapewniać wymagane pasmo transmisyjne
  • Obsługa Jumbo Frames (MTU 9000)

Wymagania sieciowe dla wysokiej dostępności:

  • Zwielokrotnione połączenia oraz switche
  • Wielościeżkowość pomiędzy switchami

Wymagany sprzęt:

  • Szafa rack 19”, każdy system Omnicube wymaga 2U
  • Kable kategorii 5e lub 6 dla 1Gb połączeń
  • Kable SFP+

Dostarczony sprzęt:

  • Dysk usb
  • Uchwyty montażowe do szafy
  • Uchwyty do zarządzania kablami
  • Przednia osłona systemu
  • Kable zasilające
  • Kable SFP+, które można wykorzystać do bezpośredniego połączenia w konfiguracji dwóch systemów OmniCube, zapewniające 10Gb połączenie
  • System OmniCube

Instalację rozpoczynamy od zainstalowania obu serwerów w szafie rack. Podłączamy do prądu. Bezpośrednio łączymy interfejsy 10GbE dostarczonymi kablami SFP+, interfejsy 1GbE podłączamy do switcha. Wypada też zadbać o interfejs IPMI, który służy do zdalnego zarządzania, najpierw podłączamy go do laptopa – gdyż musimy zmienić jego konfigurację IP. Domyślnie system uruchomiony jest na adresie 192.168.0.120. Odpowiednio konfigurujemy kartę sieciową laptopa i łączymy się z tym adresem przeglądarką internetową. Rekonfigurujemy adres na pożądany, po weryfikacji łączności z nowym adresem możemy podłączyć interfejs IPMI do switcha.

Rysunek 1 Domyślna konfiguracja interfejsu IPMI
Rysunek 1. Domyślna konfiguracja interfejsu IPMI
Rysunek 2 Konfiguracja połączeń dla dwóch systemów bez switchy 10Gb
Rysunek 2 Konfiguracja połączeń dla dwóch systemów bez switchy 10Gb
Rysunek 3 Widok testowanego systemu z przodu z założoną osłoną
Rysunek 3 Widok testowanego systemu z przodu z założoną osłoną
Rysunek 4 Widok z przodu bez osłon
Rysunek 4 Widok z przodu bez osłon

Testowany system CN-3400 (bazujący na platformie DELL) zawiera następujący podzespoły:

  • 2 dyski (instalowane z tyłu serwera) SAS 300GB 10k RPM, skonfigurowane w RAID 1
  • 4 dyski SAS SSD 400GB, skonfigurowane w RAID 5
  • 20 dysków SAS 1TB 7.2k RPM, skonfigurowane w RAID 60 (2 x 10 dysków w RAID 6)
  • 2x Intel E5-2600v3 12 rdzeni
  • 400GB RAM
  • 2x 10GbE (SFP+) 2x 1GbE (RJ45)
  • Opcjonalnie system może posiadać jeszcze dwie 1GbE interfejsy na potrzeby ruchu maszyn wirtualnych – testowany system ich jednak nie posiada

Przy wstępnej konfiguracji dostarczona broszura może się okazać niewystarczająca, możemy wówczas sięgnąć po sześdziesięciostronicowy dokument, opisujący początkowe kroki dużo dokładniej.

Uruchomienie systemu

Uproszczenie (która firma SimpliVity ma nawet w swojej nazwie) zaczyna się już od startu systemu. Uruchomiony wita nas uproszczonym ekrenem startowym, na którym próżno szukać informacji o zainstalowanych procesorach, pamięci ram itp. Uproszczenie sięga do tego stopnia, że z poziomu ekranu startowego nie można wejść do konfiguracji dostępu IPMI – iDRAC, aby zmienić adresację IP. Na ekranie tym jednak wyświetlony zostanie aktualnie skonfigurowany adres IP, na którym rozwiązanie jest skonfigurowane.

Rysunek 5 Ekran startowy systemu
Rysunek 5 Ekran startowy systemu

Jeżeli w systemie jest zainstalowana pożądana przez nas wersja systemu ESXi, przechodzimy do jego konfiguracji. W przeciwnym wypadku instalujemy odpowiednią wersję z uzyskanego od producenta obrazu dysku instalacyjnego. W naszym przypadku wykorzystujemy ESXi w wersji 5.5. System jest zainstalowany na tylnych dyskach – z dostępną przestrzenią 300GB, pozostałe dyski nie będą dostępne dla hosta ESXi. Konfiguracja zainstalowanego systemu nie różni się niczym od standardowej konfiguracji hosta ESXi, główna różnica polega na domyślnym wyłączeniu obsługi IPv6. Musimy także wiedzieć, które karty sieciowe będą należeć do sieci zarządzającej – w dokumentacji jest to dobrze wyjaśnione (wykorzystujemy interfejs vmnic2 oraz vmnic3).

Rysunek 6 Interfejsy wykorzystywane w sieci zarządzającej
Rysunek 6 Interfejsy wykorzystywane w sieci zarządzającej

Zgodnie z oczekiwaniem, ostatnim elementem jest działający serwer windows z zainstalowanym vCenter (w naszym przypadku w wersji 5.5). Dochodzimy tutaj do bardzo ważnego wymagania SimpliVity – vCenter musi być na osobnej maszynie względem serwerów OmniCube.

Podsumowanie

Fizyczna instalacja sprzętu nie nastręcza większych problemów, kolejne kroki są dobrze opisane i po zapoznaniu się z dokumentacją nie sprawią kłopotów. Uproszczona dokumentacja pomija kwestię wymagalności osobnego serwera vCenter, co mogłoby zaskoczyć w sytuacji braku dodatkowego serwera, możliwego do wykorzystania w tym właśnie celu. W części tej celowo pominąłem konfigurację segmentacji sieci – przyjrzymy się temu w następnej części.

About the author

Administrator systemów IT. Zajmuje się infrastrukturą sieciowo-serwerową, pamięciami masowymi oraz wirtualizacją. Posiada tytuły VCP, MCP oraz CCNA.

Leave a Reply