Firma VMware zapoczątkowała rewolucję w obszarze wirtualizacji umożliwiając w lepszym stopniu wykorzystywać rosnącą moc obliczeniową serwerów oraz ich pamięć operacyjną dla bardzo szerokiej grupy odbiorców. Dzięki jej produktom czas wdrożenia nowych serwerów drastycznie się zmniejszył pozwalając na jednoczesne współdzielenie istniejących zasobów co zaowocowało efektywniejszym ich wykorzystaniem. Z jednej strony ograniczyło to liczbę fizycznych serwerów niezbędnych do utrzymania dla istniejących i nowych aplikacji, z drugiej ułatwiło uruchamianie nowych maszyn co przyczyniło się do zwiększenia ogólnej ilości systemów już w postaci VM.

simplivity-header

Efektywniejsze wykorzystanie jednych zasobów ujawniło wąskie gardła w innych, między innymi pamięci masowej. Łatwość tworzenia nowych maszyn wirtualnych, tworzenia ich klonów, szybkiego kopiowania całych środowisk na potrzeby testów znacznie zwiększyło wymagania zasobów dyskowych – pojemność jak i na ilość operacji zapisów i odczytów. Dodatkowa ilość danych, wymagała objęcia kopiami bezpieczeństwa czy zapewnieniem dostępności w centrach zapasowych, co obciążało łącza WAN… Dostawcy sprzętu wymyślili na to pewne rozwiązania i dostarczają aktualnie nowatorskie rozwiązania, aby zaadresować powstające problemy, lecz jednocześnie komplikują one środowisko i utrudniają zarządzanie nim.

Jednakże, natura nie lubi pustki i ewoluuje również na warstwie IT. Problemy związane z natłokiem technologicznym w stosie DC zostały dostrzeżone i pojawiają się firmy które pracują nad uproszczeniem środowiska bez utraty zysków jakie przyniosły dodatkowe urządzenia. Jedną z takich firm jest Simplivity założona w 2009 roku przez Doron Kempel, byłego prezesa firmy Diligent Technologies Corporation przejętej przez IBM w 2008 roku. Do 2012 roku firma ta, w pewnym ukryciu pracowała nad swoją wizją, która przekuta w produkt (w wersji beta) została pokazana na VMworld 2012 w San Francisco. Przedstawiony produkt – OmniCube – wzbudził duże zainteresowanie na rynku, wiele firm zaczęło korzystać w przedstawionej wersji beta w swoich siedzibach. Już w kwietniu 2013 ogłoszono dostępność stabilnego rozwiązania. Od tego czasu rozpoznawalność firmy szybko rośnie – aktualna wycena przekracza miliard dolarów, co jest jednym z lepszych wyników w branży i bardzo dobrze rokuje w planowanym na 2016 rok debiucie giełdowym. Jednocześnie potwierdza to zgodność potrzeb rynku z wizją spółki.

Hiperkonwengentna architektura

Fakt, że wzrost wydajności pamięci masowych przestał nadążać za rozwojem pozostałych składników serwerów, nazywamy „I/O gap”

1

W obliczu wzrostu ilości przechowywanych danych oczekujemy wzrostu wydajności ich przetwarzania. Oczekuje się, że np. czas kopiowania wszystkich danych będzie utrzymywał się na stałym poziomie, co jednak nie następuje. Powiększająca się w ten sposób przepaść coraz bardziej nam doskwiera. Jest wiele rozwiązań, które próbują to wyeliminować – akceleratory I/O, wyspecjalizowane macierze dyskowe, eliminujące omawiane wąskie gardło poprzez Auto Tireing, lub całkowite obłożenie dyskami SSD. Posiadanie ich jednak implikuje kolejny element w infrastrukturze… a to komplikuje stos, ponownie. Jednym ze sposobów, który zdaje się to robić komplikując infrastrukturę w najmniejszym stopniu jest przesunięcie pamięci masowych do hyperwizowa. Daje to pożądaną skalowalność oraz wydajność. To co wyróżnia Simplivity to fakt stworzenia wydajnego podsystemu obsługującego pamięć masową. W przeciwieństwie do innych rozwiązań obsługa podsystemów dyskowych nie pochłania bezcennych cykli procesora, tutaj istnieje dedykowana, karta która przejmuje te zadania. Dzięki takiemu rozwiązaniu można osiągnąć o wiele więcej.

2

Optymalizacja zapisów dyskowych jest tylko częścią wizji realizowanej przez spółkę. Generalnie, celem jest uproszczenie zarządzania, redukcja ilości sprzętu i systemów różnych producentów wymagających zarządzania oraz oczywiście oszczędności.

Co dokładnie otrzymujemy? Między innymi:

  • bezpieczeństwo i wysoką dostępność danych,
  • globalną deduplikację,
  • kompresję,
  • wydajność (błyskawiczne klonowanie maszyn wirtualnych, szybki backup, wydajna replikacja danych do innych lokalizacji),
  • spójne i wygodne zarządzanie całym środowiskiem (lokalnym i zdalnym) z jednego miejsca.

Dzięki temu instytucja zyskuje:

  • zwiększoną zdolność do wprowadzania innowacji dzięki redukcji czasu na utrzymanie i zarządzanie złożonym środowiskiem,
  • podniesienie poziomu produktywności pracowników IT i optymalne wykorzystanie zasobów serwerów dzięki uproszczeniu środowiska,
  • zmniejszenie liczby punktów zarządzania systemem informatycznym spółki,
  • łatwość i przewidywalność w skalowaniu wydajności i pojemności środowiska,
  • zwiększenie zwinności, która pozwala szybko reagować na zmieniające się wymagania biznesu,
  • obniżenie kosztów utrzymania całego środowiska.

Cała architektura opiera się na jednakowych blokach OmniCube nazywanych nodami, dlatego budowanie środowiska z Simplivity zaczyna się od dwóch nodów – jest to niezbędne dla zapewniania bezpieczeństwa przechowywanych danych. W miarę wzrostu zapotrzebowania na zasoby obliczeniowe lub podsystemy dyskowe dodajemy kolejne nody. W przypadku potrzeby utrzymania centrum zapasowego – dodajemy tam kolejny nod. Rozwiązanie to w wydajny o optymalny sposób zapewnia synchronizację danych do centrum zapasowego.

Rozwiązanie markowane jako „Simplivity” bazuje na serwerach Dell wysokości 2U, w kilku konfiguracjach, w zależności od wymaganej wydajności i pojemności dysków:

3

Jakąkolwiek platformę byśmy nie wybrali znajdzie się w niej Omnicube Accelerator Card. Jest to karta PCIe odpowiedzialna za optymalizowanie zapisów na dyskach. Każdy Omnicube ma trzy grupy dysków:

  • dyski obrotowe z systemem ESXi oraz pliki maszyny Omnicube Virtual Controller (OVC),
  • dyski obrotowe na dane,
  • dyski SSD.

4

ESXi nie zarządza Omnicube Accelerator’em, dyskami na dane czy SSD – są one podłączone w trybie passthrough do maszyny Omnicube Virtual Controller – jest to serce tego rozwiązania. To ta maszyna udostępnia datastore utworzone z dysków na dane poprzez protokół NFS, w wyniku tego jest pośrednikiem wszelkich operacji zapisu i odczytu generowanych przez maszyny wirtualne. Po otrzymaniu danych następuje optymalizacja (deduplikacja, kompresja) tych danych. Ostatecznie na dyskach lądują nowe i zmienione bloki, a istniejące nie generują dodatkowych operacji I/O.

5

Do synchronizacji danych pomiędzy węzłami wykorzystywane są dedykowane do tego celu dwa interfejsy 10Gbps. W przypadku instalacji trzech lub więcej urządzeń OmniCube niezbędna jest sieć lokalna 10Gbps (minimum dwa przełączniki dla HA) Grupy nodów tworzą Federację. Każda maszyna, w czasie rzeczywistym jest synchronizowana z innym węzłem w Federacji co zabezpiecza przed pojedynczą awarią.

Klonowanie maszyn wirtualnych dzięki deduplikacji jest szybkie, backupy natomiast nie zajmują dodatkowej przestrzeni użytkowej (przynajmniej w chwili ich wykonania).

Simplivity nie zamyka się na jednego dostawcę sprzętu, aktualnie dostępne jest także rozwiązanie dla Cisco UCS oraz Lenovo, w planach jest także umożliwienie uruchomienie rozwiązanie na platformach innych dostawców sprzętu klasy x86. W dobie rosnącej popularności Hyper-V również planowane jest dostarczenie rozwiązanie dla tej platformy.

Zarządzanie Federacją odbywa się z poziomu vCenter, co implikuje płatne wersje VMware. Wszelkie operacje wykonujemy za pomocą klienta vCenter, nie są wymagane żadne inne interfejsy czy dodatkowe konsole. Tutaj należy pamiętać, że licencje VMware należy zakupić we własnym zakresie. Sporą zaletą rozwiązanie jest to, że do udostępnianych zasobów dyskowych możemy podłączyć standardowe hosty ESXi, korzystając tym samym ze wszystkich zalet optymalizacji plików maszyn wirtualnych jakie oferuje Omnicube, jedynym niezbędnym krokiem jest tu instalacji wtyczki integracyjnej do takiego hosta.

Simplivity umożliwia integrację z AWS, celem dodatkowego zabezpieczenia lokalnej infrastruktury (backup) szczególnie przydatna opcja gdy nie posiadamy swojej lokalizacji zapasowej lub chcemy zapewnić sobie więcej scenariuszy odtwarzania po awarii. W takiej opcji zarządzanie także odbywa się z poziomu konsoli VMware.

Firma Enterprise Strategy Group w 2015 roku opublikowała raport, definiując w nim obszary rynku które stanowić będą najwyższe priorytety w ciągu najbliższych 12 miesięcy w światku IT.

6

Patrząc na powyższy wykres, można stwierdzić, że rozwiązanie Simplivity całkiem nieźle wpasowuj się w aktualne potrzeby rynku, gdyż zastosowanie ich technologii realnie może mieć miejsce w następujących obszarach:

  • usprawnienie wykonywania kopii bezpieczeństwa i odzyskiwania danych,
  • zarządzanie przyrostem danych,
  • zwiększenie wykorzystania wirtualizacji,
  • wirtualizacja stacji roboczych (EUC)
  • wykorzystanie infrastruktury dostarczanej z chmury – tutaj warto dodać, że rozwiązanie Simplivity integruje się na warstwie backupu tylko z chmurą AWS. Pomimo, że AWS jest liderem rozwiązań chmurowych, brak wsparcia innych dostawców może być postrzegane jako wada.

Simplivity zaprojektowane jest tak aby skalować się w ramach jednego datacenter jak i w skali globalnej. W tradycyjnym podejściu otrzymujemy różnorodny sprzęt jak i oprogramowanie od różnych dostawców – co komplikuje utrzymanie środowiska, tutaj niema tego problemu. Sprzęt może być co prawda różny, ale zarządzanie jest spójne.

Podsumowanie

Rozwiązanie Simplivity reklamowane jest jako hiperkonwergencja w wersji 3. Oznacza to całkowitą unifikację i uproszczenie przy jednoczesnym wzroście wydajności i maksymalnym wykorzystaniu istniejących zasobów. Unikalne w tym rozwiązaniu jest wykorzystanie dodatkowego układu obliczeniowego, który nie obciąża procesorów licencjonowanych przez VMware – dlatego tym cenniejszych, a każde dodatkowe ich obciążenie pozbawia nas licencjonowanej mocy.

 

7

 

Sposób zarządzania danymi lokalnie i w zdalnych lokalizacjach w pewien sposób pozbawia racji bytu innych rozwiązań. W dobie ogromnego przyrostu danych do zarządzania i utrzymania, gdy biznes wymaga coraz więcej przy zmniejszaniu budżetów Simplivity może okazać się tym na co wielu czeka.

About the author

Administrator systemów IT. Zajmuje się infrastrukturą sieciowo-serwerową, pamięciami masowymi oraz wirtualizacją. Posiada tytuły VCP, MCP oraz CCNA.
5 Responses
  1. Bartlomiej K.

    Czy dobrze rozumiem, że to rozwiązanie w sumie opiera się na „dobrze skrojonej” VMce, która potem dostarcza cały storage jako NFS, zamiast popularnego iSCSI ? Pomysł myślę nie jest już tak nowatorski, chociaż wykonanie od środka napewno tak.

    Koncept aby storage do hypervisora dostarczać jako NFS a nie FC czy iSCSI, nie jest nowy, ale ciekaw jestem jak to działa w praktyce w dużych środowiskach.

    Pozdrawiam
    Bartek

  2. Marek Sokół

    Dokładnie tak. Ta VMka czyli OVC udostępnia lokalnie dyski jako NFS. Warto tu dodać, że wszystkie węzły „mówią jednym głosem” i udostępniają ten sam/taki sam zasób – dlatego w przypadku awarii pojedynczego węzła nic się nie zmienia – udostępniane dane wyglądają tak samo i są cały czas dostępne.

    Jesteśmy w trakcie testów tego rozwiązania i niedługo udostępnimy ich wyniki. Wstępnie mogę zdradzić, że wygląda to bardzo obiecująco.

    Pozdrawiam
    Marek Sokół

  3. Dodatkowy zespol obliczenowy to SPOF w czystej postaci. Poza tym nie tak do konca odciaza on zasoby serwera, a napewno nie zasoby RAM, SVT potrzebuje minimum 96GB RAM zeby dzialac poprawnie.

Leave a Reply