Trzymanie się kurczowo jakiejś idei przypomina bluszcz, który obrasta pień złamanego drzewa. Na początku są lata grube, dużo słońca, niepodzielne panowanie i górowanie nad cała łąką… jednak trzeba się liczyć z faktem ze kiedyś ten pień upadnie, a my wraz z nim. Przyjdą wówczas lata chude, a z góry wydające się niskimi, krzaki pokrzyw, w których zalegniemy, z dołu oskarża się niepomiernie wysokie. Musimy, zatem w odpowiednim momencie przemigrowac, przeskoczyć na drugie, zdrowe drzewo by przetrwać zanim będzie za późno. Podobnie jest z rzeczona idea – na starej dobrze się żyje, ale nie można sobie pozwolić, na ten komfort zbyt długo, trzeba nieprzerwanie szukać czegoś nowego, dbając pieczołowicie o stare, pamiętając jednak ze w każdej chwili może ono runąć.

hp-moonshot-grenoble

Odejście od komputerów mainframe na rzecz serwerów rack to pierwsza iteracja. Drugą było przeniesienie serwerów rackowych w obudowy balde. Gdy odkryto, że i to rozwiązanie ma swoje wady a wygodna skalowalność, tak osławiona przez marketing kończy się w rzeczywistości na kilkunastu serwerach w skrzynce wykonano kolejne czytanie idei. Jedni producenci poszli w rozwiązania programowe – oprogramowanie umożliwiające łączenie wielu skrzynek w jednym panelu zarządzania, inni przeprojektowali backplane i wynieśli go z wypalonych w kwarcu ścieżek np. w Ethernet. Rozpoczęła się era hyperscalowalności, w której systemy blade… no cóż okazują się czasami zbyt sztywnymi konstrukcyjne bytami. Dla przykładu dwie zatoki na dyski, co utrudnia wdrożenie pełnokrwistego systemu rozproszonego storage, zazwyczaj brak PCIe na kartę graficzną do np. odciążania procesora podczas, renderingu lub dostarczania wydajnej infrastruktury VDI itd. Tak więc świat znów się zwraca ku tradycyjnym serwerom rack z odpowiednim oprgoramowaniem, lub prekonfigurowanym hyperskalowalnym platformom takim jak min. Nutanix, czy Simplivity. Jest też trzecia strona medalu… platformy o ogromnym zagęszczeniu zasobów, takie jak Seamicro lub HP Moonshot.

Produkt Moonshot opisywałem już jakiś rok temu. Zaciekawił mnie on wtedy swoim nowatorskim podejściem wobec architektury. Pamiętacie? Nie… tutaj znajdziecie info. Pod względem architektury nie zmieniło się wiele, jedynie co to pojawiły się nowe przełączniki sieciowe, które na wyjściu posiadają linki 4x40G a nie tak jak to było w wersji sprzed ponad roku 10G. Ważnym elementem są natomiast planowane przez HP zmiany w palecie dostępnych kartridży. Poniżej route-map na najbliższy czas.

hp-moonshot-road-map-2014

Najważniejsze co się kryje za powyższą grafiką to fakt położenie przez HP dużego nacisku na rozwój wysoko energooszczędnych platform ARM. Nie uchodzi również uwadze fakt wykorzystania układu APU zawierającego w sobie procesor AMD i układ graficzny Radeon 8000. Szykuje się spora ilość mocy z 4,3U w stosunku do niewielkiej ilości skonsumowanego prądu. Powyższa grafika nie pokazuje jednak reczy niebywale istotnej… Ujmę to w ten sposób, Moonshot jest dla HP platformą, którą udostępniają, jako sprzętowy framework dla innych, niezależnych firm. Przekazują im specyfikacje komunikacji miedzy kardridżami, maximusy, datasheet itd. Firmy te natomiast projektują na podstawie tych danych własne systemy. Ciekawa idea nieprawdaż? Tak jak wspomniałem najważniejsze, czyli inne platformy, nad którymi trwają praca wciąż nie są na oficjalnej road-mapie. Z informacji, które udało mi się uzyskać aktualnie na stole montażowym są układy FPGA, wyposażone w 256 rdzeni o wydajności na dzień dziejscy 230gflops z 5w. Dwie sztuki są w stanie procesować wideo 4K w czasie rzeczywistym. Taki układ już działa, wersja druga według zapowiedzi będzie miał 690gflops’ów pojawi się pod koniec 2014, a w 2015 światło dzienne ujrzy V3 – 4,6tflopa! Ponoć mają zamiar dorzucić również framework, aby napisać sobie aplikacje… Tak, więc niedługo może pojawić się dosyć ciekawe rozwiązanie do przetwarzania wideo, renderingu itp. Wszystko oczywiście wysoko zagęszczonym układzie potrafiącym na dzień dzisiejszy zmieścić w 4U 180CPU. Poniżej grafika z bardziej szczegółowym opisem dostępnych i planowanych w najbliższej przyszłości kardriży:

hp-moonshot-road-map-2-2014

Oczywiście według specyfikacji kardriży nie można mieszać, tzn., jeżeli posiadamy Intelowskie Atomy to nie możemy dokupić do tej samej obudowy ARM. Nie wynika to bynajmniej z faktu, że obudowa i koncept Tourusa3D tego nie obsłuży, a z kwestii nieco bardziej delikatnej – suportu. Aktualnie system wspiera JUJU jako mechanizm do automatyzacji instalacji.

Ciekawa platforma, skrystalizowana wizja. Martwi jednak to, że uznawana jest za odejście od wirtualizacji. Moim zdaniem, poprzez dopakowanie kartridży większą ilością RAM mielibyśmy bardzo dynamiczny, skalowalny system dystrybuowanych węzłów obliczeniowych i dyskowych. Super sprawa po hyperskalowalne środowiska wirtualizacyjnej… Myślę, że temat wirtualizacji w kontekście Moonshota jeszcze wróci, dajmy jednak sobie i HP na to trochę czasu.

About the author

Bloger i niezależny konsultant z wieloletnim doświadczeniem w branży IT. Specjalizujący się w wirtualizacji i cloud computingu. Posiada tytuły MCP, MCTS, VCP oraz VMware vExpert.
4 Responses
  1. Zostając już przy HP:
    Pełnokrwisty system rozproszonego storage – Storage Blade D2200sb + 2 x SSD w serwerze Blade
    Odciążanie procesora… – HP ProLiant WS460c Gen8 dla VDI albo jako stacja graficzna.

    Moonshot to w tej chwili chyba właśnie ta trzecia droga pomiędzy wirtualizacją a tradycyjnym modelem.

    Ciekawe czy temat wirtualizacji – takiej jaką prezentują w tej chwili VMware, Microsoft itd – wróci na tej platformie. Myślę, że nie. Tutaj podejście wydaje się być inne. Zamiast tworzenia dużej puli zasobów – wiele wyspecjalizowanych modułów.
    Ale może Metal as a Service?

  2. Nie do końca się z Tobą zgodzę co do kwestii blade… Będę podtrzymywał swoje stanowisko, że jednak systemy blade są niejednokrotnie zbyt zawiłe i przesadzone by budować elastyczne środowiska rozproszonego storage. Co do trzeciej drogi, tak masz rację, ale ciągle jakoś jej nie mogę przekonać do HDI itp. hybryd. Ale może faktycznie? Nie wiem wydaje mi się trochę za wcześnie na zwyrokowanie…

    Co do zastosowania VMware/MS na tej platformie to zdaje się być całkiem dobrym pomysłem. Popatrz z tej strony, że teraz masz serwery-smoki – 1,5TB RAM w 2U, 200-300VM per węzeł. Gdy taki jeden node ci pada tracisz ćwierć infrastruktury. Natomiast gdy pada ci kardridż który ma 64/128GB RAM umierają z nim 20-30VM? Taka liczba po pierwsze nie zajedzie storage podczas uruchamiania się, jak również i nie wywoła tak drastycznego uderzenia w infrastrukturę usługową. Wydaje mi się to dobrą drogą, a w szczególności przy zastosowaniu licencjonowania per VM nie per CPU 😉

  3. Punkt widzenia, zależy od punktu siedzenia. Z racji tego, że codziennie mam zdecydowanie częściej do czynienia z systemami blade, bardzo doceniam elastyczność, skalowalność i łatwość utrzymania tego rozwiązania. Oczywiście nakład potrzebny na początkowe skonfigurowanie systemu jest większy, choć też niekoniecznie, biorąc pod uwagę, że konfigurację praktycznie wszystkich elementów systemu można zautomatyzować. Bardziej chodziło mi o to, że posiadając już systemy blade, nie ma powodu aby przesiadać się na tradycyjne systemy rackowe tylko dlatego, że chcemy zbudować infrastrukturę rozproszonego storage. Moim zdaniem systemy blade wypadają tutaj tak samo dobrze jak systemy tradycyjne.

    Wracając do Moonshot. Nie widzę 20 – 30 VM na jednym kartridżu. Z roku na rok wirtualizowane są coraz bardziej wymagające aplikacje i średnia wielkość maszyn wirtualnych wzrasta dość znacząco. Patrząc na środowiska, którymi się zajmuję to np. zwirtualizowane bazy danych Oracle na maszynach z 32+ GB pamięci to już nie jest wyjątek a raczej norma. Przy tych kartridżach to jednak nie są wysokowydajne procesory i ich przeznaczenie jest raczej dość wyraźnie sugerowane przez HP – to align purpose-built solution Servers with the right workload. Tutaj tak jak pisałem wcześniej nacisk jest na dużą ilość dedykowanych, wyspecjalizowanych urządzeń. Jakieś farmy webowe, dedykowany hosting, aplikacje korzystające z grid-computing i inne rozwiązania, które dobrze się skalują w modelu „scale-out”. Według mnie jest to podejście (jeśli chodzi o sprzęt) dokładnie odwrotne od wirtualizacji w wydaniu VMware/MS i wydaje mi się, że HP będzie się starało trafić w zupełnie inny target.

    Gdyby było inaczej, można by było zadać pytanie po co tworzyć nową platformę, która będzie wykorzystywana w dokładnie taki sam sposób, w jaki teraz wykorzystywane są np. systemy HP c7000 (w tej chwili chodzi mi tylko o wirtualizację).

    Jeśli chodzi o koszty licencji i utrzymania to podejście „scale up” przeważnie jest znacznie tańsze niż „scale out” – koszty licencji dla hostów, licencji dla OS zwirtualizowanych serwerów itd. Ale licencjonowanie zmiena się tak szybko, że chyba nie ma sensu w tej chwili się nad tym rozwodzić.

    Chciałem krótko, wyszło jak zwykle ; )

  4. Witam,
    W mojej opinii systemy blade nie są zawile, a tym bardziej, nie są przesadzone. Dają dużą możliwość konfiguracji, niemożliwą w rozwiązaniach opartych na serwerach rack. Systemy blade są fajną ewolucją, co ważne nie są gadzetem, a technologią która bardzo usprawnia i ułatwia budowanie i zarządzanie. I dobrze, że stają się standardem w IT.

    Przychylam się do zdania Pana Grzegorza. W mojej ocenie, Moonshoty nie mają zastąpić rozwiązań wirtualizacji. Te systemy służą raczej do uruchamiania aplikacji na poszczególnych kartach. Nie traktowałbym także moonshotów jako serwerwy, a raczej PCy. Idealnie sprawdzają sie jako pewnego rodzaju alternatywa dla Desktop Virtualization i CHYBA to jest ich „core” jeśli chodzi o zastosowanie. Ma wyjść taniej, niż tradycyjne rozwiązanie (blade, macierz, VMWareowa wirtualizacja PC, itd.).

Leave a Reply