Szukaj
Close this search box.

wirtualizacja

Case Study
Artur Skowronek

Jak zmigrowaliśmy platformę wirtualizacji bez zakłócania procesu produkcji w  Grupie Kęty

Klient: Grupa Kapitałowa Kęty Sektor: Produkcja  Grupa Kapitałowa składa się z 24 spółek i prowadzi działalność w ramach trzech segmentów biznesowych. Każdy z segmentów posiada spółkę wiodącą, której nazwa jest jednocześnie główną marką stanowiącą o rozpoznawalności produktów danego segmentu na rynku. Są nimi: Grupa KĘTY S.A., Aluprof S.A. oraz Alupol Packaging S.A.   Spółka specjalizuje się w produkcji profili, komponentów i zewnętrznych rolet okiennych wykonanych z aluminium. Jej działalność obejmuje też montaż fasad aluminiowych oraz wytwarzanie opakowań giętkich.  Cel projektu: migracja platformy wirtualizacji Migracja platformy wirtualizacji ze środowiska Cisco UCS B200M4 na platformę Lenovo ThinkSystem SR650 V2. Wirtualizacja środowiska serwerowego u Klienta działa w oparciu o technologię Hyper-V firmy Microsoft w wersji 2016. Na potrzeby ww. środowiska wykorzystywano 6 fizycznych serwerów Cisco UCS B200M4 pracujących w trybie failover rozciągniętych pomiędzy 2 lokalizacjami oddalonymi od siebie o 40 km. Na ww. platformie zainstalowano łącznie 240 serwerów wirtualnych świadczących zróżnicowane role takie jak:  serwery baz danych   serwery pocztowe  serwery aplikacyjne   serwery plikowe  serwery typu: MES, CRM  systemy operacyjne różnych typów: Windows, Linux.  Wymienione wyżej usługi są krytyczne z punktu widzenia Klienta, w związku z tym nie jest dopuszczalna przerwa w ich pracy podczas migracji.  Wyznaczone podstawowe cele:  migracja do wersji Microsoft HyperV 2019  przeprowadzenie migracji w taki sposób by zapewniona była ciągłość pracy wszystkich usług pracujących na migrowanej platformie.  uzyskanie większej mocy obliczeniowej oraz dostępnej pamięci RAM.  zwiększenie wydajności kart HBA do 16Gb/s  optymalizacja wydajności dzięki zastosowaniu technologii RDMA  Przebieg wdrożenia Klient zdecydował się na wybór platformy sprzętowej firmy Lenovo składającej się z 6 serwerów serii ThinkSystem SR650 V2 każdy w konfiguracji z 2 procesorami 16 rdzeniowymi, 1,5TB pamięci RAM, 2 dyskami SSD 480GB, 4 interfejsami Ethernet 10/25Gb, 2 interfejsami FC 16/32Gb. Dostarczony sprzęt został objęty 5 letnią gwarancją producenta z 24 godzinnym czasem usunięcia awarii. Platforma sprzętowa jest zarządzana za pomocą oprogramowania Lenovo XClarity Pro   W obrębie istniejącego klastra nastąpi wymiana serwerów metodą usuwania starych węzłów klastra i zastępowaniem ich nowymi. Wybrana metoda jest przeznaczona dla wykonania update’u środowiska na tym samym sprzęcie, jednak ze względu na konieczność zachowania ciągłości pracy jest to jedyna dostępna metoda, która nie wymaga przerwy serwisowej.  Nowe serwery zostały podłączone do sieci SAN linkami 16 Gb z zachowaniem redundancji. Każdy serwer jest wyposażony w 2 karty HBA, każda z nich została podłączona do osobnego fabrica sieci SAN.   Połączenia do sieci LAN realizowane są pomocą 2  kart 10 Gb zagregowanych z wykorzystaniem technologii Switch Embedded Teaming (SET) i podłączonych do dwóch różnych przełączników Cisco Nexus9000. Na ww. teamie zostały wykreowane wirtualne interfejsy przeznaczone do wewnętrznej i zewnętrznej komunikacji zgodnie z zaleceniami Microsoft.  W celu odseparowania obciążenia hosta do obsługi ruchu sieciowego obecnie wykorzystywane technologie Virtual Machine Queue (VMQ), Virtual Receive Side Scaling (vRSS) zostały zastąpione przez Dynamic Virtual Machine Multi-Queue (VMMQ) oraz Remote Direct Memory Access (RDMA)  Na głównych przełącznikach w Data Center zostały uruchomiono polityki QoS  Zmieniono tryb agregowania połączeń LAN z LBFO na SET tak aby korzystać z technologii: Datacentre bridging (DCB), Receive-side Checksum offloads, Remote Direct Memory Access (RDMA), Single root I/O virtualization (SR-IOV), Transmit-side Checksum offloads, Virtual Machine Queues (vVMQ), Virtual Receive Side Scaling (vRSS)  Dodano nowe węzły do obecnego klastra i wykonano w kolejnych krokach następujące czynności: udostępniono zasoby dyskowe dla nowych hostów, zmodyfikowano pule MAC adresów na nowych hostach, włączono obsługę protokołu SMB dla LiveMigration, Ustawiono 15 równoległych kolejek dla LiveMigration, Ustawiono 4 równoległe kolejki dla StorageMigration  Przeniesiono maszyny wirtualne w trybie LiveMigration na nowe hosty  Usunięto stare hosty z klastra.  Wyzwanie Głównym ryzykiem podczas migracji był tryb mieszany klastra w trakcie pracy serwerów różnych producentów. Tryb ten został wcześniej przetestowany w warunkach laboratoryjnych. Okres pracy w tym trybie został maksymalnie skrócony i ograniczył się tylko do czasu migracji maszyn wirtualnych.   Efekty prac Bardzo istotne znaczenie w projekcie miało zastosowanie odpowiedniego planu i harmonogram migracji poszczególnych maszyn, które musiały odbywać się w dokładnie określonym czasie ze względu na konieczność zachowania ciągłości działania w trybie 24/7 systemów produkcyjnych .  Dostarczenie platformy sprzętowej zapewniającej odpowiednią moc obliczeniową, pamięć oraz możliwość wykorzystania nowych funkcjonalności.   Brak wpływu obsługiwanego przez serwery ruchu sieciowego na obciążenie CPU hostów dzięki zastosowaniu technologii RDMA.  „Projekt pozwolił zwiększyć moc obliczeniową oraz niezawodność platformy wirtualizacyjnej Hyper-V bez konieczności zwiększenia ilości licencji” Tomasz Michałek – Kierownik ds. infrastruktury IT w Grupie Kęty S.A. 

Czytaj więcej »
Case Study
Zbigniew Witecki

Jak utrzymujemy infrastrukturę IT w elektrociepłowni 

Klient: Grupa Polenergia Sektor: Energetyka Sektor: Energetyka Cel projektu: Utrzymanie infrastruktury IT Opis rozwiązania Inżynierowie IT Challenge w ramach wsparcia prowadzą bieżącą działalność utrzymaniową oraz w ścisłej współpracy z Klientem tworzą koncepcje rozwojowe. W ciągu szeregu lat znając potrzeby Klienta zaproponowano i wdrożono urządzenia oraz oprogramowanie w następujących obszarach:  Wirtualizacja infrastruktury serwerowej Rozbudowa infrastruktury storage’owej Zewnętrzna zapora sieciowa, system ochrony przed intruzami, filtrowania treści i ochrony ruchu HTTP(S) Redundancja dostępu do internetu System zdalnego dostępu VPN SSL System filtrowania treści i ochrony ruchu SMTP System monitorowania prac użytkowników zewnętrznych Przełączniki Fibre Channel sieci SAN Biblioteka taśmowa System kopii zapasowych (platforma sprzętowa wraz z oprogramowaniem) Własny system pocztowy System ochrony antywirusowej wraz z XDR System ochrony antywirusowej urządzeń mobilnych Okresowa weryfikacja poprawności działania infrastruktury w warstwie software’owej, antywirusowej oraz sieciowej Wirtualizacja infrastruktury serwerowej Rozbudowa infrastruktury storage’owej Zewnętrzna zapora sieciowa, system ochrony przed intruzami, filtrowania treści i ochrony ruchu HTTP(S) Redundancja dostępu do internetu System zdalnego dostępu VPN SSL System filtrowania treści i ochrony ruchu SMTP System monitorowania prac użytkowników zewnętrznych Przełączniki Fibre Channel sieci SAN Biblioteka taśmowa System kopii zapasowych (platforma sprzętowa wraz z oprogramowaniem) Własny system pocztowy System ochrony antywirusowej wraz z XDR System ochrony antywirusowej urządzeń mobilnych Okresowa weryfikacja poprawności działania infrastruktury w warstwie software’owej, antywirusowej oraz sieciowej Wyzwanie Wszystkie prowadzone prace ze względu na charakter działalności produkcyjnej Klienta są wykonywane z uwzględnieniem zachowania ciągłości działania bieżącej infrastruktury. Efekt prac Dostarczono ponad 30 różnego rodzaju urządzeń i oprogramowania W celu zapewnienia odpowiedniego poziomu usług zorganizowany zespół inżynierów od prawie 4 lat pracuje na bieżąco by zaspokoić potrzeby Klienta   W ramach współpracy zespół inżynierów prowadzi konsultacje w sprawach związanych z rozwojem i innymi potrzebami Klienta  Dostarczono ponad 30 różnego rodzaju urządzeń i oprogramowania W celu zapewnienia odpowiedniego poziomu usług zorganizowany zespół inżynierów od prawie 4 lat pracuje na bieżąco by zaspokoić potrzeby Klienta   W ramach współpracy zespół inżynierów prowadzi konsultacje w sprawach związanych z rozwojem i innymi potrzebami Klienta 

Czytaj więcej »
Case Study
Andrzej Kowalik

CASE STUDY : Migracja infrastruktury Storage Area Network (SAN) w Grupie Kęty

Klient: Grupa Kapitałowa Kęty Grupa Kapitałowa składa się z 24 spółek i prowadzi działalność w ramach trzech segmentów biznesowych. Każdy z segmentów posiada spółkę wiodącą, której nazwa jest jednocześnie główną marką stanowiącą o rozpoznawalności produktów danego segmentu na rynku. Są nimi: Grupa KĘTY S.A., Aluprof S.A. oraz Alupol Packaging S.A.   Spółka specjalizuje się w produkcji profili, komponentów i zewnętrznych rolet okiennych wykonanych z aluminium. Jej działalność obejmuje też montaż fasad aluminiowych oraz wytwarzanie opakowań giętkich. Cel projektu: rozbudowa sieci SAN Klient jest liderem w produkcji elementów aluminiowych od folii spożywczej po konstrukcje budowlane. Głównym celem projektu było zapewnienie ciągłości działania aplikacji w Grupie Kęty SA, zwiększenie pojemności i wydajności przestrzeni dyskowych, rozbudowa sieci SAN. Ograniczenia platformy pamięci masowej dla obecnej konfiguracji: Bardzo mała ilość dostępnej przestrzeni dyskowej Mała wydajność nietypowych operacji oraz operacji na pełnym zestawie danych Coraz dłuższe czasy odpowiedzi z IBM SAN Volume Controller do hostów korzystających z udostępnionych zasobów Znaczne piki obciążenia portów FC SVC Dużą różnicę wydajności po przełączeniu systemów do drugiego ośrodka Brak wolnych portów FC w sieci SAN Brak bieżącego monitoringu środowiska SAN Bardzo mała ilość dostępnej przestrzeni dyskowej Mała wydajność nietypowych operacji oraz operacji na pełnym zestawie danych Coraz dłuższe czasy odpowiedzi z IBM SAN Volume Controller do hostów korzystających z udostępnionych zasobów Znaczne piki obciążenia portów FC SVC Dużą różnicę wydajności po przełączeniu systemów do drugiego ośrodka Brak wolnych portów FC w sieci SAN Brak bieżącego monitoringu środowiska SAN Przebieg wdrożenia Po przeprowadzonej analizie aktualnego środowiska zostało zaproponowane następujące rozwiązanie: wymiana wszystkich node’ów wirtualizatora IBM SAN Volume Controller (zachowując bez zmian konfigurację i funkcjonalność Stretched Cluster) zastąpienie macierzy IBM V7000 (gen1 i gen2) dwoma macierzami IBM V7000 gen3 wyposażonymi w dyski flash, SAS i Nearline SAS. Aby umożliwić zaplanowaną rozbudowę każdy z dwóch przełączników FC w jednym z DC został rozbudowany o 12 portów. wymiana wszystkich node’ów wirtualizatora IBM SAN Volume Controller (zachowując bez zmian konfigurację i funkcjonalność Stretched Cluster) zastąpienie macierzy IBM V7000 (gen1 i gen2) dwoma macierzami IBM V7000 gen3 wyposażonymi w dyski flash, SAS i Nearline SAS. Aby umożliwić zaplanowaną rozbudowę każdy z dwóch przełączników FC w jednym z DC został rozbudowany o 12 portów. Projekt składał się z wielu zadań od siebie zależnych, jak również od wykonania prac nie będących bezpośrednio jego częścią – np. zwiększenie prędkości łączy pomiędzy lokalizacjami. Etap 1 – prace były przeprowadzone przy zachowaniu pracy on-line 2 lokalizacji oddzielonych geograficznie Rozbudowa przełączników FibreChannel Instalacja i konfiguracja macierzy Wymiana node’y wirtualizatora IBM SVC Etap 2 : Migracja danych online ze starych zasobów dyskowych na nowe.   Przy tej okazji pojawił się największy problem – wirtualizacja oparta o IBM SVC wykorzystuje mechanizm EasyTier. Pula dyskowa stworzona z dysków SSD i SAS okazała się niewystarczająco wydajna przy migracji bardzo dużych ilości danych – konfiguracja IBM SVC zakłada w takim przypadku pierwotne umieszczenie danych na dyskach SAS i dopiero późniejsze przemieszczenie ich na dyski SSD. W związku z powyższym na czas migracji stworzona została pula dyskowa składająca się wyłącznie z dysków SSD, która została rozbudowana o dyski SAS po skończeniu migracji danych. Efekt prac Całe dostarczone środowisko zostało objęte monitoringiem za pomocą oprogramowania IBM Spectrum Control Advanced. Klient wymagał zachowania ciągłości pracy firmy podczas wszystkich prac związanych z projektem rozbudowy pamięci masowej.  Niezależnie od tego wymagane było niepogorszenie wydajności żadnego z systemów Klienta podczas całego procesu implementacji nowego rozwiązania. „Ponieważ migracja środowiska storage przypadła na szczyt sezonu w naszej branży i fabryki pracowały w trybie ciągłym 24×7, kluczowe było dla Grupy, aby wszystkie prace odbyły się bez wpływu na produkcję” – Roch Jasiaczek, Dyrektor IT w Grupie Kęty. 

Czytaj więcej »
BLOG
Krzysztof Tyl

Wirtualizacja pamięci masowej

Wirtualizacja pamięci masowej jest terminem szeroko stosowanym w branży IT. Może być stosowane do różnych technologii. W rzeczywistości dostawcy rozwiązań infrastruktury SAN na wiele sposobów wykorzystują to określenie, dlatego warto zacząć od zdefiniowania pojęcia wirtualizacji pamięci masowej. IBM opisuje wirtualizację pamięci masowej w następujący sposób: Wirtualizacja pamięci masowej jest również zdefiniowana przez Storage Networking Industry Association (SNIA) wersja 2 modelu pamięci pokazana na poniższym rysunku: Funkcje wirtualizacji pamięci masowej są potężnym narzędziem w rękach administratorów infrastruktury DataCenter. Aby jednak organizacja mogła w pełni wykorzystać możliwości z wirtualizacji pamięci masowej, jej wdrożenie musi być końcowym rezultatem procesu, który zaczyna się od określenia celów organizacji. Dla projektu wirtualizacji pamięci masowej, aby uzyskać sukces, organizacja musi określić, co chce osiągnąć, zanim zacznie myśleć o tym, jakie chce wdrożyć rozwiązanie.Obecnie organizacje szukają niedrogich i wydajnych sposobów przechowywania, przetwarzania, ochrony i zarządzania swoich danych. Ponadto oczekują, że środowisko pamięci masowej będzie łatwe w zarządzaniu i wystarczająco elastyczne, aby obsługiwać szeroki zakres aplikacji, serwerów i rozwiązań mobilnych. Wymagania biznesowe szybko się zmieniają. Są jednak pewne powtarzające się wyzwania przed którymi stają klienci, a które prowadzą do przyjęcia wirtualizacji pamięci masowej: W niezwirtualizowanym środowisku SAN każdy system jest „wyspą”, którą należy zarządzać osobno. W dużych środowiskach SAN wyzwaniem staje się zarówno ilość oddzielnych systemów do zarządzania jak i ich różne interfejsy oraz brak jednolitego obrazu całego środowiska. Wyzwania te zagrażają zdolności organizacji do zarządzania pamięcią masową jako spójnym organizmem oraz w celu utrzymania aktualnego widoku stanu systemu.IBM SAN Volume Controller, na którym działa oprogramowanie IBM Spectrum Virtualize, zmniejsza liczbę oddzielnych środowisk, które muszą być zarządzane w jednym systemie. Po inicjalnej konfiguracji wewnętrznych podsystemów pamięci masowej, codzienne zarządzanie pamięcią masową jest wykonywane za pomocą jednego graficznego interfejsu użytkownika (GUI). W tym samym czasie, administratorzy uzyskują dostęp do bogatego zestawu funkcji dostarczanego przez IBM Spectrum Virtualize, a określone funkcje są natywnie dostępne w zwirtualizowanych systemach pamięci masowej. Wirtualizacja pamięci jest podstawową technologią, która umożliwia realizację elastycznych i niezawodnych systemów do przechowywania danych. Pomaga organizacjom lepiej dostosować architekturę IT do wymagań biznesu, upraszcza administrowanie pamięcią masową i ułatwia działom IT spełnić oczekiwania biznesowe.IBM Spectrum Virtualize działający na IBM SAN Volume Controller to dojrzała dziewiąta generacja rozwiązanie do wirtualizacji, które wykorzystuje otwarte standardy i jest zgodne z modelem pamięci masowej SNIA (Storage Networking Industry Association). IBM SAN Volume Controller to oparty na urządzeniach, blokowy silnik do wirtualizacji storage, który przenosi logikę sterowania (w tym zaawansowane funkcje przechowywania) z wielu osobnych macierzy do scentralizowanej platformy w sieci SAN. IBM Spectrum Virtualize może poprawić wykorzystanie zasobów pamięci, uprościć pamięć zarządzanie i poprawić dostępność aplikacji biznesowych. Wykorzystano materiały partnera – firmy IBM

Czytaj więcej »

Zgłoszenie serwisowe

Dane firmy

Masz pytanie? Napisz do nas