Bezpieczeństwo w infrastrukturze hybrydowej – dziś i jutro

Podobne tematy

Czy promocje w polskich sklepach są skuteczne? Nowe dane mówią, że nie do końca

Koniec z drukowanymi gazetkami i wielosztukami? Tradycyjne promocje odchodzą do lamusa. Żeby zarabiać i przyciągać klientów, polscy detaliści muszą...

Ile kosztuje wyciek danych?

Ochrona danych to temat priorytetowy dla każdego odpowiedzialnego biznesu. Wciąż jednak zarządzanie dużą ilością informacji stanowi problem sam w...

5G, czyli rewolucja dla IoT

Dzięki wdrożeniu sieci 5G na kilometrze kwadratowym będzie mogło stabilnie działać nawet milion urządzeń i czujników podłączonych do internetu rzeczy....

O bezpieczeństwie infrastruktury IT w nadchodzących latach rozmawiamy z Piotrem Sękowskim, System Storage Sales Managerem w IBM Poland & Baltics oraz Danielem Wysockim, specjalistą ds. bezpieczeństwa w Dziale Cybersecurity w firmie Advatech, która jest jednym z największych polskich integratorów rozwiązań informatycznych.

Redakcja: Ostatnie lata obfitowały w głośne naruszenia bezpieczeństwa infrastruktury IT, zarówno w kontekście biznesowym, jak i geopolitycznym. Wystarczy wspomnieć o włamaniu do serwerów wytwórni Sony, ingerencji w wybory prezydenckie w Stanach Zjednoczonych, czy o hybrydowej  wojnie między Ukrainą a Rosją, gdzie cyberterroryzm też odegrał swoją rolę. W tym kontekście zasadne jest pytanie, czy w dzisiejszych czasach możliwe jest bezpieczne i niezawodne dostarczanie danych użytkownikom, bez narażania się na skuteczny atak ze strony hakerów.

Piotr Sękowski: Na początku 2020 roku Światowe Forum Ekonomiczne opublikowało listę głównych zagrożeń dla naszego świata. Wśród nich, między innymi, wymieniono zmiany klimatu, katastrofy naturalne oraz niedobór wody, natomiast w sferze technologicznej wskazano na kradzież danych, cyberataki oraz niedostępność infrastruktury informatycznej[i]. Takie spojrzenie potwierdzają też wnioski płynące z najnowszego badania przeprowadzonego przez Phenomen Institute na kilkuset globalnych firmach z całego świata: średni koszt wycieku danych w 2019 roku wyniósł 3,92 mln dolarów[ii], natomiast średni koszt niedostępności infrastruktury informatycznej w 2019 roku, wg portalu Statista.com, wynosi najczęściej pomiędzy 300 a 500 tys. dolarów[iii].

Jak zatem zminimalizować wpływ tych zagrożeń na funkcjonowanie biznesu? Doskonaląc procedury? Może zmieniając technologie na jeszcze nowsze i bardziej zaawansowane? A może jest jakaś inna, trzecia droga?

Daniel Wysocki: Odpowiedź na to pytanie jest bardzo trudna, bo zbyt wiele czynników decyduje o wyborze optymalnej strategii działania. W mojej ocenie decydują trzy główne parametry – realna oceny ryzyka w każdym obszarze biznesowym, spójność proceduralna firmy oraz zaawansowanie technologiczne w zakresie infrastruktury IT. Na to wszystko niestety nakłada się nasze przeświadczenie, jako społeczeństwa, że jesteśmy w stanie przewidzieć wszystkie zagrożenia. Jednak, jak dowodzi pandemia, w której się znaleźliśmy, nie jest to prawda. Zawsze może się pojawić coś, o czym nie pomyśleliśmy, a czego skutki mogą być dla wszystkich bardzo dotkliwe i kosztowne.

Skupmy się zatem na stronie technologicznej. Na ile współczesne architektury IT są przygotowane na obecne i przyszłe zagrożenia?

Daniel Wysocki
Daniel Wysocki

DW: Zacznijmy od zabezpieczeń w warstwie aplikacyjnej. Szerokie zastosowanie technologii wielochmurowej, bo mowa tu zarówno o chmurze prywatnej, publicznej jak i hybrydowej, przenosi dyskusję w nowy wymiar. Już nie zastanawiamy się, czy stosować rozwiązania chmurowe, ale jak ich bezpiecznie używać.

Rozbudowa infrastruktury o wciąż nowsze elementy powoduje, że zwiększa się także liczba punktów narażonych na cyberatak. Przestępcy są w stanie zagrozić firmie wykorzystując luki w zabezpieczeniach i brak pełnego wglądu w nową, stale zmieniającą się infrastrukturę.

Firmy oczywiście nie pozostają bierne, podejmują różne środki zaradcze. Wiele z nich korzysta z wyspecjalizowanych i naprawdę zaawansowanych narzędzi, chcąc w pełni zabezpieczyć swoją infrastrukturę, ale i tu czai się niebezpieczeństwo. Według danych zgromadzonych przez IBM, firmy wykorzystują średnio od 25 do 49 różnych narzędzi bezpieczeństwa pochodzących od 10 różnych producentów. Zatem firmom na pewno nie brakuje danych odnoszących się do bezpieczeństwa. Clou problemu leży w tym, że nie mają one narzędzi do szybkiego znalezienia odpowiednich danych bez potrzeby ich przenoszenia, czy agregacji w nowym miejscu. Dodatkowo 55% firm narzeka na brak integracji między narzędziami do analizy danych i analizy bezpieczeństwa, a 48% z nich uważa, że nadmierna liczba rozwiązań zabezpieczających nie tylko zwiększa złożoność infrastruktury, ale i ogranicza widoczność tego, co się aktualnie w niej dzieje.

Czyżby było to sygnał, żebyśmy nie przesadzali z tą nowoczesnością? Przecież tak, czy inaczej, na ataki trzeba się jakoś przygotować. Jak pogodzić, te przynajmniej z pozoru sprzeczne działania?

DW: Ująłbym to tak – pomocną dłoń wyciągnął IBM z nowym portfolio produktów o nazwie IBM Cloud Pak. IBM, jako jeden z  założycieli porozumienia OASIS Open Cybersecurity Alliance, współpracuje z czołowymi producentami systemów bezpieczeństwa tworzącymi otwarte standardy wymiany informacji. Celem jest umożliwienie łatwej integracji różnych rozwiązań oraz zmniejszenie zależności Klientów od jednego dostawcy. Bazą technologiczną są wspólnie opracowywane rozwiązania Open Source.

Wspomniany IBM Cloud Pak for Security, dzięki integracji z systemem Red Hat OpenShift, pozwala na wykorzystanie skonteneryzowanych aplikacji do budowy niezwykle elastycznych rozwiązań w oparciu o mikroserwisy. Unikalną cechą tego rozwiązania jest jego elastyczność operacyjna, pozwalająca na instalację w dowolnie wybranym przez nas miejscu, bez znaczenia  –  lokalnie, czy w chmurze.

Teraz najważniejsze – te otwarte standardy wymiany informacji dają możliwość łączenia się z obecnie istniejącymi narzędziami tak, aby mieć dostęp do pełnej analizy bezpieczeństwa bez potrzeby przenoszenia danych, i to nawet w środowiskach wielochmurowych. Dzięki wbudowanym funkcjom  wyszukiwania możemy jednocześnie badać wiele źródeł informacji, co pozwala na szybką analizę ogromnych zbiorów danych. Dodatkowo, dzięki implementacji orkiestracji i automatyzacji, analitycy bezpieczeństwa mają możliwość szybkiego podejmowania optymalnych decyzji i działań, a wszystko to w ramach zunifikowanego i nowoczesnego interfejsu.

To wszystko dowodzi, że dobierając właściwe rozwiązanie, można uniknąć pułapki nadmiaru systemów i danych związanych z bezpieczeństwem, bez utraty jakości zarządzania tymże bezpieczeństwem.

Brzmi to bardzo sensownie. Jak zatem wyglądają perspektywy zabezpieczeń w warstwie infrastrukturalnej? Czy serwery i cały proces dostarczania i przechowywania danych są równie dobrze chronione?

Piotr Sękowski
Piotr Sękowski

PS: Przyjrzyjmy się zatem warstwie związanej z przetwarzaniem danych. Bez dwóch zdań, najbardziej popularna i powszechna jest architektura x86, a to oznacza także, że jest najlepiej rozpoznana i najczęściej atakowana. To cena, jaką płacimy za jej dostępność i masowość.

W prasie branżowej możemy przeczytać o niedawnych atakach RIDL, Fallout, czy ZombieLoad. Hakerzy byli w stanie zbierać nie tylko wrażliwe informacje z systemu operacyjnego i innych procesów, ale także przechwycić klucze szyfrujące i hasła[iv]. Skutki tego typu ataków mogą być bardzo dotkliwe finansowo.

Wniosek jest zatem bardzo prosty – najbardziej krytyczne systemy powinny być przetwarzane na platformach o zamkniętej architekturze. Przyjrzyjmy się twardym danym: 90% największych firm energetycznych, 80% największych firm z branży retail, 92% największych firm medycznych, a także 90% transakcji płatniczych kartami kredytowymi jest realizowanych na serwerach IBM klasy mainframe z systemem operacyjnym z/OS. To nie przypadek. Zamknięta architektura procesora połączona z funkcjonalnością sprzętowego szyfrowania oraz funkcje weryfikacji zabezpieczeń zgodności czynią tą platformę najbezpieczniejszą na świecie. Takie są fakty. Innej drogi nie ma.

Nawiązując do wypowiedzi Daniela o systemach Open Source –  być może nie wszyscy wiedzą, ale platforma mainframe jest także dostępna dla tych, którzy używają otwartych baz danych oraz aplikacji zbudowanych w środowisku kontenerowym w architekturze mikroserwisów.  w oparciu między innymi o OpenShift. Mowa tu o serwerach mainframe IBM LinuxONE, które posiadają standardowy procesor mainframe pracujący pod kontrolą systemu operacyjnego Linux. Mamy tu zatem perfekcyjne połączenie otwartości z bezpieczeństwem. Najważniejsze jednak zostawiłem na koniec: obecnie jest to najwydajniejszy procesor na świecie, który jednocześnie ma najniższy wskaźnik nieplanowanej rocznej niedostępności.[v] Chapeaux bas! W jednym urządzeniu mamy maksymalizację wydajności, dostępności i bezpieczeństwa.

Miło się słucha takich komplementów pod adresem platformy serwerowej, ale co z warstwą przechowywania i dostarczania danych? Jak tu wyglądają obecne i przyszłe kwestie bezpieczeństwa?

PS: Tu zadanie jest tylko pozornie proste – należy tak przygotować infrastrukturę IT, aby zapewnić nieprzerwane dostarczanie i odbieranie danych z systemów biznesowych, a także skuteczne i trwałe ich przechowywanie. Jak to zwykle bywa, pod pozorami prostoty kryje się całe spektrum różnych rozwiązań, metod i działań mających w sumie ten sam cel.

Przykład pierwszy z brzegu to konieczność utworzenia środowiska zapasowego DR (Disaster Recovery). Rzecz wydawałoby się oczywista, jednak w praktyce spotykamy kluczowe, choć na szczęście nie krytyczne środowiska, które nie posiadają ani środowiska zapasowego, ani nawet kopii bezpieczeństwa (backup). Czasami dzieje się tak w środowiskach testowo-deweloperskich, które nie są krytyczne do czasu utraty ich dostępności. W przypadku całkowitej utraty takich danych może się okazać, że znaczne koszty osobowe zespołów deweloperskich, nowe wersje aplikacji, bądź nowe kampanie muszą być zrealizowane od nowa. Życie pokazuje, że te z pozoru mało prawdopodobne scenariusze potrafią się ziścić w rzeczywistości. Bywało już w historii, że sytuacja katastroficzna typu pożar, powódź lub wybuch gazu gaśniczego może dotknąć także serwerowni. A wtedy utrata danych jest gwarantowana.

Jak się zatem zabezpieczyć przed konsekwencjami takich zdarzeń?

PS: Trzeba szukać rozwiązań minimalizujących ryzyko utraty danych. W tym przypadku doskonałym rozwiązaniem byłoby wykorzystanie funkcjonalności chmury hybrydowej. Wystarczyłoby zbudować kopię bezpieczeństwa środowiska testowo-deweloperskiego w chmurze publicznej. Można to bardzo prosto i szybko zrobić za pomocą aplikacji IBM Spectrum Protect. Na dodatek wbudowana w ten system funkcja analizy archiwizowanych danych natychmiast powiadomi administratora o każdej występującej anomalii. Dzięki temu będzie można rozpoznać ataki typu ransomware.

Na nieco wyższym poziomie można zastosować replikację synchroniczną, bądź asynchroniczną do chmury publicznej typu IBM Cloud lub Amazon Web Services. Pomocna jest wtedy technologia IBM Spectrum Virtualize, która zapewnia spójną replikację danych. W ten sposób, nawet w przypadku nagłej i nieplanowanej awarii całego podstawowego centrum danych nie ma przerw w dostępie do danych, bez względu na okoliczności. Są to absolutnie bezcenne cechy chmur hybrydowych.

Podsumujmy zatem, jak wygląda infrastruktura hybrydowa w kontekście bezpieczeństwa danych? Jakie wyzwania nas czekają w tych kwestiach w najbliższych latach?

DW: Pomimo wciąż pojawiających się nowych wyzwań związanych z bezpieczeństwem, widać wyraźnie, że rozwiązania wielochmurowe stają się powoli standardem.  Od tego nie ma odwrotu. Tym bardziej, że funkcjonalności jakie oferują chmury hybrydowe wciąż się rozrastają w kierunku szybkości, wygody, łatwości administrowania i właśnie bezpieczeństwa. Zaangażowanie takich firm, jak IBM, gwarantuje odpowiedni potencjał innowacyjności i twórczego podejścia do pojawiających się problemów. Chmura hybrydowa oferuje aktualnie najwyższy poziom bezpieczeństwa danych, bez względu na to, gdzie się te dane znajdują. O ich bezpieczeństwo dbają najwyższej klasy specjaliści. Dlatego warto być mądrym przed szkodą i skorzystać z tego, co oferuje zaawanasowana technologia IT.

 

Piotr Sękowski- IBM Polska
Absolwent Akademii Ekonomicznej w Krakowie oraz studiów podyplomowych na kierunku telekomunikacja na Akademii Górniczo-Hutniczej w Krakowie.
Posiada ponad 13 letnie doświadczenie w branży IT. Od 5 lat kieruje działem sprzedaży pamięci masowych w IBM.

Daniel Wysocki- Advatech Sp. z o.o.
Daniel Wysocki ukończył studia na wydziale Inżynierii Mechanicznej i Robotyki na Akademii Górniczo-Hutniczej w Krakowie. Posiada 19 letnie doświadczenie w branży IT. Obecnie pracuje w firmie Advatech jako Security Specialist . Odpowiedzialny jest za dobór innowacyjnych rozwiązań z zakresu bezpieczeństwa IT, ze szczególnym naciskiem na możliwości wykorzystania sztucznej inteligencji i uczenia maszynowego.

[i] https://www.weforum.org/agenda/2020/01/top-global-risks-report-climate-change-cyberattacks-economic-political/
[ii] https://www.ibm.com/security/data-breach
[iii] https://www.statista.com/statistics/753938/worldwide-enterprise-server-hourly-downtime-cost/
[iv] https://www.itproportal.com/news/new-intel-cpus-hit-by-cyberattack/
[v] https://www.ibm.com/downloads/cas/DV0XZV6R
- Reklama -

Gorące tematy

- Reklama -
Używamy plików cookie, aby zapewnić lepszą jakość przeglądania. Kontynuując korzystanie z tej witryny, wyrażasz zgodę na korzystanie z plików cookie.
Używamy plików cookie, aby zapewnić lepszą jakość przeglądania. Kontynuując korzystanie z tej witryny, wyrażasz zgodę na korzystanie z plików cookie.