Bezpieczeństwo i trwała ochrona zasobu cyrfowego | Biznes Netia
Menu główne

Cyfrowe archiwum - bezpieczeństwo i trwała ochrona

30 lipca 2020, Autor: Netia

Dla zachowania bezpieczeństwa, dostępności, skalowalności i integralności archiwum po cyfryzacji, stosujemy wybrane narzędzia i technologie jak niżej. Opisane punkty to dobre praktyki, rekomendacje i zalecenia. Tworzenie cyfrowego archiwum należy zawsze zaprojektować przed, już na etapie jego cyfryzacji. Zapraszamy do lektury artykułu autorstwa Piotra Horbania z Netii oraz Dawida Żądłowskiego.

 
 
 
   

Zasoby fizyczne i chmurowe

 

Archiwa po cyfryzacji można przechowywać na zasobach dyskowych (macierze dyskowe), oraz na zasobach taśmowych. Każde z nich podlega swoim ograniczeniom ale też posiada własne zalety.

 

• Zasoby dyskowe (dyski talerzowe HDD i Solid-State Drive)
• Taśmy
• Zasoby serwerowe i sieciowe
• Chmura publiczna i prywatna


Serwery, sieć, storage

 

To serwery, przełączniki, routery służące zarządzaniu i kontroli środowiska przechowującym i udostępniającym dane. Jednocześnie te zasoby powinny umożliwiać kontrolę dostępu i zapewniać bezpieczeństwo przed ingerencją z zewnątrz (ataki na systemy informatyczne, wynoszenie danych poufnych lub zabezpieczonych prawami autorskimi) dzięki rozwiązaniom sieciowym klasy UTM i NGFW

 

Sieć powinna być wydajna i umożliwiać dostęp do przewidywalnej ilości użytkowników. Jednocześnie być zabezpieczona przed ingerencją z zewnątrz. To sieć rozległa WAN, łącząca np. różne punkty przetwarzania danych, sieć LAN (np. sieć wewnętrzna w czytelni, sieć w serwerowni), sieci bezprzewodowe, oraz łącza dostępowe do punktów dystrybucyjnych i ośrodków zapasowych.

 

Zarówno sieć i serwery należy projektować z lekkim nadmiarem, ponieważ ich skalowanie jest kosztowne, wymaga inwestycji CAPEX i nieraz jest kłopotliwe.

 

Zasoby fizyczne należy umiejscowić w bezpiecznej serwerowni z kontrolą dostępu, zapewnionym chłodzeniem, ochroną przeciw pożarową i zapasową linią energetyczną/agregatami/bateriami. Budowa własnej serwerowni jest bardzo kosztowna i nieopłacalna w małym wymiarze. Rozwiązaniem są ośrodki przetwarzania danych – Data Center, gdzie można bezpiecznie utrzymywać swoje systemy na poziomie bezpieczeństwa i dostępności, który najczęściej nie jest opłacalny do wykonania we własnym zakresie.

 

Zasoby dyskowe to macierze dyskowe lub dyski w serwerach. W zależności od tego jakie archiwa przechowujemy i (co istotniejsze) jak je udostępniamy i używamy – taki należy zaprojektować system dyskowy. Dyski są szybkie i bardzo szybkie (SSD), łatwo wymienialne w razie awarii lub upgrade, podlegają kontroli stanu działania na bieżąco. Umożliwiają łatwy dostęp. Służą danym „gorącym”, czyli tym, które są używane na bieżąco.

 

Taśmy – obecnie najczęściej używane standardy to LTO5 (pojemność 3TB), nowszy LTO6 (pojemność 6,25 TB), oraz najnowszy: LTO7 (pojemność 15 TB). Prędkość LTO6 (obecnie najbardziej powszechnej generacji) to maksymalnie 400MB/s, ale nie jest osiągana stale – zależy od napędu, rodzaju plików, sposobu kompresji, środowiska serwerowego. Napędy taśmowe nadają się do archiwizacji danych zgromadzonych na dyskach. Z powodu ich wad nadają się do danych „zimnych” – nie używanych obecnie lub backupowanych. Podlegają degradacji jakości z upływem czasu.

 

Chmura

 

To zasoby serwerowe, dyskowe, sieciowe oraz systemowe w postaci wirtualnej. Za pomocą chmury można odwzorować środowisko fizyczne, lecz dodając do niego wysoką skalowalność i dostępność (np. awaria zasilania nie ma wpływu na chmurę publiczną, można bardzo szybko dodać brakujący storage czy moc obliczeniową)

 

Wyróżniamy modele chmur (cloud) publiczną, prywatną, hybrydową oraz multicloud.

 

Chmura publiczna jest najbardziej rozpoznawalna i powszechna. Zasoby tego modelu należą do zewnętrznego dostawcy i są dostępne przez łącze internetowe; są współdzielone pomiędzy pozostałymi klientami tego dostawcy w tym modelu. Wirtualizator dba o to, aby te systemy się nie przenikały w żaden sposób. Jej cechą jest bardzo wysoka skalowalność i całkowity brak odpowiedzialności za infrastrukturę po stronie użytkownika. Klient korzysta tylko z zasobów wykreowanych jako chmura (moc obliczeniowa, storage, licencje, platformy).

 

Cloud prywatny to chmura na własnych zasobach serwerowych lub wynajętych, lecz całkowicie wyodrębnionych od reszty środowiska. Ma wady ograniczonej skalowalności w porównaniu do chmury publicznej, nadaje się do danych wrażliwych oraz tych, które nie mogą opuszczać firmy. Korzyściami tego modelu są: większa elastyczność i większe bezpieczeństwo.

 

Cloud hybrydowy to połączenie środowiska publicznego (np. Netia Compute) ze środowiskiem chmury prywatnej – albo u innego dostawcy albo na własnych serwerach. Dzięki temu dane, które nie mogą opuszczać firmy/kraju/środowiska mogą być przetwarzane w chmurze prywatnej, a reszta aplikacji (np. dla kontrahentów) jest umiejscowiona na zasobach chmury publicznej.

 

Chmura to bardzo dobry sposób na udostępnianie archiwum w Internecie. Jej zasoby są stale dostępne i skalowalne wraz z przyrostem danych i użytkowników. Poprzez aplikacje chmurowe można dystrybuować zasoby archiwum w postaci do odczytu np. skanów czy wyszukiwanie baz danych. Do baz danych udostępnionych publicznie należy stosować zaawansowane rozwiązania bezpieczeństwa, jak chociażby klasy WAF - Web Application Firewall chroni szczególnie aplikacje chmurowe i bazy danych przed, atakiem na bazę w celu jej zablokowania, zniszczenia czy wykradzenia danych.


Sieć - dostęp z zewnątrz

 

Aby nasze cyfrowe archiwum udostępnić w formie ograniczonej, do zapytań, kwerend lub w pełni do pobrania to potrzebujemy zorganizować odpowiednie zasoby sieciowe. Jeżeli zasoby są umiejscowione naszej serwerowni to dobrym rozwiązaniem jest SAN, czyli sieć pamięci masowej. Jest to wyodrębniona przestrzeń gwarantująca serwerom szybki i bezpieczny dostęp do plików na urządzeniach. Sieć SAN jest łatwo skalowalna i zcentralizowana. SAN na etapie projektowania powinien mieć zapewnioną integralność, poufność, dostępność i możliwość zarządzania. SAN jest umiejscowione wewnątrz infrastruktury, jednak przy wszechobecnej sieci WAN i codziennych atakach na systemy informatyczne, jest ona również zagrożona – przy uzyskaniu przez napastnika dostępu do sieci SAN (do serwera bądź switcha) z zewnątrz istnieje niebezpieczeństwo przerwania ciągłości działania aplikacji i utraty danych lub utraty ich poufności. W tym celu stosuje się systemy ochrony zarówno wykrywania włamań, naruszeń integralności, wycieków danych, korelacji zdarzeń z incydentów i raportów podsystemów sieciowych.


SAN pozwala na przetwarzanie danych pomiędzy serwerami, które z kolei te dane udostępniają za pomocą baz danych dla odbiorców.  


Streaming treści audio-wideo

 

Nadchodzi moment, kiedy mamy już zrobione zasoby obliczeniowe, sieć, bezpieczeństwo i teraz chcemy pokazać je światu. Możliwości jest bardzo wiele. Musimy zaprojektować system w taki sposób aby było możliwe udostępnianie zasobów wielu użytkownikom na raz w żądanej jakości i przy jednoczesnych ale nie jednakowych zapytaniach. Np. jeżeli odbiorca zechce odtworzyć film i chwilę po nim ten sam film odtwarza kolejny odbiorca, to dla nich to będą 2 osobne indywidualne kanały strumienia danych. Pod to musimy zaprojektować odpowiednie macierze, które dają nam bardzo dużo operacji wejścia/wyjścia na sekundę. Zapewnić im redundancję i niezależność geograficzną. Dzięki temu unikniemy przestojów w odtwarzaniu, opóźnień i utraty łączności.

 

Bezpieczeństwo

 

Kontrola dostępu do systemów IT

 

Ma na celu ograniczenie dostępu do informacji i urządzeń do przetwarzania informacji. Lepiej jest, gdy ustanawia się zasady kontroli dostępu, aby myśleć w kategoriach "Wszystko jest ogólnie zabronione, chyba że jest to wyraźnie dozwolone", a nie odwrotnie: "Wszystko jest ogólnie dozwolone, chyba że jest zabronione".

Następna kontrola to Dostęp do sieci i usług sieciowych i mówi, że użytkownicy powinni mieć dostęp tylko do sieci i usług sieciowych, do których używania zostali specjalnie upoważnieni.

 

Polityka kontroli dostępu powinna obejmować sieci i usługi sieciowe, do których dostęp jest możliwy. Wszelkie procedury autoryzacji w celu określenia, kto ma prawo dostępu do jakich sieci. I jakie są środki kontroli, aby chronić dostęp do sieci i usług sieciowych przed nieupoważnionymi osobami. W jaki sposób dostęp do sieci i usług sieciowych jest uzyskiwany (przez VPN lub przez sieć bezprzewodową). Jakie są wymagania dotyczące uwierzytelniania użytkownika w celu uzyskania dostępu do sieci. Jak organizacja monitoruje dostęp do swoich sieci. Nieautoryzowane lub niebezpieczne połączenia z sieciami lub usługami sieciowymi należącymi do organizacji, szczególnie jeśli mówimy o krytycznych bazach danych lub innych krytycznych informacjach, stanowią poważne ryzyko, szczególnie jeśli połączenie to pochodzi z lokalizacji wysokiego ryzyka - na przykład z miejsca publicznego. Zapobieganie komputerom  znajdującym się poza obrębem organizacji do łączenia się z określonymi usługami lub pewnymi aplikacjami jest odpowiednią metodą ochrony. Użytkownicy logujący się do sieci, komputera lub aplikacji powinni mieć dostęp jedynie do informacji i usług wymaganych dla ich funkcji biznesowych. I tylko do informacji i usług, do których mieli dostęp. Odpowiednią kontrolą może nie być umożliwienie wszystkim użytkownikom zobaczenia pełnego zakresu usług dostępnych dla aplikacji, do której mieli dostęp; ale tylko te usługi, które są dla nich dostępne i potrzebne do wykonywania swojej pracy

 

Przy ochronie dostępu do sieci i aplikacji/baz danych używamy środków ochrony – przed wyciekiem danych, monitorujących zdarzenia i wychwytujących podejrzane działania lub anomalie w pracy użytkownika (np. podszywanie się inne osoby pod pracownika organizacji) Częstym naruszeniem bezpieczeństwa jest naruszenie poufności haseł poprzez infekcje złośliwym oprogramowaniem lub poprzez wpisanie haseł na fałszywej stronie logowania. Infekcja systemu złośliwym oprogramowaniem czy ingerencja zewnętrzna lub wewnętrzna w celu wyrządzenia szkód to nie są tak rzadkie przypadki. Ich skutki są bardzo niebezpieczne i skutkują przerwaniem działania, zniszczeniem systemów, wyciekiem poufnych danych. Kontrola dostępu obejmuje sprawowanie nadzoru nad tym, którzy uczestnicy (osoby, procesy, maszyny, itd.) i w jakim czasie mają dostęp do poszczególnych zasobów systemu komputerowego, na czym ten dostęp polega, w jaki sposób korzystają ze wspólnych danych, itp. Kontrola dostępu działa na kilku poziomach: aplikacji, warstwy pośredniej (ang. middleware), systemu operacyjnego i sprzętu. Jest to kluczowy składnik każdego rozwiązania związanego z bezpieczeństwem systemu, którego zadaniem jest zapewnienie, że zasób jest używany przez odpowiednich odbiorców w uprawniony sposób, w odpowiednim miejscu i czasie. (źródło: http://zeszyty-naukowe.wwsi.edu.pl/zeszyty/zeszyt7/Rozproszona_Kontrola_Dostepu_W_Systemach_Informatycznych.pdf)


Ochrona przed wyciekiem danych

 

Sposobem zabezpieczenia jest posiadana kopia zapasowa danych, bezpośrednio wynikająca już z organizacji sieci. Niemniej, w przypadku kradzieży, nawet gdy posiadamy kopię zapasową, nie uchroni nas to przed „wypływem” skradzionych danych na zewnątrz organizacji. Tu ochronę może zapewnić kodowanie przechowywanych danych (najlepiej sprzętowe) oraz szyfrowanie samego przesyłania w sieci i modelu Zero Trust. W praktyce oznacza to, że każde urządzenie w sieci (i za tym użytkownik) musi mieć zaimplementowane polityki bezpieczeństwa, szyfrowania danych i ograniczonego zaufania – dostępu tylko do zasobów, które są niezbędne do wykonywania zadania w tym momencie.

 

Kolejnym sposobem zabezpieczania są systemy kontroli klasy DLP. Systemy te chronią przed wyciekiem danych w użyciu, spoczynku (w archiwum i backupie) i w ruchu. Są w stanie wyłapać chronione treści w samym dokumencie i je zablokować w zależności od tego co użytkownik chce z tym zrobić. DLP chroni przed ujawnieniem danych osobowych, finansowych, tajemnic firmy i patentów i innych baz.


Ochrona przed uszkodzeniem lub utratą danych

 

Nie można pominąć ochrony fizycznego dostępu do elementów sieci i samych serwerów oraz urządzeń pamięci masowej. Warto też zastanowić się nad działaniem sił wyższych i wydarzeniami losowymi − awarie sprzętu oraz oprogramowania, czynniki środowiskowe (mikroklimat), zanieczyszczenie powietrza, zakłócenia zasilania, klęski żywiołowe, katastrofy.

 

Przechowywanie replikowanych danych w alternatywnych lokalizacjach jest zazwyczaj w stanie ochronić nas od najgorszego. Tu pojawia się także pojęcie High Availability (HA) związane m.in. z możliwością przejęcia zadań uszkodzonego elementu przez alternatywny (redundancja) i dalsze, niezakłócone operowanie zgromadzonymi plikami. Można również korzystać z modelu aktywnego ośrodka zapasowego, który równoważy obciążenie systemów oraz pełni rolę ośrodka zapasowego przy awarii któregokolwiek z nich.

 

Poza HA dla sieci serwerów i macierzy należy koniecznie pomyśleć o kwestii backupu. Należy zaprojektować cała politykę Disaster Recovery Plan, która w uproszczeniu będzie wyszczególniała procedury przywrócenia po awarii; np.: co jest krytyczne, jak szybko systemy muszą zostać przywrócone i które systemy mają kluczowe znaczenie dla działania. Dzięki tym procedurom jest możliwe przywrócenie środowiska po awarii lub ataku hackerskim na tej samej infrastrukturze fizycznej/zastępczej lub w innym ośrodku przetwarzania danych: Disaster Recovery Center – np. w jednym z czterech ośrodków Data Center Netii.


Ochrona przed atakiem na infrastrukturę

 

Są to ataki typu DDoS, które mają na celu sparaliżowanie serwerów i organizacji. Bardzo często te ataki służą rekonesansowi lub wymuszeniom okupu.

 

Ataki APT (Advanced Persistent Threat), te ataki często idą w ślad za atakiem typu DDoS. Należą do najniebezpieczniejszych działań cyber przestępczych. Są to zaawansowane i długotrwałe ataki łączące wiele różnych narzędzi. Rozpoczynają się od rekonesansu organizacji, jej pracowników, jej systemów ochrony i architektury. W ślad za tym idą kampanie celowane: phishing i spear-phishing, które mają na celu przemycenie malware, wydostanie danych do logowania do systemów i dalsza eskalacja uprawnień atakującego do wyższych systemów organizacji. Następni na końcu cyberprzestępca zaszywa się w organizacji, jest niewidoczny i przez długi czasy wydostaje i szpieguje informacje oraz ma wpływ na działanie firmy. Głównym celem tych ataków najczęściej jest własność intelektualna

 

Może Cię również zainteresować...

Wybierz swój język ×