Poniższy artykuł pochodzi z archiwalnego już wydania specjalnego "PC World Komputer - Security" z 2003 roku. Autorem publikacji jest p. Konrad Kraft.
Na chwilę obecną (02-06-2010) materiały prezentowane 7 lat temu mogą wydawać się już nieaktualne, i w większości przypadków w branży IT jest to słuszny tok myślenia, jednakże podstawowe problemy opisane w poniższych artykule są w tym przypadku nadal aktualne.
Niezależnie od tego, czy chodzi o publiczny serwer internetowy, firmowy serwer plików czy komputer sterujący produkcją, awaria oznacza stratę finansową i utratę prestiżu. A przecież zabezpieczenie komputera przed awarią możliwe jest już przy stosunkowo niewielkich nakładach.
Wraz z rozwojem Internetu sprawność serwerów stała się sprawą publiczną - wizerunek przedsiębiorstwa tworzy się lub upada w zależności od dostępności kombinacji sprzętu i oprogramowania. Awarie są bardzo dolegliwe i mogą w krótkim czasie spowodować zmniejszenie obrotów i odpływ klientów. Również awaria sprzętu wykorzystywanego na wewnętrzne potrzeby firmy oznacza przerwę w pracy i może powodować duże koszty. Rozwiązaniem są systemy odporne na awarię. Niestety, profesjonalni dostawcy tego rodzaju sprzętu żądają za niego sum, które mogą przyprawić o zawrót głowy. Granicę 50 tysięcy euro można przekroczyć już na dzień dobry.
Wraz z rozwojem Internetu sprawność serwerów stała się sprawą publiczną - wizerunek przedsiębiorstwa tworzy się lub upada w zależności od dostępności kombinacji sprzętu i oprogramowania. Awarie są bardzo dolegliwe i mogą w krótkim czasie spowodować zmniejszenie obrotów i odpływ klientów. Również awaria sprzętu wykorzystywanego na wewnętrzne potrzeby firmy oznacza przerwę w pracy i może powodować duże koszty. Rozwiązaniem są systemy odporne na awarię. Niestety, profesjonalni dostawcy tego rodzaju sprzętu żądają za niego sum, które mogą przyprawić o zawrót głowy. Granicę 50 tysięcy euro można przekroczyć już na dzień dobry.
Zaangażowany w swoją pracę administrator systemu na pewno zada sobie pytanie, czy nie można taniej zapewnić sobie bezpieczeństwa. Otóż można - nawet standardowy komputer, który ma pełnić funkcję serwera, można zamienić stosunkowo niewielkim kosztem w całkiem bezpieczny system. Warunek - trzeba znać jego słabe punkty, wymagające modyfikacji.
Źródła problemów to: awarie sprzętu, brak zasilania, błędy oprogramowania i ataki z zewnątrz. W tej części zajmiemy się wyłącznie trzema pierwszymi problemami. Ich rozwiązaniem są niedrogie systemy RAID, niezawodne zasilacze, nadmiarowe karty sieciowe i oprogramowanie gwarantujące dostępność. Statystyki pokazują, że główną przyczyną awarii są zasilacze sieciowe i twarde dyski. O bezpieczeństwie systemów decydują też całkiem niepozorne drobiazgi.
Diabeł tkwi w szczegółach
W wypadku sprzętu powtarzają się głównie dwie przyczyny awarii - usterki mechaniczne i kłopoty z chłodzeniem. Defekty mechaniczne to wadliwy styk elementów elektrycznych w wyniku zanieczyszczenia lub korozji, a także zużycia obracających się części, a więc twardych dysków, napędów CD-ROM i licznych wentylatorów.
Ciągły przepływ powietrza przez komputer wywołuje efekt odkurzacza - zassane drobiny kurzu osadzają się na stykach i z czasem zaczynają być źródłem problemów, szczególnie podczas instalacji nowych podzespołów. Jednocześnie zanieczyszczenia pogarszają chłodzenie podzespołów. Obudowy lepszej jakości wyposażone są w filtry włókninowe na otworach zasysających powietrze. Od czasu do czasu należy je czyścić, w przeciwnym razie zwiększone opory przepływu mogą doprowadzić do przegrzania komputera.
Powodem przegrzania jest najczęściej uszkodzenie wentylatorów, dlatego warto stosować sprawdzone rozwiązania - czujniki temperatury wewnątrz obudowy komputera i wentylatory z wyjściem tachometrycznym. Gdy wentylator ulegnie uszkodzeniu lub spadną jego obroty, komputer podniesie alarm. Równie ważny jest właściwy dobór wentylatorów. Doświadczenie pokazuje, że nawet zwykły komputer biurkowy może obecnie pobierać w szczycie ponad 250 W, które przecież muszą w końcu opuścić obudowę. Za małe wentylatory, zanieczyszczenia i niewłaściwe rozmieszczenie podzespołów wewnątrz obudowy - na przykład złe prowadzenie płaskich kabli i ciasno upakowane szybkie twarde dyski - powodują gwałtowne zużycie i starzenie się podzespołów.
Wysoka temperatura skraca żywotność urządzeń. Jeżeli podzespół zaprojektowany do pracy w otoczeniu o temperaturze 25ĽC pracuje w temperaturze 50ĽC, jego projektowany czas pracy skraca się o połowę. Pierwsze usterki mogą wystąpić już po dwóch latach. To często spotykany problem twardych dysków.
Jeżeli w upalne letnie dni komputer smaży się we własnym sosie, awaria jest niejako z góry zaprogramowana. Dlatego profesjonalne serwery pracują zwykle w kosztownych, klimatyzowanych pomieszczeniach. Jeżeli takie rozwiązanie jest za drogie, można zastosować chłodzone obudowy serwerowe. W takiej izolowanej obudowie serwer czuje się jak w lodówce.
Niedrogie systemy RAID
Awarie twardych dysków są szczególnie dotkliwe, ponieważ wiążą się z utratą danych. Systemy RAID z nadmiarowym zapisem na wielu dyskach chronią przed utratą danych. Dodatkową ich zaletą jest większa wydajność, wynikająca z równoległych procesów zapisu i odczytu. Z kolei ich wadą są wyższe koszty nośników pamięci i specjalnych kontrolerów RAID. Wady są stosunkowo niewielkie, jeżeli uwzględnić na przykład koszty ręcznego odtworzenia danych z kopii zapasowych. Ale uwaga: systemy RAID nie chronią przed utratą danych w wyniku ich skasowania lub ataku wirusa!
Najprostszy system RAID to dysk lustrzany, czyli RAID-1. W tym wypadku dane zapisywane są jednocześnie na dwóch identycznych dyskach. Mimo rozrzutnego gospodarowania przestrzenią dyskową jest to stosunkowo korzystne rozwiązanie, ponieważ nie obciąża zasobów komputera obliczaniem sum kontrolnych. Obecnie dostępne są również kontrolery RAID do dysków IDE, pozwalające koszt rozwiązania utrzymać na umiarkowanym poziomie. Kontroler ATA/100 RAID PCI kosztuje ok. 150 zł, dlatego kontrolery IDE-RAID można polecić również amatorom filmów wideo i graczom, których komputery pracują pod kontrolą Windows 98.
W wypadku szybkiego interfejsu IDE bardzo ważna jest długość kabli. Szczególnej ostrożności wymaga stosowanie wymiennych kieszeni na twarde dyski, gdyż styki utrudniają transfer danych. W razie wątpliwości należy poszukać zestawu, który był testowany pod tym kątem.
Wydajność operacji zapisu macierzy RAID-1 jest taka sama, jak pojedynczego dysku, gdyż dane są zapisywane na oba dyski jednocześnie. Podczas odczytu dane pobierane są po połowie z każdego dysku, a rzeczywista szybkość odczytu zwiększa się o współczynnik 1,6-1,8.
W macierzy RAID-0 dane nie są zapisywane w sposób lustrzany na dwóch dyskach, lecz dzielone między dyski. Uzyskuje się wówczas również wzrost wydajności zapisu, ale kosztem bezpieczeństwa danych. Wyniki pomiarów można znaleźć w naszym artykule na temat Ultra-ATA/100. Wynika z nich, że maksymalny transfer napędu IBM Deskstar 75 GXP w macierzy RAID-0 z dwóch dysków wzrósł z 36 do 72 MB/s. Transfer przy odczycie zwiększył się z 13,5 do 20,9 MB/s.
Kontrolery Fasttrak firmy Promise umożliwiają podłączenie czterech napędów IDE w układzie RAID-10 (wymawiaj: jeden-zero). Stosuje się tu tzw. striping, czyli podział danych na części zapisywane jednocześnie na dyskach oraz na koniec zapis lustrzany. Podział danych pomiędzy napędy daje duży wzrost wydajności, z kolei zapis lustrzany pozwala zachować bezpieczeństwo danych.
SCSI-RAID
Mimo wszystkich przepowiedni o rychłym końcu tego standardu, SCSI ma się nadal bardzo dobrze w zastosowaniach profesjonalnych. Również i tu są pary napędów w układzie RAID-1, jednak zdecydowanie bardziej kosztowne są i napędy, i kontrolery. Warto zwrócić uwagę na produkty firmy Adaptec z serii 2100 i 2110, które kosztują od 500 euro, a oferują więcej funkcji niż prosty mirroring dysków. Inni producenci, na przykład ICP-Vortex, liczą sobie 1500 euro i więcej za kontroler.
Z tych kontrolerów i co najmniej trzech dysków można zbudować macierz w układzie RAID-5. Różnica polega na nadmiarowości. Dane w macierzy RAID-5 chronione są przez sumy kontrolne, które pozwalają na odtworzenie danych w razie awarii jednego z napędów. Umożliwia to zaoszczędzenie przestrzeni dyskowej, ponieważ w ogólnym bilansie pojemności tylko jeden napęd przechowuje informacje kontrolne. W systemie z pięciu dysków 36 GB do dyspozycji jest 4 x 36 GB netto. Sumy kontrolne rozdzielane są pomiędzy wszystkie napędy, co zmniejsza ryzyko utraty danych.
Wadą macierzy RAID-5 jest nakład pracy na obliczenie sum kontrolnych, nawet w wypadku dobrej klasy procesora RISC. W tym tkwi też przyczyna wysokiej ceny systemów. Jest to jednak rozwiązanie godne polecenia w wypadku dużej ilości danych.
SCSI-RAID z napędami IDE
Interesującym wariantem są zewnętrzne obudowy stojące lub 19-calowe moduły do zabudowy w regałach, np. Brownie AD-600. Kontroler RAID umieszczony jest w oddzielnej obudowie, zaprojektowanej z uwzględnieniem wymagań twardych dysków co do chłodzenia i stabilności mechanicznej. Wewnątrz znajdują się tanie napędy IDE. Komputer widzi cały system jako duży dysk SCSI, więc nie potrzebuje specjalnych sterowników RAID, a jedynie kontrolera SCSI. Urządzenia te wyposażono także w bezpieczne zasilanie; pracują stabilnie i niezawodnie. Ich wadą jest przestarzały już interfejs Ultra-Wide-SCSI, ktory osiąga transfer jedynie 40 MB/s. Z tego względu macierz RAID jest wolniejsza od szybkiego napędu SCSI. Również zastosowany wewnątrz urządzenia interfejs UDMA/33 jest poniżej obecnych standardów.
W praktyce ważne są dwie cechy napędów: hot-swap i hot-spare. Nikt nie godzi się na to, żeby w razie awarii jednego z dysków wyłączać komputer na czas potrzebny na jego wymianę i zainstalowanie w macierzy. Napędy typu hot-swap mogą być wymieniane w trakcie pracy. Jeżeli kontroler dysponuje odpowiednimi funkcjami, również odbudowa macierzy po wymianie uszkodzonego napędu może się odbywać w trakcie pracy. Zewnętrzne macierze po raz kolejny okazują tu swoją wyższość, ponieważ wymiana napędu nie zakłóca w żaden sposób stabilności systemu operacyjnego. W urządzeniach Brownie jeden z napędów może ponadto pracować jako hot-spare. Na tym dysku nie są zapisywane dane, a jego jedyne zadanie to oczekiwanie na awarię któregoś z napędów. W takim wypadku odbudowa macierzy rozpoczyna się automatycznie, a administrator nie musi nawet kiwnąć palcem w bucie.
Programowe macierze RAID w Windows NT, 2000 i XP
Windows NT, 2000 i XP umożliwiają łączenie wielu twardych dysków w jedną partycję RAID. Szybkie zestawy paskowe (stripesets) RAID-0 dostępne są w wersji serwerowej i do stacji roboczych; zwiększone bezpieczeństwo danych w technice mirroringu (RAID-1) - tylko w wersji serwerowej.
Problem rozwiązania programowego polega na tym, że RAID zaczyna działać dopiero po uruchomieniu systemu operacyjnego, nie można więc w ten sposób zabezpieczyć partycji systemowej. Zaleca się zastosowanie małego napędu, na którym znajduje się tylko system operacyjny. Ten napęd powinien dysponować łatwo dostępną kopią zapasową. Dobrze sprawdza się w tej roli bezpośredni zrzut dysku na płytę CD-R, z której w ciągu kilku minut można odtworzyć system w nowym napędzie startowym. Trzeba pamiętać o wykonywaniu nowej kopii po każdej zmianie w systemie.
Dane i programy powinny być umieszczone na dwóch twardych dyskach o w miarę możliwości jednakowej wielkości. Jeżeli jeden z napędów ma większą pojemność, nadwyżka pozostaje niewykorzystana. Dzięki mirroringowi dane są równie bezpieczne, jak na sprzętowej macierzy RAID. Programowa macierz RAID podczas zapisu zawsze wolniejsza od pojedynczego napędu. System operacyjny musi dwukrotnie przesłać dane i dwukrotnie zapisać je na dyskach. Inaczej jest podczas odczytu - dane są pobierane na przemian z obu napędów. Jeśli więc procesor i kontroler nie staną się wąskim gardłem, stopień ochrony danych może się prawie podwoić.
Podsumowanie - RAID
Nie ma praktycznie innej metody zabezpieczenia się przed awarią twardych dysków niż macierz RAID. Czy będzie mała, z dwoma napędami lustrzanymi, czy duża - system RAID-5 - to już zależy od wielkości środków będących do dyspozycji. W profesjonalnych systemach zaleca się stosowanie napędów SCSI, choć rozwiązania IDE-SCSI to interesująca alternatywa: napędy są tanie, drogi połączeń krótkie, niezawodność - bardzo duża. Godne polecenia są niezależne, zewnętrzne, wyspecjalizowane systemy RAID Brownie, które jednak kosztują ok. 2500 euro bez twardych dysków. Programowa macierz RAID nie zapewnia pełnego bezpieczeństwa, ponieważ partycja systemowa nie jest zabezpieczona. W zamian za to jest praktycznie darmowa, jeśli pominąć koszt dodatkowego napędu.
Zabezpieczenie sieci
Niezawodność sieci to problem, który jest źródłem wielu frustracji i irytacji zarówno administratorów, jak i użytkowników. A przecież nieco przemyśleń i stosownych działań może spowodować, że praca będzie łatwiejsza dla wszystkich.
Zacznijmy od tego, że często komputery i serwery wyposażone są w pojedyncze karty sieciowe. Jeżeli któryś z komponentów ulegnie awarii, sieć jest niedostępna. Często lekceważone huby i switche również przeważnie występują w sieci również pojedynczo. Źródłem problemów samym w sobie jest więc łącze internetowe. Kolejna bariera to często spotykane rozwiązanie, polegające na tym, że serwery wyposażone są w pojedynczą 100-mbit kartę sieciową, która ma taką samą przepustowość, jak karta pojedynczego klienta. Jeżeli kilku użytkowników chce jednocześnie skorzystać z serwera, połączenie z nim staje się wąskim gardłem systemu. Przyjrzyjmy się więc, jak można temu zaradzić.
Jedno z możliwych rozwiązań to podział sieci na podsieci, przy czym serwer musi mieć tyle kart sieciowych, ile jest podsieci. Z jednej strony, otrzymujemy lepszy rozkład obciążeń, z drugiej - w razie awarii karty wyłączony jest tylko jeden segment sieci. Koszty tego najprostszego rozwiązania są niewielkie. Jeżeli celem jest jeszcze wyższy poziom bezpieczeństwa, każda z podsieci powinna mieć własny router/switch. To już dość znacznie podnosi koszty.
Inne rozwiązanie to zastosowanie kart sieciowych dwuportowych lub wyposażonych w specjalny sterownik do pakietowania połączeń sieciowych (adapter teaming). W ten sposób można upiec dwie pieczenie na jednym ogniu. Wszystkie karty reagują na ten sam adres IP - na zewnątrz nie widać, która z kart odbiera zapytanie lub wysyła dane. Jeżeli jedna ulegnie awarii, jej zadania przejmuje druga karta, a klient w ogóle tego nie zauważy. Oczywiście jest to możliwe pod warunkiem, że są odpowiednie sterowniki do danego systemu operacyjnego.
Szybciej i bezpieczniej dzięki pracy zespołowej
Teaming kart sieciowych umożliwia uzyskanie znacznego wzrostu wydajności w kierunku nadawania, czyli od serwera do klientów. Oba adaptery mogą jednocześnie wysyłać dane, które następnie przełącznik przesyła do klientów. W ten sposób można na przykład zmniejszyć opisane wcześniej problemy z przepustowością połączenia serwera z klientami bez instalowania nowego okablowania. W wypadku odbioru danych wzrost wydajności można uzyskać tylko wtedy, gdy przełącznik bierze w tym aktywny udział i wie, że konkretny adres IP jest dostępny w dwóch różnych portach.
Dobrym przykładem kart wieloportowych są serwerowe karty sieciowe firmy Intel. Karty noszą oznaczenia Intel Ether Express PRO 100+ Server Adapter i Intel Ether Express PRO 100+ Dual Port. Pierwsza zawiera tylko jeden układ i dlatego w komputerze muszą być co najmniej dwie takie karty. Jedna zajmuje jak zwykle jedno przerwanie (IRQ). Karta Dual Port zajmuje z kolei tylko jedno przerwanie i jedno złącze na płycie głównej, co w gęsto upakowanych systemach serwerowych może być dużą zaletą. Wyposażona jest w dwa układy ethernetowe, ale tylko jeden mostek PCI.
Podsumowanie problematyki sieciowej: uodpornienie sieci na awarie jest trochę trudniejsze, ponieważ wymaga dobrej znajomości routingu i architektury podsieci. Wetknięcie dwóch kart do komputera to za mało.
Nadmiarowe zasilacze
Zasilaniu często nie poświęca się tyle uwagi, na ile zasługuje, choć w końcu od niego zależy funkcjonowanie całego systemu. Zwiększenie stopnia niezawodności w tym zakresie nie jest specjalnie trudne.
Zasilacze sieciowe to jedne z najbardziej awaryjnych podzespołów. Zasilacze impulsowe przetwarzają bardzo dużą moc w stosunkowo niewielkiej objętości. Do tego dochodzą wahania i przepięcia napięcia sieci zasilającej, które rzadko ma postać czystej sinusoidy. To dodatkowe obciążenie elementów przełączających. Problemy z chłodzeniem są kolejnym czynnikiem zwiększającym awaryjność. Po roku pracy niektóre podzespoły pokryte są grubą warstwą kurzu, który utrudnia wymianę ciepła.
Dobrym rozwiązaniem większości problemów jest nadmiarowy zasilacz. Składa się z jednego modułu rozdzielającego i dwóch lub trzech modułów aktywnych. Jak w wypadku wszystkich systemów odpornych na awarie, już jeden moduł zapewnia wystarczającą moc do pracy serwera, pod warunkiem, że komponenty są właściwie dobrane. Podczas zwykłej pracy oba moduły pracują równolegle, co zmniejsza obciążenie poszczególnych podzespołów.
Przeważnie są to dwa zasilacze 250 W lub trzy zasilacze 300 W; te ostatnie mają już wystarczający zapas mocy. Wbudowany brzęczyk i dioda sygnalizacyjna informują użytkownika o awarii któregoś z modułów. Nadmiarowe zasilacze o dużej mocy, które pod względem wymiarów i układu połączeń są zgodne ze zwykłymi zasilaczami ATX, mają swoją cenę - kosztują od 300 do 750 euro.
Inne zabezpieczenia
Kolejny element zapewniający nieprzerwany dopływ prądu znajduje się jeszcze przed właściwym zasilaczem komputera - zasilacz awaryjny (UPS) rozwiązuje od razu kilka problemów. Z jednej strony, w razie przerwy w zasilaniu komputer pracuje jeszcze jakiś czas. Z drugiej strony, niektóre zasilacze awaryjne działają również jak filtry napięcia i eliminują zakłócenia. Ma to bardzo korzystny wpływ na warunki pracy elementów przełączających w zasilaczu komputera. Tak więc UPS jest równie nieodzownym elementem niezawodnego serwera, jak macierz RAID napędów dyskowych.
Przy doborze zasilaczy awaryjnych należy kierować się mocą wyjściową i czasem podtrzymania. Moc wyjściowa musi być wystarczająca nie tylko dla samego komputera. Jeżeli konieczne są ręczne ingerencje w trakcie zatrzymywania systemu, trzeba uwzględnić również monitor. Aby utrzymać pracę sieci, trzeba również zasilać huby i przełączniki. W serwerowniach bez okien konieczne jest także oświetlenie awaryjne.
Typowy czas podtrzymania to 15 minut. To powinno wystarczyć, aby usunąć usterkę wewnętrzną (np. przepalony bezpiecznik). Profesjonalne zasilacze awaryjne komunikują się z komputerem przez złącze szeregowe i informują go o swoim stanie i w razie awarii zasilania administrator otrzymuje odpowiedni komunikat alarmowy. Oprócz tego UPS wysyła do serwera komunikat na krótko przed całkowitym rozładowaniem, umożliwiając w ten sposób samoczynne, kontrolowane zamknięcie systemu.
Jeżeli chodzi o pozostałe komponenty serwera, trudno zaproponować sensowne rozwiązania nadmiarowe. Podwójna karta graficzna nie jest bezwzględnie potrzebna, ponieważ w serwerze jej rola jest drugorzędna. Nawet w drogich systemach wieloprocesorowych nie da się uniknąć awarii w razie uszkodzenia jednego z procesorów. Awaria wspólnej magistrali lub zakłócenia w pracy systemu operacyjnego z dużym prawdopodobieństwem również spowodują problemy.
Celowe jest zabezpieczenie pamięci operacyjnej przez zastosowanie układów z kontrolą parzystości (ECC). Najlepsze są maszyny, w których zastosowano standardowe układy DIMM. Rozwiązania niestandardowe, wykorzystywane na przykład przez firmę Compaq, kosztują dwa razy więcej za 1 MB. Awaria płyty głównej to, oczywiście, katastrofa, ale nie da się tu zastosować elementów nadmiarowych. Można się jednak zabezpieczyć przed całkowitą utratą aplikacji.
Serwer kopii zapasowych
Serwer internetowy powinien pracować przez 24 godziny i nie przerywać pracy nawet na czas konserwacji. Mimo to przerwy konserwacyjne są niezbędne, choćby dlatego, że niektóre podzespoły ulegają zużyciu. Szczególnie twarde dyski powinny być wymieniane co 2-3 lata, zanim nastąpi awaria. Kiedy więc trzeba wyłączyć serwer, powinno się go zastąpić innym, jeżeli wykluczone są przerwy w połączeniu z Internetem.
Najprostszy sposób to zastosowanie serwera kopii zapasowych, który zawiera te same dane, co serwer zasadniczy. Odpowiednia zamiana wpisów DNS spowoduje, że serwer zapasowy będzie występował w roli serwera głównego, który można wtedy wyłączyć na czas prac konserwacyjnych. Rozwiązanie to wymaga jednak dodatkowego serwera, który przez większość czasu musi stać bezczynnie.
Druga wada to problem synchronizacji danych. Ponieważ muszą one być przenoszone podczas pracy głównego serwera, a to trwa jakiś czas, może dojść do niespójności. W ten sposób można stracić zamówienie, które wpłynęło już po skopiowaniu plików z serwera głównego, a przed podjęciem pracy przez kopię zapasową. W trakcie powrotu do pracy na serwerze głównym powstają te same problemy. Jedyna szansa na uniknięcie takich przypadków to zamknięcie witryny internetowej co najmniej na czas kopiowania.
Rozwiązania i oprogramowanie klastrowe
Aby uniknąć opisanych problemów, można sięgnąć po rozwiązanie charakteryzujące się wysoką dostępnością, zapewniające ciągłą pracę serwisu internetowego i wolne od problemów z synchronizacją, np. rozwiązanie klastrowe Windows NT Server Enterprise Edition i Windows 2000 Advanced Server. Podobne rozwiązania dostępne są do systemów UNIX i Red Hat Linux. W systemach klastrowych pracuje szereg autonomicznych serwerów ze współdzielonym systemem pamięci masowej. Każdy może mieć inne zadanie, a na węzłach klastra mogą działać zupełnie różne programy.
W razie potrzeby konserwacji lub w wypadku awarii jednego z węzłów jego zadania przejmuje bezzwłocznie inny, łącznie ze wszystkimi aplikacjami. Jedyny warunek - dane muszą się znajdować na wspólnie dostępnym nośniku danych, tak żeby każdy z węzłów mógł się do niego odwoływać.
Serwer klastrowy umożliwia opracowanie jeszcze kilku innych, interesujących scenariuszy. Warstwa klastra tworzy w stosunku do systemu operacyjnego abstrakcyjną platformę wielu zasobów. Inaczej mówiąc, nawet w trakcie pracy można przypisać lub usunąć przypisania np. adresów IP, nazw serwerów lub kompletnych nośników danych. Również w trakcie pracy serwera można dla wyrównania obciążenia przesuwać usługi i aplikacje między węzłami klastra. W ten sposób uzyskuje się większą dostępność, co ułatwia życie administratorowi.
Jak wszędzie, gdzie są blaski, są też i cienie. Skonfigurowanie systemu klastrowego to zadanie dla doświadczonego fachowca, wymagające wiele pracy i czasu. Można ewentualnie sięgnąć po systemy wstępnie skonfigurowane, które zostały przetestowane łącznie z całym przynależnym sprzętem. Oferują je najwięksi producenci, tacy jak Dell czy HP, ale również i mniejsze, lokalne firmy.
Podsumowanie
Stabilna praca serwera zależy często od drobiazgów. Ochrona przed zanieczyszczeniami mechanicznymi, skuteczne odprowadzanie ciepła i odpowiednie zasilanie to środki proste, ale skuteczne. Następny etap to pamięci masowe i połączenia sieciowe, które powinny być zdublowane dla ochrony przed awarią. W zastosowaniach profesjonalnych godne uwagi są systemy sprzętowo-programowe w układzie klastrowym, które gwarantują nieprzerwaną pracę.
Praktycznie nie ma górnej granicy wydatków, które można ponieść, by uchronić się przed katastrofą. Pewna doza zdrowego rozsądku i rozwagi pozwala jednak zbudować stabilny system z użyciem niedrogich komponentów. Ponieważ jednak prawa Murphy'ego są bezlitosne, nigdy nie zapominaj o regularnym wykonywaniu kopii zapasowych!