Kraftway przedstawia nowy produkt w segmencie pamięci masowych klastrowych zorientowanych na sprzęt: zaufane systemy pamięci masowej PROGRESS, które bazują na kontrolerach ze zintegrowanymi narzędziami bezpieczeństwa informacji i rosyjskim produkty oprogramowania zarządzanie macierzą dyskową. Cechy charakterystyczne zaufana platforma do przechowywania Kraftway:
- wbudowane funkcje bezpieczeństwa informacji zintegrowane ze sterownikami (obwody płyty, BIOS i kod oprogramowania sprzętowego Marynarki Wojennej);
- oprogramowanie(Oprogramowanie) do zarządzania systemem magazynowania, wpisany do rejestru Ministerstwa Łączności Federacji Rosyjskiej. Oprogramowanie jest produkowane przez Radix, NPO Baum i Aerodisk.
Zaufana pamięć masowa jest przeznaczona dla klientów, którzy mają określone wymagania dotyczące bezpieczeństwa swoich systemów informatycznych. SHD PROGRESS zawiera modele z liczbą kontrolerów 1,2,4 i 8 (*) pracujących w trybie Active-Active i zapewniających wysoką odporność na uszkodzenia systemu pamięci masowej. Do kontrolerów systemu podłączone są półki na dyski rozszerzające o różnych standardowych rozmiarach, zapewniające pojemność do kilkudziesięciu PB. Maksymalna pojemność pamięci z dwoma kontrolerami to 16 PB. Interfejsy hosta pamięci masowej: iSCSI 1 do 100 Gb/s, FC 2 do 32 Gb/s, Infiniband do 100 Gb/s (*).
(*) Specyfikacje może się różnić w zależności od dostawcy oprogramowania.
E. Kontrola dostępu
Załączony plik
Zaufane systemy przechowywania Kraftway PROGRESS
Zadać pytanieZaufane systemy przechowywania Kraftway PROGRESS
Zaufane systemy przechowywania Kraftway PROGRESS
Funkcje oprogramowania do zarządzania pamięcią masową Kraftway PROGRESS
Zaufane systemy przechowywania Kraftway PROGRESS
Główne scenariusze wykorzystania VAZ
A. Zapewnienie, że tylko upoważniony personel ma dostęp do kontrolera pamięci masowej
Do załadunku system operacyjny kontroler wymaga uwierzytelniania dwuskładnikowego. Po włączeniu zasilania VZZ zatrzymuje proces pobierania. Upoważniony użytkownik musi posiadać urządzenie identyfikacyjne (karta inteligentna, klucz USB) i hasło, aby kontynuować pobieranie.
VZZ ma możliwość różnicowania uprawnień do zarządzania ustawieniami bezpieczeństwa w zależności od roli użytkownika. Zwykły użytkownik, na przykład może nie mieć uprawnień do wprowadzania i zmieniania ustawień systemu UEFI BIOS.
B. Kontrolowanie integralności konfiguracji sprzętowej
Po włączeniu zasilania VZZ wykonuje samotestowanie, obliczanie sumy kontrolnej i porównanie z wzorcami. Jeśli się powiedzie, integralność sprzętu jest monitorowana przez porównanie sum kontrolnych i sygnalizację wykrycia zmian. Jeśli integralność zostanie naruszona, tylko użytkownik z prawami administratora będzie mógł zarządzać VZ.
B. Kontrolowanie integralności systemu plików
Administrator VZ może włączyć sprawdzanie integralności krytycznych plików pod kątem zmian. W takim przypadku, gdy produkt zostanie włączony przed załadowaniem systemu operacyjnego, obliczane są sumy kontrolne plików dodanych do listy kontrolnej. W przypadku naruszenia integralności tylko użytkownik z uprawnieniami Administratora będzie mógł zarządzać integracją VIS
D. Skanowanie antywirusowe przed uruchomieniem systemu operacyjnego
Wyszukiwanie złośliwego oprogramowania na etapie UEFI przed uruchomieniem systemu operacyjnego pozwala na neutralizację zagrożeń, które są niezwykle trudne do wykrycia po uruchomieniu systemu operacyjnego, tzw. „rootkitów” i „bootkitów”. Mogą modyfikować sektory rozruchowe systemu, a także w celu ukrycia śladów obecności atakującego lub złośliwego oprogramowania w systemie. Wyszukiwanie odbywa się za pomocą specjalistycznego modułu „Kaspersky Anti-Virus for UEFI”. W przypadku wykrycia złośliwy kod skaner wstrzymuje ładowanie systemu operacyjnego i identyfikuje zainfekowany obiekt.
E. Kontrola dostępu
do zasobów sprzętowych za pomocą „cienkiego hiperwizora”. Hiperwizor jest częścią UEFI i jest narzędziem programowym do ograniczania dostępu do zasobów sprzętowych urządzenia komputerowego.
Hiperwizor działa w trybie wirtualizacji wszystkich osób fizycznie obecnych na płyta główna urządzenia wejścia/wyjścia, a także porty wejścia/wyjścia i kanały bezpośredniego dostępu do pamięci. Hiperwizor zapewnia kontrolę dostępu do nośników zewnętrznych, w tym zakaz ich używania, a także scentralizowane rozliczanie podłączonych nośników wymiennych.
Funkcje oprogramowania do zarządzania pamięcią masową
Załączony plik zawiera opis i funkcje oprogramowania do zarządzania macierzami dyskowymi każdego z producentów: Radix, NPO Baum i Aerodisk.
- Seria Dell EMC Storage SC to zautomatyzowane, nowoczesne rozwiązania infrastrukturalne zbudowane z hybrydowej pamięci masowej i wysokiej klasy macierzy Flash.
- Seria Dell EMC Equallogic PS to idealne urządzenia do korporacyjnego środowiska informacyjnego, umożliwiające wydajną realizację codziennych zadania informacyjne.
- Seria Dell POWERVAULT MD to skalowalne, tanie systemy, które obsługują konsolidację dużych ilości danych i upraszczają zarządzanie danymi.
- Seria EMC VNXE to ujednolicone rozwiązania pamięci masowej dla potrzeb informacyjnych małych firm.
Pamięć na poziomie podstawowym
Systemy pamięci masowej Dell EMC klasy podstawowej zapewniają wydajne platformy dla małych firm, a także dużych firm, które wyróżniają się rozbudowaną infrastrukturą oddziałów. Ta klasa sprzętu jest wysoce skalowalna od 6 do 150 dysków o maksymalnej pojemności 450 TB. Systemy pamięci masowej Dell EMC są idealne dla przedsiębiorstw posiadających zaawansowaną infrastrukturę fizycznych systemów serwerowych, a także dla tych, którzy praktykują wykorzystanie zwirtualizowanych systemów serwerowych. Praktyczne wykorzystanie pamięci masowych Dell EMC pozwoli skonsolidować duże ilości informacji, a także poprawić efektywność ich przetwarzania. Za pomocą tych urządzeń możliwe będzie wdrożenie wielofunkcyjnych systemów pamięci masowej opartych na sieciach IP, które obsługują protokoły dostępu do plików i blokowania, odpowiednio NAS i iSCSI.
Przechowywanie średniotonowe
Dell EMC Midrange Storage to bogata w funkcje platforma, która umożliwia konsolidację blokowej pamięci masowej, systemów serwerów plików i pamięci masowej podłączanej bezpośrednio. Zastosowanie tego sprzętu umożliwi firmom dynamiczny rozwój systemów plików i blokowanie zasobów z równoległą obsługą kilku protokołów - NFS i CIFS. Ponadto magazyny pamięci masowej mogą zapewniać dostęp do informacji za pomocą protokołów takich jak Fibre Channel, iSCSI i FCoE. Pomoże to obsługiwać aplikacje blokowe, które wymagają dużej przepustowości i małych opóźnień.
Jeszcze kilka lat temu drogie dedykowane systemy pamięci masowej na dyskach twardych koncentrowały się głównie na aplikacjach korporacyjnych o znaczeniu krytycznym lub niektórych konkretnych zadaniach. Dziś, dzięki szybkiemu rozwojowi koncepcji NAS (Network Attached Storage) oraz szeregu innych rozwiązań opartych na dyskach twardych ATA, takie systemy klasy podstawowej stają się obiektem zainteresowania średnich przedsiębiorstw, co jest szczególnie ważne dla wrażliwy na ceny rynek ukraiński.Powodów zainteresowania nabywców systemami magazynowymi jest wystarczająco dużo
dane - np. potrzeba konsolidacji tablic informacyjnych, potrzeba
rozwiązywać problemy z redundancją danych w dużych sieciach itp. Z drugiej strony,
pojawiają się podczas pracy systemów wysokiego i średniego poziomu.
Według ankiety przeprowadzonej w kilku kijowskich firmach, dziś najczęściej spotyka się następujące motywy nabywania napędów (w kolejności malejącej).
1. Dodatkowe dyski niemożliwa lub nieekonomiczna instalacja w serwerze (zwykle z powodu braku miejsca w obudowie lub wysoka cena na oryginalne dyski lub niemasową konfigurację systemu operacyjnego i platformy - na przykład Silicon Graphics lub Compaq Alpha Server, Mac itp.).
2. Musisz zbudować klaster pracy awaryjnej ze współdzieloną macierzą dyskową. W takiej sytuacji można czasem obejść się bez systemu pamięci masowej, np. stosując kontrolery RAID PCI-SCSI z obsługą systemów klastrowych, ale ta konfiguracja jest mniej funkcjonalna, a ponadto nie pozwala na włączenie buforowania zapisu danych w kontrolerów. Podczas pracy z bazami danych wydajność rozwiązań z niezależnym urządzeniem pamięci masowej czasami przewyższa o rząd wielkości systemy oparte na kontrolerach RAID PCI-SCSI.
3. Niemożliwe jest uzyskanie wysokiej jakości rozwiązania pamięci masowej w ramach standardowego serwera. Zewnętrzny system w tym przypadku pozwala na zaimplementowanie RAIS (Redundant Array of Independent Servers - odporna na awarie tablica niezależnych serwerów). Przechowuje wszystko, w tym dane systemowe, do których uzyskują dostęp serwery, które je przetwarzają. Jednocześnie dostarczany jest serwer zapasowy, który zastępuje uszkodzony serwer. To podejście jest nieco podobne do klastrowania, ale nie wykorzystuje specjalistycznego oprogramowania, a aplikacje nie są automatycznie migrowane.
Wspólna klasyfikacja systemów przechowywania danych
w oparciu o zasadę organizowania dostępu do nich.
SAS (Server Attached Storage)— dysk podłączony do serwera.
Czasami używany jest termin „dysk podłączany bezpośrednio” —
DAS (bezpośrednia pamięć masowa).
Główna zaleta dysku podłączonego do serwera w porównaniu z
z innymi opcjami niska cena i duża prędkość.
NAS (sieciowa pamięć masowa)— dysk podłączony do sieci.
Główną zaletą tego rozwiązania jest szybkość wdrożenia i przemyślane
organizacja dostępu do akt.
SAN (sieć pamięci masowej) — sieć pamięci masowej.
Najdroższe rozwiązanie, dające jednocześnie wiele korzyści
- niezależność topologii SAN od systemów pamięci masowej i serwerów, wygodna
scentralizowane zarządzanie, brak konfliktu z ruchem LAN/WAN, wygodne
tworzenie kopii zapasowych i przywracanie danych bez obciążania sieci lokalnej i serwerów,
wysoka szybkość, skalowalność, elastyczność, dostępność i odporność na błędy.
Systemy pamięci masowej lub dyski autonomiczne
Zdecydowanie dysk lub system pamięci masowej
dużo danych może być różne urządzenia. Ale jak tylko będziemy mieli przemówienie
opowie o systemach dyskowych zapewniających przechowywanie informacji i dostęp do nich,
będziemy rozumieć przez termin „akumulator” dokładnie je. W sumie
obudowy składają się z dysków twardych, kontrolera I/O oraz zintegrowanego
systemy. Dyski są zazwyczaj hot-swap, tj. są
można podłączać i odłączać „w locie”, bez wyłączania napędu. to
umożliwia bezproblemową wymianę uszkodzonego dysku twardego
dla użytkownika. Zwiększono podstawowe i zapasowe zasilanie napędu
niezawodność i możliwość wymiany na gorąco. Tak, i kontrolery I / O
czasami używane są dwa. Schemat typowego systemu pamięci dyskowej z jednym
sterownik można zobaczyć na ryc. jeden.
Kontroler systemu pamięci dyskowej jest jego centrum. Odpowiada za wprowadzanie/wyprowadzanie danych w systemie oraz do kanałów zewnętrznych, a także organizację przechowywania i dostępu do informacji. Aby komunikować się ze światem zewnętrznym, kontrolery napędów zwykle używają interfejsów SCSI, Fibre Channel lub Ethernet.
W zależności od przeznaczenia systemu sterowniki mogą realizować różną logikę działania i wykorzystywać różne protokoły wymiany danych. Dostarczają systemom użytkowników dane na poziomie bloków, takie jak dyski twarde lub usługi plików przy użyciu protokołów NFS, CIFS, a także Network File System, Common Internet File System, takie jak serwery plików (patrz pasek boczny „Protokoły plików w NAS - CIFS, NFS, DAFS”). Taki kontroler zazwyczaj obsługuje standardowe poziomy RAID w celu zwiększenia wydajności systemu i zapewnienia odporności na awarie.
Protokoły plików w NAS - CIFS, NFS, DAFS CIFS (Common Internet File System) to standardowy protokół, który zapewnia dostęp do plików i usług na zdalnych komputerach (w tym w tym w Internecie). Protokół wykorzystuje model interakcji klient-serwer. Klient wysyła do serwera żądanie dostępu do plików lub wysłania wiadomości CIFS używa protokołu TCP/IP do przesyłania danych. Zapewnia funkcjonalność NFS (Network File System) to standard IETF, który obejmuje rozproszone NFS, podobnie jak CIFS, opiera się na modelu interakcji klient-serwer. To zapewnia DAFS (Direct Access File System) to standardowy protokół dostępu do plików, DAFS został zaprojektowany z myślą o ciągłych działaniach baz danych i różnych |
Dlaczego ATA?
Obecnie różnica w koszcie na jednostkę objętości dużych dysków ATA i SCSI jest większa niż
niż sześć razy, a stosunek ten jest całkiem uzasadniony. Drogie dyski interfejsu
SCSI jest przeznaczony głównie dla firm systemy informacyjne i zwykle
masz więcej wysoka wydajność prędkość przy przetwarzaniu dużych ilości
upraszanie. Używają bardziej niezawodnych komponentów, są lepiej przetestowane, tak
a odpowiedzialność producenta za te urządzenia jest znacznie wyższa.
Ale jeśli koszt danych nie jest tak wysoki lub potrzebne jest tylko urządzenie pośrednie
rezerwując je, po co płacić sześć razy więcej? Biorąc pod uwagę, że wyjście
budowa jednego z dysków w macierzy nie jest krytyczna, jest całkowicie akceptowalna w użyciu
dysk z dyskami ATA. Oczywiście istnieje szereg przeciwwskazań do stosowania
Dyski ATA w dużych systemach pamięci masowej, ale jest też wiele zastosowań
dla których są idealne.
Urządzenia IDE są najczęściej używane w systemach NAS klasy podstawowej. Przy zastosowaniu dwóch lub czterech dysków zorganizowanych w macierz RAID 1 lub 0+1 prawdopodobieństwo awarii całego systemu jest akceptowalnie małe, a wydajność całkiem wystarczająca "z głową" - serwery plików dyski klasy podstawowej nie wykonują zbyt wielu operacji dyskowych na sekundę, a przepływ danych jest ograniczony do zewnętrznych interfejsów Fast Ethernet lub Gigabit Ethernet.
Gdzie blokowanie dostępu do danych jest wymagane przy minimalnym koszcie rozwiązania i
liczba operacji na jednostkę czasu nie jest parametrem krytycznym, użyj
systemy z zewnętrznym równoległym interfejsem SCSI lub Fibre Channel i dyskami ATA
wewnątrz (rys. 2).
Czołowi producenci oferują obecnie dyski ATA, które są zbliżone pod względem wszystkich cech,
w tym MTBF do przemysłowych dysków SCSI. Razem z
tym bardziej ich koszt staje się porównywalny, a zatem korzystanie z dysków ATA
zapewnia jedynie niewielki zysk w cenie dysków.
Dla serwerów i stacji roboczych klasy podstawowej, które przechowują wystarczająco dużo
ważne dane, stosowanie tanich kontrolerów PCI ATA, jak pokazuje praktyka,
nie zawsze daje pożądany rezultat ze względu na ich względną prymitywność i małe
funkcjonalność. Stosowanie drogich dysków zewnętrznych nie zawsze jest uzasadnione.
W takim przypadku możesz użyć urządzenia ATA-to-ATA, które jest zredukowane
kopia zewnętrznego systemu pamięci dyskowej i jest przeznaczona tylko dla dwóch dysków
z interfejsem ATA. Ma jednak wbudowany kontroler dość wysokiej jakości.
i obsługuje dyski typu „hot-swap” (rysunek 3).
Serial ATA - nowy oddech interfejsu ATA
Wraz z pojawieniem się interfejsu Serial ATA systemów przechowywania danych na dyskach ATA
powinno stać się więcej. Mówią o tym prawie wszyscy producenci napędów.
poziom podstawowy. Dziś ich nowe modele są już wyposażone w nowy interfejs. Jak
Czy interfejs Serial ATA jest interesujący dla producentów systemów przechowywania danych?
Obsługuje zestaw instrukcji Native Command Queuing (potoki poleceń) - kontroler analizuje żądania I/O i optymalizuje kolejność ich wykonywania. To prawda, że w przeciwieństwie do tradycyjnego natywnego kolejkowania poleceń w dyskach SCSI, które zapewniało kolejkę do 256 poleceń, Serial ATA obsługuje kolejkę do 32 poleceń. „Hot-swapping” dysków Serial ATA, który kiedyś wymagał pewnych technicznych sztuczek, jest teraz wpisany bezpośrednio do standardu, co pozwoli na tworzenie rozwiązań korporacyjnych na wysokim poziomie. Ważny jest również nowy design: kabel w nowym interfejsie stał się okrągły, a jego złącze jest małe i wąskie, co ułatwia projektowanie i montaż systemów.
W nowych wersjach prędkość Serial ATA wzrośnie i nie ma wątpliwości, że udział rozwiązań ATA w systemach pamięci masowej klasy podstawowej wzrośnie właśnie dzięki nowym dyskom z tym interfejsem, podczas gdy rozwój Parallel ATA ulegnie spowolnieniu, co zostało zaobserwowane w ostatnim czasie.
RAID (nadmiarowa macierz niezależne dyski) Dyski klasy podstawowej zazwyczaj korzystają z poziomów RAID 0, 1, 5 i ich kombinacje. RAID 0 Zaletą tego podejścia jest zapewnienie wysokiej wydajności dla RAID 1 Zalety - łatwość wdrożenia i odtworzenia macierzy danych, a także RAID 5 Dane są dzielone na poziomie bloków. Każdy blok danych jest zapisywany w RAID 5 zapewnia wysoka prędkość zapis i odczyt danych, co zwiększa |
Serial Attached SCSI
Interfejs SCSI charakteryzuje się dużą szybkością i niezawodnością, ale takie rozwiązania
dość drogie. SAS (Serial Attached SCSI) to interesująca ewolucja SCSI
i, z dużym prawdopodobieństwem, będzie również stosowany w tanich systemach klasy podstawowej.
i średni poziom.
Obecnie wielu producentów pamięci masowych używa interfejsu Ultra 320 SCSI do projektowania stosunkowo prostych dysków. To jest generacja równoległego interfejsu SCSI na ten moment ostatni w kolejce. Dyski z wcześniej zapowiedzianym interfejsem Ultra 640 SCSI najprawdopodobniej nie będą produkowane masowo lub całkowicie znikną ze sceny. Na niedawnym spotkaniu z partnerami firma Seagate, lider w dziedzinie dysków twardych klasy korporacyjnej, ogłosiła, że nowe modele dysków do systemów high-end będą wyposażone w interfejs Fibre Channel, a do mniejszych systemy korporacyjne- Szeregowy SCSI. Jednocześnie zwykły równoległy Ultra 320 SCSI nie zniknie natychmiast. Jego ostateczna wymiana ma nastąpić nie wcześniej niż za pięć lat.
Serial SCSI łączy w sobie niektóre funkcje Serial ATA i Fibre Channel. Został opracowany na podstawie specyfikacji Serial ATA i ulepszony. Tym samym wzrósł poziom sygnału, co pozwala odpowiednio zwiększyć maksymalną długość czterożyłowego kabla do 10 m. Ten dwukanałowy interfejs punkt-punkt działa w trybie pełnego dupleksu, może obsłużyć do 4096 urządzeń dyskowych w domenie i wspiera standardowy zestaw Polecenia SCSI.
Jednocześnie, pomimo wszystkich swoich zalet, interfejs Serial Attached SCSI prawdopodobnie nie zastąpi w najbliższej przyszłości konwencjonalnego interfejsu równoległego. W świecie rozwiązań dla przedsiębiorstw rozwój prowadzony jest bardzo ostrożnie i oczywiście dłużej niż w przypadku systemów stacjonarnych. Tak, a stare technologie nie znikają bardzo szybko, ponieważ koło życia trwa kilka lat. Pierwsze urządzenia Interfejs SAS powinien pojawić się na rynku w 2004 roku. Oczywiście na początku będą to głównie dyski i kontrolery PCI, ale systemy przechowywania danych pojawią się dość szybko. Charakterystyka porównawcza interfejsy są wymienione w tabeli „Porównanie nowoczesnych interfejsów dyskowych”.
SAN — sieci pamięci masowej
SAN (patrz pasek boczny „Klasyfikacja systemów przechowywania danych – DAS/SAS,
NAS, SAN”) w oparciu o Fibre Channel pozwalają rozwiązać niemal każde zadanie
przechowywanie i dostęp do danych. Ale jest kilka wad, które negatywnie wpływają
na upowszechnienie tych technologii, przede wszystkim - wysokie koszty rozwiązań
oraz złożoność budowania systemów rozproszonych geograficznie.
Toczy się ostra debata wokół wykorzystania protokołu IP jako transportu poleceń SCSI i danych w sieciach SAN, ale wszyscy rozumieją, że rozwiązania IP Storage z pewnością znajdą swoją niszę w dziedzinie systemów pamięci masowej, a to nie potrwa długo.
W ramach doskonalenia technologii sieciowych pamięci masowych, Internet Engineering Task Force (IETF) zorganizował grupę roboczą oraz forum IP Storage (IPS) w następujących obszarach:
FCIP - Fibre Channel over TCP/IP, protokół tunelowy oparty na TCP/IP i przeznaczony do łączenia odległych geograficznie sieci SAN FC bez wpływu na protokoły FC i IP;
iFCP - Internet Fibre Channel Protocol, protokół do łączenia systemów FC lub sieci pamięci masowej opartych na protokole TCP/IP, wykorzystujący infrastrukturę IP w połączeniu z elementami przełączania i routingu FC lub zamiast nich;
iSNS - Internet Storage Name Service, protokół obsługi nazw pamięci;
iSCSI to skrót od Internet Small Computer Systems Interface, protokół oparty na protokole TCP/IP przeznaczony do komunikacji z systemami pamięci masowej, serwerami i klientami oraz do zarządzania nimi.
Najszybciej rozwijającym się i interesującym z tych obszarów jest iSCSI, który stał się oficjalnym standardem 11 lutego 2003 roku. Jej rozwój powinien znacząco wpłynąć na rozpowszechnienie sieci SAN w małych i średnich firmach, ze względu na to, że sieci pamięci masowej staną się znacznie tańsze. Jeśli chodzi o korzystanie z iSCSI w Internecie, dziś FCIP już się tutaj dobrze zakorzenił i konkurencja z nim będzie dość zacięta, ale ze względu na zintegrowane podejście, powinna działać na korzyść iSCSI.
Dzięki technologiom IP Storage, w tym iSCSI, sieci pamięci masowej mają nowe możliwości budowania geograficznie rozproszonych systemów pamięci masowej. Ponadto nowe systemy pamięci masowej, które natywnie wykorzystują technologię iSCSI, zapewnią wiele innych korzyści, takich jak obsługa QoS, wysoki poziom bezpieczeństwa oraz możliwość korzystania ze specjalistów Ethernet do obsługi sieci.
Jedną z bardzo interesujących funkcji iSCSI jest to, że do przesyłania danych na dysku iSCSI można używać nie tylko nośników, przełączników i routerów. istniejące sieci LAN/WAN, ale także konwencjonalne karty sieciowe Fast Ethernet lub Gigabit Ethernet po stronie klienta. Ale tak naprawdę, ze względu na pewne trudności, lepiej jest skorzystać ze specjalistycznego sprzętu, co spowoduje, że kosztami rozwiązań zaczną doganiać tradycyjne sieci SAN Fibre Channel.
Szybki rozwój sieci magazynowych stał się podstawą do powstania koncepcji World
Szeroka sieć pamięci masowej. WWSAN przewiduje stworzenie infrastruktury, która:
zapewni szybki dostęp i przechowywanie danych rozproszonych na całym świecie.
Porównanie nowoczesnych interfejsów dyskowych
Opcje |
Seryjny ATA |
SCSI |
SAS |
FC |
Liczba obsługiwanych urządzeń | 16 | 16 | 4096 | 2 24 |
Maksymalna długość kabla, m | 1 | 12 | 10 | Miedź: 30 |
Optyka: 10 000* | ||||
Obsługiwane topologie | kropka-kropka | Opona | kropka-kropka | Dzwonić** |
kropka-kropka | ||||
Szybkość, MB/s | 150, 300 | 320 | 150, 300 | 100, 200, 400 |
pełny dupleks | — | — | + | + |
Interfejsy | ATA, SCSI | SCSI | ATA, SCSI | Niezależny*** |
Obsługa urządzeń z dwoma portami | — | — | + | + |
* Norma reguluje odległość
do 10 km dla światłowodu jednomodowego, istnieją implementacje do transmisji danych
na dystansie ponad 100 km.
** W ramach wewnętrznej topologii pierścienia działają koncentratory i przełączniki FC,
istnieją również implementacje przełączników, które zapewniają połączenie punkt-punkt
wszelkie urządzenia do nich podłączone.
*** Istnieją implementacje urządzeń dla interfejsów i protokołów SCSI, FICON,
ESCON, TCP/IP, HIPPI, VI.
Seria Infortrend ESDS 1000
Recenzja Infortrend ESDS 1000
Systemy pamięci masowej EonStor DS 1000 zapewniają doskonały stosunek ceny do wydajności. Dla użytkowników małych średnich...
Pamięć masowa Infortrend ESDS z serii 1000
Seria Infortrend ESDS 1000 to przystępna cenowo pamięć masowa z wbudowanymi interfejsami iSCSI i opcjonalnymi interfejsami FC/SAS, zapewniającymi zwiększoną wydajność i skalowalność.
Recenzja Infortrend ESDS 1000
Systemy pamięci masowej EonStor DS 1000 zapewniają doskonały stosunek ceny do wydajności. Dla użytkowników małych i średnich firm (SMB) dostępne jest rozwiązanie klasy podstawowej. Dostępne są modele dla różnej liczby dysków HDD w różnych obudowach: 12-gniazdowe 2U, 16-gniazdowe 3U i 24-gniazdowe 2U poniżej 2,5" dyski. Wszystkie zawierają wiele portów iSCSI 1 Gb/s do łączności sieciowej, architekturę zbudowaną z myślą o aplikacjach nadzoru, które wymagają szybkiego połączenia z wieloma klientami. Do obudów rozszerzających można podłączyć do 444 dysków. Dzięki obsłudze dysków o pojemności 10 TB oznacza to, że dostępna pojemność może wynosić do 4 PB.
Skład serii EonStor DS 1000
Modele na 2,5-calowy dysk twardy
DS 1024B — 2U, 24 dyski 2,5" z interfejsem SAS lub SATA
DS-1036B - 3U, 36 dysków 2,5" z interfejsem SAS lub SATA
Modele na dysk twardy 3,5"
DS 1012 - 2U, 12 dysków 3,5" z interfejsem SAS lub SATA
DS 1016 - 3U, 16 dysków 3,5" z interfejsem SAS lub SATA
DS 1024 - 4U, 24 prowadzić 3,5"z interfejsem SAS lub SATA
Wydajność
- EonStor DS 1000 zapewnia do 550 tys. IOPS (operacje w pamięci podręcznej) i 120 tys. IOPS (pełna ścieżka, w tym dyski), aby przyspieszyć wszystkie operacje związane z przechowywaniem.
- Przepustowość sięga 5500 MB/s odczytu i 1900 MB/s. na płycie, co ułatwia radzić sobie nawet z intensywnymi obciążeniami z wysoką wydajnością.
Praca z pamięcią podręczną SSD
(opcjonalnie, wymagana licencja)
- Poprawiona wydajność odczytu gorących danych
- Do czterech dysków SSD na kontroler
- Duża pojemność basenu Dyski SSD: do 3,2 TB
Ryż. 1 Wzrost IOPS, gdy pamięć podręczna SSD jest nasycona gorącymi danymi
Połączone opcje interfejsu hosta
- Wszystkie systemy są wyposażone w cztery porty iSCSI 1 Gb/s, aby zapewnić więcej niż wystarczającą łączność z klientami, serwerami i innymi macierzami pamięci masowej.
- Opcjonalnie dodany moduł interfejs hosta z Fibre Channel 8 Gb/s lub 16 Gb/s, iSCSI 10 Gb/s lub 40 Gb/s iSCSI, 10 Gb/s FCoE lub 12 Gb/s SAS do pracy równoległej z domyślnymi portami iSCSI 1 Gb/s.
- Opcjonalnie dodany do konwergentna płyta główna z 4 opcjami łączności do wyboru (16 Gb/s FC, 8 Gb/s FC i 10 Gb/s iSCSI SFP+, 10 Gb/s FCoE)
Różne opcje zapisywania pamięci podręcznej
Trwałe, bezobsługowe superkondensatory i moduł flash niewymagający wymiany zapewniają bezpieczne i niezawodne źródło zasilania do utrzymania stanu pamięci podręcznej w przypadku awarii głównego źródła zasilania
Moduł podtrzymania bateryjnego z możliwością wymiany podczas pracy (BBU) z modułem flash przechowuje dane w przypadku nagłego wyłączenia systemu lub awarii zasilania.
Możesz wybrać BBU lub superkondensatory dopasowane do Twoich potrzeb i budżetu
Opcjonalnie dostępne i dołączone zaawansowane funkcje:
Replikacja lokalna Replikacja lokalna
(Licencja standardowa jest dołączona domyślnie, licencja rozszerzona jest opcjonalna)
Migawki
Licencja standardowa | Licencja Rozszerzona | |
Migawki na oryginalny wolumin | 64 | 256 |
Migawki w systemie | 128 | 4096 |
Kopia woluminu/odbicie lustrzane
Licencja standardowa | Licencja Rozszerzona | |
Woluminy źródłowe w systemie | 16 | 32 |
Pary replikacji na wolumin źródłowy | 4 | 8 |
Pary replikacji na system | 64 | 256 |
Dostrajanie (domyślnie włączone)
Alokacja pojemności na czas optymalizuje wykorzystanie pamięci masowej i eliminuje dedykowaną, ale niewykorzystaną przestrzeń dyskową.
Zdalna replikacja (dodatkowa licencja)
Replikacja na objętość: 16
Pary replikacji na wolumin źródłowy: 4
Partie replikacji na system: 64
zautomatyzowany system warstwowy przechowywanie danych (dodatkowa licencja)
Dwie lub cztery warstwy pamięci masowej w zależności od typów dysków
Obsługa dysków SSD
Automatyczna migracja danych z opcjami planowania
Buforowanie SSD (dodatkowa licencja)
Przyspieszenie dostępu do danych w środowiskach o dużej intensywności odczytu, takich jak OLTP
Obsługuje do 4 dysków SSD na kontroler
Zalecana pojemność DIMM na kontroler dla pamięci podręcznej SSD:
DRAM: maks. 2 GB Rozmiar puli pamięci podręcznej SSD: 150 GB
DRAM: maks. 4 GB Rozmiar pamięci podręcznej SSD: 400 GB
DRAM: maks. 8 GB Rozmiar puli pamięci podręcznej SSD: 800 GB
DRAM: 16 GB maks. Rozmiar pamięci podręcznej SSD: 1600 GB
Nie pasuje do Twojego systemu pamięci masowej Infortrend DS 1000 Series? Rozważ przechowywanie innej serii lub linii, przejdź do sekcji:
Bohaterem tej recenzji będzie skromny system pamięci masowej DotHill 4824. Z pewnością wielu z was słyszało, że DotHill, jako partner OEM, produkuje podstawowe systemy pamięci masowej dla Hewlett-Packard - te bardzo popularne już HP MSA (Modular Storage Array) w czwartym pokoleniu. Linia DotHill 4004 pasuje do HP MSA2040 z niewielkimi różnicami, które zostaną szczegółowo opisane poniżej.
DotHill to klasyczne rozwiązanie do przechowywania danych klasy podstawowej. Współczynnik kształtu, 2U, dwie opcje dla różnych napędów i szeroka gama interfejsów hosta. Dublowana pamięć podręczna, dwa kontrolery, asymetryczna aktywna-aktywna z ALUA. W zeszłym roku dodano nową funkcjonalność: pule dyskowe z trójpoziomowym tieringiem (warstwowa pamięć danych) oraz pamięć podręczna SSD.
Charakterystyka
- Obudowa: 2U 24x 2,5" lub 12x 3,5"
- Interfejsy (na kontroler) 4524C/4534C - 4x SAS3 SFF-8644
- Skalowanie: 192 dyski 2,5-calowe lub 96 dysków 3,5-calowych obsługuje do 7 dodatkowych DAE
- Obsługa RAID: 0, 1, 3, 5, 6, 10, 50
- Pamięć podręczna (na kontroler): 4 GB z ochroną flash
- Funkcje: migawki, klonowanie woluminów, replikacja asynchroniczna (z wyjątkiem SAS), alokacja uproszczona, pamięć podręczna SSD, 3-poziomowa obsługa warstw (SSD, 10/15k HDD, 7,2k HDD)
- Limity konfiguracji: 32 macierze (vDisk), do 256 woluminów na macierz, 1024 woluminy na system
- Zarządzanie: CLI, interfejs sieciowy, obsługa SMI-S
Pule dyskowe w DotHill
Dla tych, którzy nie są zaznajomieni z teorią, warto porozmawiać o zasadach pul dyskowych i warstwowej pamięci masowej. Dokładniej o konkretnej implementacji w systemie magazynowym DotHill.Przed pojawieniem się basenów mieliśmy dwa ograniczenia:
- Maksymalny rozmiar grupy dysków. RAID-10, 5 i 6 mogą mieć maksymalnie 16 dysków. RAID-50 - do 32 dysków. Jeśli potrzebujesz woluminu z dużą liczbą wrzecion (ze względu na wydajność i / lub objętość), musisz połączyć jednostki LUN po stronie hosta.
- Nieoptymalne wykorzystanie szybkich dysków. Możesz utworzyć dużą liczbę grup dysków dla kilku profili obciążenia, ale duże liczby hostów i usług na nich, trudno jest stale monitorować wydajność, głośność i okresowo wprowadzać zmiany.
Pula dyskowa w magazynie DotHill to zbiór kilku grup dyskowych z rozkładem obciążenia między nimi. Pod względem wydajności pulę można uznać za RAID-0 kilku podtablic, tj. już rozwiązujemy problem krótkich grup dysków. W sumie w systemie pamięci masowej obsługiwane są tylko dwie pule dyskowe, A i B, po jednej na kontroler), każda pula może zawierać do 16 grup dysków. Główną różnicą architektoniczną jest maksymalne wykorzystanie swobodnego umieszczania pasków na dyskach. Na tej funkcji opiera się kilka technologii i funkcji:
Różnice w stosunku do HP MSA2040
Wydajność
Konfiguracja przechowywania
- DotHill 4824 (2U, 24x2,5")
- Wersja oprogramowania: GL200R007 (najnowsza w czasie testowania)
- Aktywowana licencja RealTier 2.0
- Dwa kontrolery z portami CNC (FC/10GbE), 4 transceivery 8Gb FC (zainstalowane w pierwszym kontrolerze)
- 20 dysków twardych SAS o pojemności 146 GB 15 obr./min (Seagate ST9146852SS)
- 4 dyski SSD 400 GB (HGST HUSML4040ASS600)
Konfiguracja hosta
- Platforma Supermicro 1027R-WC1R
- 2x Intel Xeon E5-2620v2
- 8x 8 GB DDR3 1600 MHz ECC RDIMM
- 480 GB SSD Kingston E50
- 2x Qlogic QLE2562 (2-portowy HBA 8 Gb FC)
- CentOS 7, fio 2.1.14
Pula z warstwą Tier-1 i pamięcią podręczną na dysku SSD
Ten test to trzygodzinne (180 cykli po 60 sekund) obciążenie z losowym dostępem w blokach 8KiB (8 wątków o głębokości kolejki 16 każdy) z różnymi współczynnikami odczytu/zapisu. Całe obciążenie jest skoncentrowane na obszarze 0-20 GB, co gwarantuje, że jest mniejsze niż objętość warstwy wydajności ”i/lub pamięci podręcznej na dysku SSD (800 GB) - odbywa się to w celu szybkiego wypełnienia pamięci podręcznej lub warstwy w akceptowalny czas.Przed każdym uruchomieniem testowym wolumen był tworzony ponownie (aby wyczyścić pamięć podręczną warstwy SSD „a lub SSD), wypełniany losowymi danymi (sekwencyjny zapis w blokach 1MiB), odczyt z wyprzedzeniem był wyłączony na wolumenie. a maksymalne wartości latencji określano w każdym 60-sekundowym cyklu.
Testy z odczytem 100% i odczytem + zapis 65/35 przeprowadzono zarówno z warstwą SSD (do puli dodano grupę dysków 4x400GB SSD w RAID-10), jak i z pamięcią podręczną SSD (2x400GB SSD w RAID-0, pamięć nie pozwala na dodanie więcej niż dwóch dysków SSD do pamięci podręcznej dla każdej puli). Wolumen został utworzony w puli dwóch grup dysków RAID-6 po 10 dysków SAS o pojemności 46 GB i prędkości 15 tys. obr./min każda (tj. w rzeczywistości jest to RAID 2x10- 60) Dlaczego nie 10 lub 50? Celowo utrudnić przechowywanie losowego zapisu.
IOPS
Wyniki były dość przewidywalne. Jak twierdzi sprzedawca, przewagą pamięci podręcznej SSD nad „omami” warstwy SSD jest szybsze wypełnianie pamięci podręcznej, tj. system pamięci masowej szybciej reaguje na pojawienie się „gorących” obszarów z intensywnym obciążeniem przy dostępie losowym: IOPS rośnie na 100% czytanie razem z opóźnieniem spada szybciej niż w przypadku korzystania z tieringu.Ta zaleta kończy się, gdy tylko zostanie dodane znaczne obciążenie zapisu. RAID-60, delikatnie mówiąc, nie nadaje się zbytnio do losowych zapisów w małych blokach, ale ta konfiguracja została wybrana specjalnie, aby pokazać istotę problemu: system pamięci masowej nie radzi sobie z zapisem, ponieważ. omija pamięć podręczną w powolnym RAID-60, kolejka szybko się zapełnia, a na obsługę żądań odczytu pozostaje niewiele czasu, nawet przy buforowaniu. Niektóre bloki nadal tam trafiają, ale szybko tracą ważność, ponieważ trwa nagrywanie. To błędne koło powoduje, że pamięć podręczna tylko do odczytu staje się nieefektywna przy tym profilu obciążenia. Dokładnie taką samą sytuację można było zaobserwować we wczesnych wersjach pamięci podręcznej SSD (przed pojawieniem się funkcji Write-Back) w kontrolerach RAID LSI i Adaptec PCI-E. Rozwiązanie - użyj początkowo bardziej produktywnego wolumenu, tj. RAID-10 zamiast 5/6/50/60 i/lub warstwy SSD zamiast pamięci podręcznej.
Średnie opóźnienie
Maksymalne opóźnienie
Ten wykres wykorzystuje skalę logarytmiczną. W przypadku 100% i korzystania z pamięci podręcznej SSD można zauważyć bardziej stabilną wartość latencji - po zapełnieniu pamięci podręcznej wartości szczytowe nie przekraczają 20ms.Co można podsumować dylematem „caching vs. tiering”?
Co wybrać?
- Wypełnianie pamięci podręcznej jest szybsze. Jeśli Twoje obciążenie składa się głównie z losowych odczytów, a jednocześnie obszar „gorący” okresowo się zmienia, powinieneś wybrać pamięć podręczną.
- Zapisywanie „szybkiej” głośności. Jeśli „gorące” dane zmieszczą się w całości w pamięci podręcznej, ale nie w warstwie SSD, pamięć podręczna będzie prawdopodobnie bardziej wydajna. Pamięć podręczna SSD w DotHill 4004 jest tylko do odczytu, więc tworzona jest dla niej grupa dysków RAID-0. Na przykład mając 4 dyski SSD po 400 GB każdy, możesz uzyskać 800 GB pamięci podręcznej dla każdej z dwóch pul (łącznie 1600 GB) lub 2 razy mniej przy użyciu warstwowania” i (800 GB dla jednej puli lub 400 GB dla dwóch). Oczywiście, jest jeszcze jedna opcja 1200 GB w RAID-5 dla jednej puli, jeśli druga nie potrzebuje dysków SSD.
Z drugiej strony całkowity użyteczny rozmiar puli podczas korzystania z warstw będzie większy ze względu na przechowywanie tylko jednej kopii bloków.
- Pamięć podręczna nie ma wpływu na wydajność dostępu sekwencyjnego. Podczas buforowania bloki nie są przenoszone, a jedynie kopiowane. Przy odpowiednim profilu obciążenia (odczyt losowy w małych blokach z wielokrotnym dostępem do tego samego LBA) system pamięci masowej wydaje dane z pamięci podręcznej SSD, jeśli jest, lub z dysku twardego i kopiuje je do pamięci podręcznej. W przypadku obciążenia dostępu szeregowego dane zostaną odczytane z dysku twardego. Przykład: pula 20 dysków twardych 10 lub 15k może dać około 2000 MB/s przy odczycie sekwencyjnym, ale jeśli potrzebne dane trafią na grupę dysków z pary dysków SSD, to dostaniemy około 800 MB/s. To, czy jest to krytyczne, czy nie, zależy od rzeczywistego scenariusza korzystania z systemów pamięci masowej.
4x SSD 400GB HGST HUSML4040ASS600 RAID-10
Wolumen został przetestowany na liniowej grupie dysków - RAID-10 czterech dysków SSD o pojemności 400 GB. W tej przesyłce DotHill HGST HUSML4040ASS600 okazał się abstrakcyjnymi „dyskami SSD SFF SAS o pojemności 400 GB”. Jest to dysk SSD serii Ultrastar SSD400M o dość wysokiej deklarowanej wydajności (56000/24000 IOPS do odczytu/zapisu 4KiB), a co najważniejsze z zasobem 10 przepisywania dziennie przez 5 lat. Oczywiście teraz HGST ma w swoim arsenale bardziej wydajne dyski SSD800MM i SSD1600MM, ale to wystarczy dla DotHill 4004.Wykorzystaliśmy testy zaprojektowane dla pojedynczych dysków SSD - "IOPS Test" i "Latency Test" ze specyfikacji SNIA Solid State Storage Performance Test Specification Enterprise v1.1:
- Test IOPS. Liczba IOPS” (IOPS) jest mierzona dla bloków o różnych rozmiarach (1024KiB, 128KiB, 64KiB, 32KiB, 16KiB, 8KiB, 4KiB) i dostępu losowego z różnymi współczynnikami odczytu / zapisu (100/0, 95/5, 65 /35, 50/50, 35/65, 5/95, 0/100) Użyto 8 wątków z głębokością kolejki 16.
- Test opóźnień. Wartość średniego i maksymalnego opóźnienia jest mierzona dla różnych rozmiarów bloków (8KiB, 4KiB) i współczynników odczytu/zapisu (100/0, 65/35, 0/100) przy minimalnej głębokości kolejki (1 wątek z QD=1) .
SNIA PTS: test IOPS
Zgodnie z oczekiwaniami osiągnięto deklarowany limit wydajności pojedynczego kontrolera w zakresie IOPS z małymi blokami. Z jakiegoś powodu DotHill wskazuje 100 000 IOPS do odczytu, a HP dla MSA2040 - bardziej realistyczne 80 000 IOPS (uzyskuje się 40 tys. na kontroler), co widzimy na wykresie.
W celu weryfikacji przetestowano pojedynczy dysk SSD HGST HGST HUSML4040ASS600 z połączeniem z SAS HBA. Na bloku 4KiB do odczytu i zapisu odebrano około 50 tys. IOPS, przy nasyceniu (SNIA PTS Write Saturation Test) zapis spadł do 25-26 tys. IOPS, co odpowiada charakterystyce deklarowanej przez HGST.
SNIA PTS: Test opóźnień
Średnie opóźnienie (ms):Maksymalne opóźnienie (ms):
Wartości średnie i szczytowe latencji są tylko o 20-30% wyższe niż te dla pojedynczego dysku SSD po podłączeniu do SAS HBA.
Wniosek
Oczywiście artykuł okazał się nieco chaotyczny i nie odpowiada na kilka ważnych pytań:- Porównanie w podobnej konfiguracji z produktami innych producentów: IBM v3700, Dell PV MD3 (i inni potomkowie LSI CTS2600), Infrotrend ESDS 3000 itd. Systemy pamięci masowej trafiają do nas w różnych konfiguracjach i z reguły nie na długo - musisz załadować i / lub wdrożyć.
- Limit pamięci nie został przetestowany przez pasmo. Udało nam się zobaczyć około 2100MiB/s (RAID-50 na 20 dysków), ale nie przetestowałem szczegółowo ładowania sekwencyjnego ze względu na niewystarczającą liczbę dysków. Jestem pewien, że deklarowane 3200/2650 MB/s do odczytu/zapisu dałoby się uzyskać.
- Nie ma wykresu IOPS w zależności od opóźnienia, przydatnego w wielu przypadkach, gdzie zmieniając głębokość kolejki można zobaczyć, ile IOPS można uzyskać przy akceptowalnej wartości opóźnienia. Niestety, nie starczyło czasu.
- Najlepsze praktyki. Nie chciałem wymyślać koła na nowo, bo jest