Kraftway przedstawia nowy produkt w segmencie pamięci masowych klastrowych zorientowanych na sprzęt: zaufane systemy pamięci masowej PROGRESS, które bazują na kontrolerach ze zintegrowanymi narzędziami bezpieczeństwa informacji i rosyjskim produkty oprogramowania zarządzanie macierzą dyskową. Cechy charakterystyczne zaufana platforma do przechowywania Kraftway:

  • wbudowane funkcje bezpieczeństwa informacji zintegrowane ze sterownikami (obwody płyty, BIOS i kod oprogramowania sprzętowego Marynarki Wojennej);
  • oprogramowanie(Oprogramowanie) do zarządzania systemem magazynowania, wpisany do rejestru Ministerstwa Łączności Federacji Rosyjskiej. Oprogramowanie jest produkowane przez Radix, NPO Baum i Aerodisk.

Zaufana pamięć masowa jest przeznaczona dla klientów, którzy mają określone wymagania dotyczące bezpieczeństwa swoich systemów informatycznych. SHD PROGRESS zawiera modele z liczbą kontrolerów 1,2,4 i 8 (*) pracujących w trybie Active-Active i zapewniających wysoką odporność na uszkodzenia systemu pamięci masowej. Do kontrolerów systemu podłączone są półki na dyski rozszerzające o różnych standardowych rozmiarach, zapewniające pojemność do kilkudziesięciu PB. Maksymalna pojemność pamięci z dwoma kontrolerami to 16 PB. Interfejsy hosta pamięci masowej: iSCSI 1 do 100 Gb/s, FC 2 do 32 Gb/s, Infiniband do 100 Gb/s (*).

(*) Specyfikacje może się różnić w zależności od dostawcy oprogramowania.



  • E. Kontrola dostępu


    Załączony plik

  • Zaufane systemy przechowywania Kraftway PROGRESS

    Zadać pytanie
  • Zaufane systemy przechowywania Kraftway PROGRESS

  • Zaufane systemy przechowywania Kraftway PROGRESS

    Funkcje oprogramowania do zarządzania pamięcią masową Kraftway PROGRESS

  • Zaufane systemy przechowywania Kraftway PROGRESS

    Główne scenariusze wykorzystania VAZ

    A. Zapewnienie, że tylko upoważniony personel ma dostęp do kontrolera pamięci masowej

    Do załadunku system operacyjny kontroler wymaga uwierzytelniania dwuskładnikowego. Po włączeniu zasilania VZZ zatrzymuje proces pobierania. Upoważniony użytkownik musi posiadać urządzenie identyfikacyjne (karta inteligentna, klucz USB) i hasło, aby kontynuować pobieranie.
    VZZ ma możliwość różnicowania uprawnień do zarządzania ustawieniami bezpieczeństwa w zależności od roli użytkownika. Zwykły użytkownik, na przykład może nie mieć uprawnień do wprowadzania i zmieniania ustawień systemu UEFI BIOS.

    B. Kontrolowanie integralności konfiguracji sprzętowej

    Po włączeniu zasilania VZZ wykonuje samotestowanie, obliczanie sumy kontrolnej i porównanie z wzorcami. Jeśli się powiedzie, integralność sprzętu jest monitorowana przez porównanie sum kontrolnych i sygnalizację wykrycia zmian. Jeśli integralność zostanie naruszona, tylko użytkownik z prawami administratora będzie mógł zarządzać VZ.

    B. Kontrolowanie integralności systemu plików

    Administrator VZ może włączyć sprawdzanie integralności krytycznych plików pod kątem zmian. W takim przypadku, gdy produkt zostanie włączony przed załadowaniem systemu operacyjnego, obliczane są sumy kontrolne plików dodanych do listy kontrolnej. W przypadku naruszenia integralności tylko użytkownik z uprawnieniami Administratora będzie mógł zarządzać integracją VIS

    D. Skanowanie antywirusowe przed uruchomieniem systemu operacyjnego

    Wyszukiwanie złośliwego oprogramowania na etapie UEFI przed uruchomieniem systemu operacyjnego pozwala na neutralizację zagrożeń, które są niezwykle trudne do wykrycia po uruchomieniu systemu operacyjnego, tzw. „rootkitów” i „bootkitów”. Mogą modyfikować sektory rozruchowe systemu, a także w celu ukrycia śladów obecności atakującego lub złośliwego oprogramowania w systemie. Wyszukiwanie odbywa się za pomocą specjalistycznego modułu „Kaspersky Anti-Virus for UEFI”. W przypadku wykrycia złośliwy kod skaner wstrzymuje ładowanie systemu operacyjnego i identyfikuje zainfekowany obiekt.

    E. Kontrola dostępu do zasobów sprzętowych za pomocą „cienkiego hiperwizora”. Hiperwizor jest częścią UEFI i jest narzędziem programowym do ograniczania dostępu do zasobów sprzętowych urządzenia komputerowego.
    Hiperwizor działa w trybie wirtualizacji wszystkich osób fizycznie obecnych na płyta główna urządzenia wejścia/wyjścia, a także porty wejścia/wyjścia i kanały bezpośredniego dostępu do pamięci. Hiperwizor zapewnia kontrolę dostępu do nośników zewnętrznych, w tym zakaz ich używania, a także scentralizowane rozliczanie podłączonych nośników wymiennych.

    Funkcje oprogramowania do zarządzania pamięcią masową

    Załączony plik zawiera opis i funkcje oprogramowania do zarządzania macierzami dyskowymi każdego z producentów: Radix, NPO Baum i Aerodisk.

    • Seria Dell EMC Storage SC to zautomatyzowane, nowoczesne rozwiązania infrastrukturalne zbudowane z hybrydowej pamięci masowej i wysokiej klasy macierzy Flash.
    • Seria Dell EMC Equallogic PS to idealne urządzenia do korporacyjnego środowiska informacyjnego, umożliwiające wydajną realizację codziennych zadania informacyjne.
    • Seria Dell POWERVAULT MD to skalowalne, tanie systemy, które obsługują konsolidację dużych ilości danych i upraszczają zarządzanie danymi.
    • Seria EMC VNXE to ujednolicone rozwiązania pamięci masowej dla potrzeb informacyjnych małych firm.

    Pamięć na poziomie podstawowym

    Systemy pamięci masowej Dell EMC klasy podstawowej zapewniają wydajne platformy dla małych firm, a także dużych firm, które wyróżniają się rozbudowaną infrastrukturą oddziałów. Ta klasa sprzętu jest wysoce skalowalna od 6 do 150 dysków o maksymalnej pojemności 450 TB. Systemy pamięci masowej Dell EMC są idealne dla przedsiębiorstw posiadających zaawansowaną infrastrukturę fizycznych systemów serwerowych, a także dla tych, którzy praktykują wykorzystanie zwirtualizowanych systemów serwerowych. Praktyczne wykorzystanie pamięci masowych Dell EMC pozwoli skonsolidować duże ilości informacji, a także poprawić efektywność ich przetwarzania. Za pomocą tych urządzeń możliwe będzie wdrożenie wielofunkcyjnych systemów pamięci masowej opartych na sieciach IP, które obsługują protokoły dostępu do plików i blokowania, odpowiednio NAS i iSCSI.

    Przechowywanie średniotonowe

    Dell EMC Midrange Storage to bogata w funkcje platforma, która umożliwia konsolidację blokowej pamięci masowej, systemów serwerów plików i pamięci masowej podłączanej bezpośrednio. Zastosowanie tego sprzętu umożliwi firmom dynamiczny rozwój systemów plików i blokowanie zasobów z równoległą obsługą kilku protokołów - NFS i CIFS. Ponadto magazyny pamięci masowej mogą zapewniać dostęp do informacji za pomocą protokołów takich jak Fibre Channel, iSCSI i FCoE. Pomoże to obsługiwać aplikacje blokowe, które wymagają dużej przepustowości i małych opóźnień.

    Jeszcze kilka lat temu drogie dedykowane systemy pamięci masowej na dyskach twardych koncentrowały się głównie na aplikacjach korporacyjnych o znaczeniu krytycznym lub niektórych konkretnych zadaniach. Dziś, dzięki szybkiemu rozwojowi koncepcji NAS (Network Attached Storage) oraz szeregu innych rozwiązań opartych na dyskach twardych ATA, takie systemy klasy podstawowej stają się obiektem zainteresowania średnich przedsiębiorstw, co jest szczególnie ważne dla wrażliwy na ceny rynek ukraiński.
    Powodów zainteresowania nabywców systemami magazynowymi jest wystarczająco dużo
    dane - np. potrzeba konsolidacji tablic informacyjnych, potrzeba
    rozwiązywać problemy z redundancją danych w dużych sieciach itp. Z drugiej strony,
    pojawiają się podczas pracy systemów wysokiego i średniego poziomu.

    Według ankiety przeprowadzonej w kilku kijowskich firmach, dziś najczęściej spotyka się następujące motywy nabywania napędów (w kolejności malejącej).

    1. Dodatkowe dyski niemożliwa lub nieekonomiczna instalacja w serwerze (zwykle z powodu braku miejsca w obudowie lub wysoka cena na oryginalne dyski lub niemasową konfigurację systemu operacyjnego i platformy - na przykład Silicon Graphics lub Compaq Alpha Server, Mac itp.).

    2. Musisz zbudować klaster pracy awaryjnej ze współdzieloną macierzą dyskową. W takiej sytuacji można czasem obejść się bez systemu pamięci masowej, np. stosując kontrolery RAID PCI-SCSI z obsługą systemów klastrowych, ale ta konfiguracja jest mniej funkcjonalna, a ponadto nie pozwala na włączenie buforowania zapisu danych w kontrolerów. Podczas pracy z bazami danych wydajność rozwiązań z niezależnym urządzeniem pamięci masowej czasami przewyższa o rząd wielkości systemy oparte na kontrolerach RAID PCI-SCSI.

    3. Niemożliwe jest uzyskanie wysokiej jakości rozwiązania pamięci masowej w ramach standardowego serwera. Zewnętrzny system w tym przypadku pozwala na zaimplementowanie RAIS (Redundant Array of Independent Servers - odporna na awarie tablica niezależnych serwerów). Przechowuje wszystko, w tym dane systemowe, do których uzyskują dostęp serwery, które je przetwarzają. Jednocześnie dostarczany jest serwer zapasowy, który zastępuje uszkodzony serwer. To podejście jest nieco podobne do klastrowania, ale nie wykorzystuje specjalistycznego oprogramowania, a aplikacje nie są automatycznie migrowane.

    Wspólna klasyfikacja systemów przechowywania danych
    w oparciu o zasadę organizowania dostępu do nich.


    SAS (Server Attached Storage)— dysk podłączony do serwera.
    Czasami używany jest termin „dysk podłączany bezpośrednio” —
    DAS (bezpośrednia pamięć masowa).

    Główna zaleta dysku podłączonego do serwera w porównaniu z
    z innymi opcjami niska cena i duża prędkość.


    NAS (sieciowa pamięć masowa)— dysk podłączony do sieci.

    Główną zaletą tego rozwiązania jest szybkość wdrożenia i przemyślane
    organizacja dostępu do akt.

    SAN (sieć pamięci masowej) — sieć pamięci masowej.
    Najdroższe rozwiązanie, dające jednocześnie wiele korzyści
    - niezależność topologii SAN od systemów pamięci masowej i serwerów, wygodna
    scentralizowane zarządzanie, brak konfliktu z ruchem LAN/WAN, wygodne
    tworzenie kopii zapasowych i przywracanie danych bez obciążania sieci lokalnej i serwerów,
    wysoka szybkość, skalowalność, elastyczność, dostępność i odporność na błędy.

    Systemy pamięci masowej lub dyski autonomiczne

    Zdecydowanie dysk lub system pamięci masowej
    dużo danych może być różne urządzenia. Ale jak tylko będziemy mieli przemówienie
    opowie o systemach dyskowych zapewniających przechowywanie informacji i dostęp do nich,
    będziemy rozumieć przez termin „akumulator” dokładnie je. W sumie
    obudowy składają się z dysków twardych, kontrolera I/O oraz zintegrowanego
    systemy. Dyski są zazwyczaj hot-swap, tj. są
    można podłączać i odłączać „w locie”, bez wyłączania napędu. to
    umożliwia bezproblemową wymianę uszkodzonego dysku twardego
    dla użytkownika. Zwiększono podstawowe i zapasowe zasilanie napędu
    niezawodność i możliwość wymiany na gorąco. Tak, i kontrolery I / O
    czasami używane są dwa. Schemat typowego systemu pamięci dyskowej z jednym
    sterownik można zobaczyć na ryc. jeden.

    Kontroler systemu pamięci dyskowej jest jego centrum. Odpowiada za wprowadzanie/wyprowadzanie danych w systemie oraz do kanałów zewnętrznych, a także organizację przechowywania i dostępu do informacji. Aby komunikować się ze światem zewnętrznym, kontrolery napędów zwykle używają interfejsów SCSI, Fibre Channel lub Ethernet.

    W zależności od przeznaczenia systemu sterowniki mogą realizować różną logikę działania i wykorzystywać różne protokoły wymiany danych. Dostarczają systemom użytkowników dane na poziomie bloków, takie jak dyski twarde lub usługi plików przy użyciu protokołów NFS, CIFS, a także Network File System, Common Internet File System, takie jak serwery plików (patrz pasek boczny „Protokoły plików w NAS - CIFS, NFS, DAFS”). Taki kontroler zazwyczaj obsługuje standardowe poziomy RAID w celu zwiększenia wydajności systemu i zapewnienia odporności na awarie.

    Protokoły plików w NAS
    - CIFS, NFS, DAFS
    CIFS (Common Internet File System) to standardowy protokół, który
    zapewnia dostęp do plików i usług na zdalnych komputerach (w tym
    w tym w Internecie). Protokół wykorzystuje model interakcji klient-serwer.

    Klient wysyła do serwera żądanie dostępu do plików lub wysłania wiadomości
    program na serwerze. Serwer spełnia żądanie klienta
    i zwraca wynik swojej pracy. CIFS to otwarty standard opracowany
    oparty na protokole Microsoft SMB (Server Message Block Protocol), który
    tradycyjnie używany w sieci lokalne z systemem operacyjnym Windows, aby uzyskać dostęp do plików
    i drukuj. W przeciwieństwie do tych ostatnich, CIFS koncentruje się na zastosowaniu w tym przypadku
    numer i w sieciach rozproszonych – uwzględnia np. możliwość:
    duże limity czasu.

    CIFS używa protokołu TCP/IP do przesyłania danych. Zapewnia funkcjonalność
    podobny do FTP ( Transfer plików protokołu), ale zapewnia klientom ulepszony
    (podobna do bezpośredniej) kontroli plików. Umożliwia również udostępnianie
    do plików między klientami poprzez zastosowanie blokowania i automatyczne odzyskiwanie
    komunikacja z serwerem w przypadku awarii sieci.

    NFS (Network File System) to standard IETF, który obejmuje rozproszone
    system plików i protokół sieciowy. NFS został opracowany przez firmę Sun i
    pierwotnie używany tylko w systemach Unix. Późniejsza realizacja klienta
    a części serwerowe rozprzestrzeniły się na inne systemy.

    NFS, podobnie jak CIFS, opiera się na modelu interakcji klient-serwer. To zapewnia
    dostęp do plików na zdalnym komputerze (serwerze) do zapisu i odczytu
    tak, jakby były na komputerze użytkownika. We wcześniejszych wersjach
    NFS używał protokołu UDP do transportu danych, w nowoczesnych
    — TCP/IP. Firma Sun opracowała protokół działania NFS w Internecie.
    WebNFS, który używa rozszerzeń funkcjonalności NFS, aby poprawnie
    pracować w sieci WWW.

    DAFS (Direct Access File System) to standardowy protokół dostępu do plików,
    który jest oparty na NFSv4. Umożliwia przenoszenie zadań aplikacji
    dane z pominięciem systemu operacyjnego i jego przestrzeni buforowej bezpośrednio
    do transportu zasobów z zachowaniem semantyki systemy plików. DAFS używa
    Korzyści najnowsze technologie transfer danych zgodnie ze schematem „memory-memory”.
    Zapewnia wysokie prędkości we/wy plików, minimalne pobieranie
    Procesor i cały system dzięki znacznej redukcji liczby operacji
    i przerwania, które są zwykle potrzebne w przetwarzaniu protokołów sieciowych.
    Szczególnie efektywne jest wykorzystanie wsparcia sprzętowego
    VI (wirtualny interfejs).

    DAFS został zaprojektowany z myślą o ciągłych działaniach baz danych i różnych
    Aplikacje internetowe w środowisku klastrowym i serwerowym. To zapewnia
    najmniejsze opóźnienia dostępu do współdzielonych zasobów plikowych i informacji, a także
    obsługuje inteligentne mechanizmy odzyskiwania
    system i dane, co czyni go bardzo atrakcyjnym w użytkowaniu
    w wysokiej klasy dyskach NAS.


    Dlaczego ATA?

    Obecnie różnica w koszcie na jednostkę objętości dużych dysków ATA i SCSI jest większa niż
    niż sześć razy, a stosunek ten jest całkiem uzasadniony. Drogie dyski interfejsu
    SCSI jest przeznaczony głównie dla firm systemy informacyjne i zwykle
    masz więcej wysoka wydajność prędkość przy przetwarzaniu dużych ilości
    upraszanie. Używają bardziej niezawodnych komponentów, są lepiej przetestowane, tak
    a odpowiedzialność producenta za te urządzenia jest znacznie wyższa.

    Ale jeśli koszt danych nie jest tak wysoki lub potrzebne jest tylko urządzenie pośrednie
    rezerwując je, po co płacić sześć razy więcej? Biorąc pod uwagę, że wyjście
    budowa jednego z dysków w macierzy nie jest krytyczna, jest całkowicie akceptowalna w użyciu
    dysk z dyskami ATA. Oczywiście istnieje szereg przeciwwskazań do stosowania
    Dyski ATA w dużych systemach pamięci masowej, ale jest też wiele zastosowań
    dla których są idealne.

    Urządzenia IDE są najczęściej używane w systemach NAS klasy podstawowej. Przy zastosowaniu dwóch lub czterech dysków zorganizowanych w macierz RAID 1 lub 0+1 prawdopodobieństwo awarii całego systemu jest akceptowalnie małe, a wydajność całkiem wystarczająca "z głową" - serwery plików dyski klasy podstawowej nie wykonują zbyt wielu operacji dyskowych na sekundę, a przepływ danych jest ograniczony do zewnętrznych interfejsów Fast Ethernet lub Gigabit Ethernet.

    Gdzie blokowanie dostępu do danych jest wymagane przy minimalnym koszcie rozwiązania i
    liczba operacji na jednostkę czasu nie jest parametrem krytycznym, użyj
    systemy z zewnętrznym równoległym interfejsem SCSI lub Fibre Channel i dyskami ATA
    wewnątrz (rys. 2).

    Czołowi producenci oferują obecnie dyski ATA, które są zbliżone pod względem wszystkich cech,
    w tym MTBF do przemysłowych dysków SCSI. Razem z
    tym bardziej ich koszt staje się porównywalny, a zatem korzystanie z dysków ATA
    zapewnia jedynie niewielki zysk w cenie dysków.

    Dla serwerów i stacji roboczych klasy podstawowej, które przechowują wystarczająco dużo
    ważne dane, stosowanie tanich kontrolerów PCI ATA, jak pokazuje praktyka,
    nie zawsze daje pożądany rezultat ze względu na ich względną prymitywność i małe
    funkcjonalność. Stosowanie drogich dysków zewnętrznych nie zawsze jest uzasadnione.
    W takim przypadku możesz użyć urządzenia ATA-to-ATA, które jest zredukowane
    kopia zewnętrznego systemu pamięci dyskowej i jest przeznaczona tylko dla dwóch dysków
    z interfejsem ATA. Ma jednak wbudowany kontroler dość wysokiej jakości.
    i obsługuje dyski typu „hot-swap” (rysunek 3).


    Serial ATA - nowy oddech interfejsu ATA

    Wraz z pojawieniem się interfejsu Serial ATA systemów przechowywania danych na dyskach ATA
    powinno stać się więcej. Mówią o tym prawie wszyscy producenci napędów.
    poziom podstawowy. Dziś ich nowe modele są już wyposażone w nowy interfejs. Jak
    Czy interfejs Serial ATA jest interesujący dla producentów systemów przechowywania danych?

    Obsługuje zestaw instrukcji Native Command Queuing (potoki poleceń) - kontroler analizuje żądania I/O i optymalizuje kolejność ich wykonywania. To prawda, że ​​w przeciwieństwie do tradycyjnego natywnego kolejkowania poleceń w dyskach SCSI, które zapewniało kolejkę do 256 poleceń, Serial ATA obsługuje kolejkę do 32 poleceń. „Hot-swapping” dysków Serial ATA, który kiedyś wymagał pewnych technicznych sztuczek, jest teraz wpisany bezpośrednio do standardu, co pozwoli na tworzenie rozwiązań korporacyjnych na wysokim poziomie. Ważny jest również nowy design: kabel w nowym interfejsie stał się okrągły, a jego złącze jest małe i wąskie, co ułatwia projektowanie i montaż systemów.

    W nowych wersjach prędkość Serial ATA wzrośnie i nie ma wątpliwości, że udział rozwiązań ATA w systemach pamięci masowej klasy podstawowej wzrośnie właśnie dzięki nowym dyskom z tym interfejsem, podczas gdy rozwój Parallel ATA ulegnie spowolnieniu, co zostało zaobserwowane w ostatnim czasie.

    RAID (nadmiarowa macierz
    niezależne dyski)
    Dyski klasy podstawowej zazwyczaj korzystają z poziomów RAID 0,
    1, 5 i ich kombinacje.

    RAID 0


    Macierz dyskowa bez odporności na błędy rozłożone (dysk rozłożony)
    Tablica bez tolerancji błędów). W tym przypadku dane są dzielone na bloki,
    pisane równolegle na różne dyski, które wspólnie uczestniczą
    każdą operację we/wy.

    Zaletą tego podejścia jest zapewnienie wysokiej wydajności dla
    aplikacje wymagające dużej ilości danych I/O, łatwość implementacji
    i niski koszt na jednostkę objętości. Główną wadą jest brak odporności na błędy
    rozwiązanie: awaria jednego dysku pociąga za sobą utratę wszystkich
    dane tablicowe.

    RAID 1


    Macierz dyskowa z duplikacją. „Lustro” (odbicie lustrzane)
    - tradycyjny sposób na zwiększenie niezawodności małej macierzy dyskowej
    tom. W najprostszej wersji używane są dwa dyski, na których
    te same informacje. W przypadku niepowodzenia jednego z nich pozostaje podwójna, która
    nadal działa jak poprzednio.

    Zalety - łatwość wdrożenia i odtworzenia macierzy danych, a także
    wystarczająco wysoka prędkość do zastosowań o dużej intensywności
    upraszanie. Wady - niski transfer danych przy dwukrotnie wyższych kosztach
    na jednostkę objętości, ponieważ istnieje 100% nadmiarowość. Z więcej
    ilość dysków, można użyć RAID 0+1 lub RAID 10 zamiast RAID 1,
    kombinacje RAID 0 i RAID 1 w celu osiągnięcia najlepszej wydajności
    szybkość i niezawodność systemu.

    RAID 5



    bezpieczny
    tablica niezależnych dysków z danymi z rozproszoną parzystością (Niezależne dyski danych)
    z rozproszonymi blokami parzystości).

    Dane są dzielone na poziomie bloków. Każdy blok danych jest zapisywany w
    konkretnego dysku i można je odczytać osobno. W przypadku bloków danych jest to zliczane
    parzystość i jest rozprowadzana cyklicznie na wszystkich dyskach w macierzy. Jeśli operacje
    aby rekordy były odpowiednio zaplanowane, możliwe staje się równoległe
    przetwarzanie do N/2 bloków, gdzie N to liczba dysków w grupie. Zwiększa się
    wydajność i aby uzyskać tablicę odporną na uszkodzenia, używa
    tylko jeden nadmiarowy dysk.

    RAID 5 zapewnia wysoka prędkość zapis i odczyt danych, co zwiększa
    wydajność w przypadku żądań odczytu/zapisu o dużej intensywności i
    Zmniejsza to koszty wdrożenia nadmiarowości. Jednakże,
    jego organizacja jest dość złożona, a odzyskiwanie danych może być
    pewien problem.


    Serial Attached SCSI

    Interfejs SCSI charakteryzuje się dużą szybkością i niezawodnością, ale takie rozwiązania
    dość drogie. SAS (Serial Attached SCSI) to interesująca ewolucja SCSI
    i, z dużym prawdopodobieństwem, będzie również stosowany w tanich systemach klasy podstawowej.
    i średni poziom.

    Obecnie wielu producentów pamięci masowych używa interfejsu Ultra 320 SCSI do projektowania stosunkowo prostych dysków. To jest generacja równoległego interfejsu SCSI na ten moment ostatni w kolejce. Dyski z wcześniej zapowiedzianym interfejsem Ultra 640 SCSI najprawdopodobniej nie będą produkowane masowo lub całkowicie znikną ze sceny. Na niedawnym spotkaniu z partnerami firma Seagate, lider w dziedzinie dysków twardych klasy korporacyjnej, ogłosiła, że ​​nowe modele dysków do systemów high-end będą wyposażone w interfejs Fibre Channel, a do mniejszych systemy korporacyjne- Szeregowy SCSI. Jednocześnie zwykły równoległy Ultra 320 SCSI nie zniknie natychmiast. Jego ostateczna wymiana ma nastąpić nie wcześniej niż za pięć lat.

    Serial SCSI łączy w sobie niektóre funkcje Serial ATA i Fibre Channel. Został opracowany na podstawie specyfikacji Serial ATA i ulepszony. Tym samym wzrósł poziom sygnału, co pozwala odpowiednio zwiększyć maksymalną długość czterożyłowego kabla do 10 m. Ten dwukanałowy interfejs punkt-punkt działa w trybie pełnego dupleksu, może obsłużyć do 4096 urządzeń dyskowych w domenie i wspiera standardowy zestaw Polecenia SCSI.

    Jednocześnie, pomimo wszystkich swoich zalet, interfejs Serial Attached SCSI prawdopodobnie nie zastąpi w najbliższej przyszłości konwencjonalnego interfejsu równoległego. W świecie rozwiązań dla przedsiębiorstw rozwój prowadzony jest bardzo ostrożnie i oczywiście dłużej niż w przypadku systemów stacjonarnych. Tak, a stare technologie nie znikają bardzo szybko, ponieważ koło życia trwa kilka lat. Pierwsze urządzenia Interfejs SAS powinien pojawić się na rynku w 2004 roku. Oczywiście na początku będą to głównie dyski i kontrolery PCI, ale systemy przechowywania danych pojawią się dość szybko. Charakterystyka porównawcza interfejsy są wymienione w tabeli „Porównanie nowoczesnych interfejsów dyskowych”.


    SAN — sieci pamięci masowej

    SAN (patrz pasek boczny „Klasyfikacja systemów przechowywania danych – DAS/SAS,
    NAS, SAN”) w oparciu o Fibre Channel pozwalają rozwiązać niemal każde zadanie
    przechowywanie i dostęp do danych. Ale jest kilka wad, które negatywnie wpływają
    na upowszechnienie tych technologii, przede wszystkim - wysokie koszty rozwiązań
    oraz złożoność budowania systemów rozproszonych geograficznie.

    Toczy się ostra debata wokół wykorzystania protokołu IP jako transportu poleceń SCSI i danych w sieciach SAN, ale wszyscy rozumieją, że rozwiązania IP Storage z pewnością znajdą swoją niszę w dziedzinie systemów pamięci masowej, a to nie potrwa długo.

    W ramach doskonalenia technologii sieciowych pamięci masowych, Internet Engineering Task Force (IETF) zorganizował grupę roboczą oraz forum IP Storage (IPS) w następujących obszarach:

    FCIP - Fibre Channel over TCP/IP, protokół tunelowy oparty na TCP/IP i przeznaczony do łączenia odległych geograficznie sieci SAN FC bez wpływu na protokoły FC i IP;

    iFCP - Internet Fibre Channel Protocol, protokół do łączenia systemów FC lub sieci pamięci masowej opartych na protokole TCP/IP, wykorzystujący infrastrukturę IP w połączeniu z elementami przełączania i routingu FC lub zamiast nich;

    iSNS - Internet Storage Name Service, protokół obsługi nazw pamięci;

    iSCSI to skrót od Internet Small Computer Systems Interface, protokół oparty na protokole TCP/IP przeznaczony do komunikacji z systemami pamięci masowej, serwerami i klientami oraz do zarządzania nimi.

    Najszybciej rozwijającym się i interesującym z tych obszarów jest iSCSI, który stał się oficjalnym standardem 11 lutego 2003 roku. Jej rozwój powinien znacząco wpłynąć na rozpowszechnienie sieci SAN w małych i średnich firmach, ze względu na to, że sieci pamięci masowej staną się znacznie tańsze. Jeśli chodzi o korzystanie z iSCSI w Internecie, dziś FCIP już się tutaj dobrze zakorzenił i konkurencja z nim będzie dość zacięta, ale ze względu na zintegrowane podejście, powinna działać na korzyść iSCSI.

    Dzięki technologiom IP Storage, w tym iSCSI, sieci pamięci masowej mają nowe możliwości budowania geograficznie rozproszonych systemów pamięci masowej. Ponadto nowe systemy pamięci masowej, które natywnie wykorzystują technologię iSCSI, zapewnią wiele innych korzyści, takich jak obsługa QoS, wysoki poziom bezpieczeństwa oraz możliwość korzystania ze specjalistów Ethernet do obsługi sieci.

    Jedną z bardzo interesujących funkcji iSCSI jest to, że do przesyłania danych na dysku iSCSI można używać nie tylko nośników, przełączników i routerów. istniejące sieci LAN/WAN, ale także konwencjonalne karty sieciowe Fast Ethernet lub Gigabit Ethernet po stronie klienta. Ale tak naprawdę, ze względu na pewne trudności, lepiej jest skorzystać ze specjalistycznego sprzętu, co spowoduje, że kosztami rozwiązań zaczną doganiać tradycyjne sieci SAN Fibre Channel.

    Szybki rozwój sieci magazynowych stał się podstawą do powstania koncepcji World
    Szeroka sieć pamięci masowej. WWSAN przewiduje stworzenie infrastruktury, która:
    zapewni szybki dostęp i przechowywanie danych rozproszonych na całym świecie.

    Porównanie nowoczesnych interfejsów dyskowych

    Opcje
    Seryjny
    ATA
    SCSI
    SAS
    FC
    Liczba obsługiwanych urządzeń 16 16 4096 2 24
    Maksymalna długość kabla, m 1 12 10 Miedź: 30
    Optyka: 10 000*
    Obsługiwane topologie kropka-kropka Opona kropka-kropka Dzwonić**
    kropka-kropka
    Szybkość, MB/s 150, 300 320 150, 300 100, 200, 400
    pełny dupleks + +
    Interfejsy ATA, SCSI SCSI ATA, SCSI Niezależny***
    Obsługa urządzeń z dwoma portami + +

    * Norma reguluje odległość
    do 10 km dla światłowodu jednomodowego, istnieją implementacje do transmisji danych
    na dystansie ponad 100 km.
    ** W ramach wewnętrznej topologii pierścienia działają koncentratory i przełączniki FC,
    istnieją również implementacje przełączników, które zapewniają połączenie punkt-punkt
    wszelkie urządzenia do nich podłączone.
    *** Istnieją implementacje urządzeń dla interfejsów i protokołów SCSI, FICON,
    ESCON, TCP/IP, HIPPI, VI.

    Seria Infortrend ESDS 1000

    Recenzja Infortrend ESDS 1000

    Systemy pamięci masowej EonStor DS 1000 zapewniają doskonały stosunek ceny do wydajności. Dla użytkowników małych średnich...

    Pamięć masowa Infortrend ESDS z serii 1000

    Seria Infortrend ESDS 1000 to przystępna cenowo pamięć masowa z wbudowanymi interfejsami iSCSI i opcjonalnymi interfejsami FC/SAS, zapewniającymi zwiększoną wydajność i skalowalność.

    Recenzja Infortrend ESDS 1000

    Systemy pamięci masowej EonStor DS 1000 zapewniają doskonały stosunek ceny do wydajności. Dla użytkowników małych i średnich firm (SMB) dostępne jest rozwiązanie klasy podstawowej. Dostępne są modele dla różnej liczby dysków HDD w różnych obudowach: 12-gniazdowe 2U, 16-gniazdowe 3U i 24-gniazdowe 2U poniżej 2,5" dyski. Wszystkie zawierają wiele portów iSCSI 1 Gb/s do łączności sieciowej, architekturę zbudowaną z myślą o aplikacjach nadzoru, które wymagają szybkiego połączenia z wieloma klientami. Do obudów rozszerzających można podłączyć do 444 dysków. Dzięki obsłudze dysków o pojemności 10 TB oznacza to, że dostępna pojemność może wynosić do 4 PB.

    Skład serii EonStor DS 1000

    Modele na 2,5-calowy dysk twardy

    DS 1024B — 2U, 24 dyski 2,5" z interfejsem SAS lub SATA

    DS-1036B - 3U, 36 dysków 2,5" z interfejsem SAS lub SATA

    Modele na dysk twardy 3,5"

    DS 1012 - 2U, 12 dysków 3,5" z interfejsem SAS lub SATA

    DS 1016 - 3U, 16 dysków 3,5" z interfejsem SAS lub SATA

    DS 1024 - 4U, 24 prowadzić 3,5"z interfejsem SAS lub SATA

    Wydajność

    • EonStor DS 1000 zapewnia do 550 tys. IOPS (operacje w pamięci podręcznej) i 120 tys. IOPS (pełna ścieżka, w tym dyski), aby przyspieszyć wszystkie operacje związane z przechowywaniem.
    • Przepustowość sięga 5500 MB/s odczytu i 1900 MB/s. na płycie, co ułatwia radzić sobie nawet z intensywnymi obciążeniami z wysoką wydajnością.

    Praca z pamięcią podręczną SSD

    (opcjonalnie, wymagana licencja)

    • Poprawiona wydajność odczytu gorących danych
    • Do czterech dysków SSD na kontroler
    • Duża pojemność basenu Dyski SSD: do 3,2 TB

    Ryż. 1 Wzrost IOPS, gdy pamięć podręczna SSD jest nasycona gorącymi danymi

    Połączone opcje interfejsu hosta

    • Wszystkie systemy są wyposażone w cztery porty iSCSI 1 Gb/s, aby zapewnić więcej niż wystarczającą łączność z klientami, serwerami i innymi macierzami pamięci masowej.
    • Opcjonalnie dodany moduł interfejs hosta z Fibre Channel 8 Gb/s lub 16 Gb/s, iSCSI 10 Gb/s lub 40 Gb/s iSCSI, 10 Gb/s FCoE lub 12 Gb/s SAS do pracy równoległej z domyślnymi portami iSCSI 1 Gb/s.
    • Opcjonalnie dodany do konwergentna płyta główna z 4 opcjami łączności do wyboru (16 Gb/s FC, 8 Gb/s FC i 10 Gb/s iSCSI SFP+, 10 Gb/s FCoE)

    Różne opcje zapisywania pamięci podręcznej

    Trwałe, bezobsługowe superkondensatory i moduł flash niewymagający wymiany zapewniają bezpieczne i niezawodne źródło zasilania do utrzymania stanu pamięci podręcznej w przypadku awarii głównego źródła zasilania

    Moduł podtrzymania bateryjnego z możliwością wymiany podczas pracy (BBU) z modułem flash przechowuje dane w przypadku nagłego wyłączenia systemu lub awarii zasilania.

    Możesz wybrać BBU lub superkondensatory dopasowane do Twoich potrzeb i budżetu

    Opcjonalnie dostępne i dołączone zaawansowane funkcje:

    Replikacja lokalna Replikacja lokalna

    (Licencja standardowa jest dołączona domyślnie, licencja rozszerzona jest opcjonalna)

    Migawki

    Licencja standardowa Licencja Rozszerzona
    Migawki na oryginalny wolumin 64 256
    Migawki w systemie 128 4096

    Kopia woluminu/odbicie lustrzane

    Licencja standardowa Licencja Rozszerzona
    Woluminy źródłowe w systemie 16 32
    Pary replikacji na wolumin źródłowy 4 8
    Pary replikacji na system 64 256

    Dostrajanie (domyślnie włączone)

    Alokacja pojemności na czas optymalizuje wykorzystanie pamięci masowej i eliminuje dedykowaną, ale niewykorzystaną przestrzeń dyskową.

    Zdalna replikacja (dodatkowa licencja)

    Replikacja na objętość: 16
    Pary replikacji na wolumin źródłowy: 4
    Partie replikacji na system: 64

    zautomatyzowany system warstwowy przechowywanie danych (dodatkowa licencja)

    Dwie lub cztery warstwy pamięci masowej w zależności od typów dysków

    Obsługa dysków SSD

    Automatyczna migracja danych z opcjami planowania

    Buforowanie SSD (dodatkowa licencja)

    Przyspieszenie dostępu do danych w środowiskach o dużej intensywności odczytu, takich jak OLTP

    Obsługuje do 4 dysków SSD na kontroler

    Zalecana pojemność DIMM na kontroler dla pamięci podręcznej SSD:

    DRAM: maks. 2 GB Rozmiar puli pamięci podręcznej SSD: 150 GB

    DRAM: maks. 4 GB Rozmiar pamięci podręcznej SSD: 400 GB

    DRAM: maks. 8 GB Rozmiar puli pamięci podręcznej SSD: 800 GB

    DRAM: 16 GB maks. Rozmiar pamięci podręcznej SSD: 1600 GB

    Nie pasuje do Twojego systemu pamięci masowej Infortrend DS 1000 Series? Rozważ przechowywanie innej serii lub linii, przejdź do sekcji:

    Bohaterem tej recenzji będzie skromny system pamięci masowej DotHill 4824. Z pewnością wielu z was słyszało, że DotHill, jako partner OEM, produkuje podstawowe systemy pamięci masowej dla Hewlett-Packard - te bardzo popularne już HP MSA (Modular Storage Array) w czwartym pokoleniu. Linia DotHill 4004 pasuje do HP MSA2040 z niewielkimi różnicami, które zostaną szczegółowo opisane poniżej.

    DotHill to klasyczne rozwiązanie do przechowywania danych klasy podstawowej. Współczynnik kształtu, 2U, dwie opcje dla różnych napędów i szeroka gama interfejsów hosta. Dublowana pamięć podręczna, dwa kontrolery, asymetryczna aktywna-aktywna z ALUA. W zeszłym roku dodano nową funkcjonalność: pule dyskowe z trójpoziomowym tieringiem (warstwowa pamięć danych) oraz pamięć podręczna SSD.

    Charakterystyka

    • Obudowa: 2U 24x 2,5" lub 12x 3,5"
    • Interfejsy (na kontroler) 4524C/4534C - 4x SAS3 SFF-8644
    • Skalowanie: 192 dyski 2,5-calowe lub 96 dysków 3,5-calowych obsługuje do 7 dodatkowych DAE
    • Obsługa RAID: 0, 1, 3, 5, 6, 10, 50
    • Pamięć podręczna (na kontroler): 4 GB z ochroną flash
    • Funkcje: migawki, klonowanie woluminów, replikacja asynchroniczna (z wyjątkiem SAS), alokacja uproszczona, pamięć podręczna SSD, 3-poziomowa obsługa warstw (SSD, 10/15k HDD, 7,2k HDD)
    • Limity konfiguracji: 32 macierze (vDisk), do 256 woluminów na macierz, 1024 woluminy na system
    • Zarządzanie: CLI, interfejs sieciowy, obsługa SMI-S

    Pule dyskowe w DotHill

    Dla tych, którzy nie są zaznajomieni z teorią, warto porozmawiać o zasadach pul dyskowych i warstwowej pamięci masowej. Dokładniej o konkretnej implementacji w systemie magazynowym DotHill.

    Przed pojawieniem się basenów mieliśmy dwa ograniczenia:

    • Maksymalny rozmiar grupy dysków. RAID-10, 5 i 6 mogą mieć maksymalnie 16 dysków. RAID-50 - do 32 dysków. Jeśli potrzebujesz woluminu z dużą liczbą wrzecion (ze względu na wydajność i / lub objętość), musisz połączyć jednostki LUN po stronie hosta.
    • Nieoptymalne wykorzystanie szybkich dysków. Możesz utworzyć dużą liczbę grup dysków dla kilku profili obciążenia, ale duże liczby hostów i usług na nich, trudno jest stale monitorować wydajność, głośność i okresowo wprowadzać zmiany.

    Pula dyskowa w magazynie DotHill to zbiór kilku grup dyskowych z rozkładem obciążenia między nimi. Pod względem wydajności pulę można uznać za RAID-0 kilku podtablic, tj. już rozwiązujemy problem krótkich grup dysków. W sumie w systemie pamięci masowej obsługiwane są tylko dwie pule dyskowe, A i B, po jednej na kontroler), każda pula może zawierać do 16 grup dysków. Główną różnicą architektoniczną jest maksymalne wykorzystanie swobodnego umieszczania pasków na dyskach. Na tej funkcji opiera się kilka technologii i funkcji:

    Różnice w stosunku do HP MSA2040

    Wydajność

    Konfiguracja przechowywania
    • DotHill 4824 (2U, 24x2,5")
    • Wersja oprogramowania: GL200R007 (najnowsza w czasie testowania)
    • Aktywowana licencja RealTier 2.0
    • Dwa kontrolery z portami CNC (FC/10GbE), 4 transceivery 8Gb FC (zainstalowane w pierwszym kontrolerze)
    • 20 dysków twardych SAS o pojemności 146 GB 15 obr./min (Seagate ST9146852SS)
    • 4 dyski SSD 400 GB (HGST HUSML4040ASS600)

    Konfiguracja hosta

    • Platforma Supermicro 1027R-WC1R
    • 2x Intel Xeon E5-2620v2
    • 8x 8 GB DDR3 1600 MHz ECC RDIMM
    • 480 GB SSD Kingston E50
    • 2x Qlogic QLE2562 (2-portowy HBA 8 Gb FC)
    • CentOS 7, fio 2.1.14
    Połączenie zostało wykonane przez jeden kontroler, bezpośrednio, przez 4 porty FC 8Gb. Oczywiście mapowanie woluminów do hosta odbywało się przez 4 porty, a na hoście skonfigurowano wielościeżkę.

    Pula z warstwą Tier-1 i pamięcią podręczną na dysku SSD

    Ten test to trzygodzinne (180 cykli po 60 sekund) obciążenie z losowym dostępem w blokach 8KiB (8 wątków o głębokości kolejki 16 każdy) z różnymi współczynnikami odczytu/zapisu. Całe obciążenie jest skoncentrowane na obszarze 0-20 GB, co gwarantuje, że jest mniejsze niż objętość warstwy wydajności ”i/lub pamięci podręcznej na dysku SSD (800 GB) - odbywa się to w celu szybkiego wypełnienia pamięci podręcznej lub warstwy w akceptowalny czas.

    Przed każdym uruchomieniem testowym wolumen był tworzony ponownie (aby wyczyścić pamięć podręczną warstwy SSD „a lub SSD), wypełniany losowymi danymi (sekwencyjny zapis w blokach 1MiB), odczyt z wyprzedzeniem był wyłączony na wolumenie. a maksymalne wartości latencji określano w każdym 60-sekundowym cyklu.

    Testy z odczytem 100% i odczytem + zapis 65/35 przeprowadzono zarówno z warstwą SSD (do puli dodano grupę dysków 4x400GB SSD w RAID-10), jak i z pamięcią podręczną SSD (2x400GB SSD w RAID-0, pamięć nie pozwala na dodanie więcej niż dwóch dysków SSD do pamięci podręcznej dla każdej puli). Wolumen został utworzony w puli dwóch grup dysków RAID-6 po 10 dysków SAS o pojemności 46 GB i prędkości 15 tys. obr./min każda (tj. w rzeczywistości jest to RAID 2x10- 60) Dlaczego nie 10 lub 50? Celowo utrudnić przechowywanie losowego zapisu.

    IOPS

    Wyniki były dość przewidywalne. Jak twierdzi sprzedawca, przewagą pamięci podręcznej SSD nad „omami” warstwy SSD jest szybsze wypełnianie pamięci podręcznej, tj. system pamięci masowej szybciej reaguje na pojawienie się „gorących” obszarów z intensywnym obciążeniem przy dostępie losowym: IOPS rośnie na 100% czytanie razem z opóźnieniem spada szybciej niż w przypadku korzystania z tieringu.

    Ta zaleta kończy się, gdy tylko zostanie dodane znaczne obciążenie zapisu. RAID-60, delikatnie mówiąc, nie nadaje się zbytnio do losowych zapisów w małych blokach, ale ta konfiguracja została wybrana specjalnie, aby pokazać istotę problemu: system pamięci masowej nie radzi sobie z zapisem, ponieważ. omija pamięć podręczną w powolnym RAID-60, kolejka szybko się zapełnia, a na obsługę żądań odczytu pozostaje niewiele czasu, nawet przy buforowaniu. Niektóre bloki nadal tam trafiają, ale szybko tracą ważność, ponieważ trwa nagrywanie. To błędne koło powoduje, że pamięć podręczna tylko do odczytu staje się nieefektywna przy tym profilu obciążenia. Dokładnie taką samą sytuację można było zaobserwować we wczesnych wersjach pamięci podręcznej SSD (przed pojawieniem się funkcji Write-Back) w kontrolerach RAID LSI i Adaptec PCI-E. Rozwiązanie - użyj początkowo bardziej produktywnego wolumenu, tj. RAID-10 zamiast 5/6/50/60 i/lub warstwy SSD zamiast pamięci podręcznej.

    Średnie opóźnienie


    Maksymalne opóźnienie

    Ten wykres wykorzystuje skalę logarytmiczną. W przypadku 100% i korzystania z pamięci podręcznej SSD można zauważyć bardziej stabilną wartość latencji - po zapełnieniu pamięci podręcznej wartości szczytowe nie przekraczają 20ms.


    Co można podsumować dylematem „caching vs. tiering”?
    Co wybrać?
    • Wypełnianie pamięci podręcznej jest szybsze. Jeśli Twoje obciążenie składa się głównie z losowych odczytów, a jednocześnie obszar „gorący” okresowo się zmienia, powinieneś wybrać pamięć podręczną.
    • Zapisywanie „szybkiej” głośności. Jeśli „gorące” dane zmieszczą się w całości w pamięci podręcznej, ale nie w warstwie SSD, pamięć podręczna będzie prawdopodobnie bardziej wydajna. Pamięć podręczna SSD w DotHill 4004 jest tylko do odczytu, więc tworzona jest dla niej grupa dysków RAID-0. Na przykład mając 4 dyski SSD po 400 GB każdy, możesz uzyskać 800 GB pamięci podręcznej dla każdej z dwóch pul (łącznie 1600 GB) lub 2 razy mniej przy użyciu warstwowania” i (800 GB dla jednej puli lub 400 GB dla dwóch). Oczywiście, jest jeszcze jedna opcja 1200 GB w RAID-5 dla jednej puli, jeśli druga nie potrzebuje dysków SSD.

      Z drugiej strony całkowity użyteczny rozmiar puli podczas korzystania z warstw będzie większy ze względu na przechowywanie tylko jednej kopii bloków.

    • Pamięć podręczna nie ma wpływu na wydajność dostępu sekwencyjnego. Podczas buforowania bloki nie są przenoszone, a jedynie kopiowane. Przy odpowiednim profilu obciążenia (odczyt losowy w małych blokach z wielokrotnym dostępem do tego samego LBA) system pamięci masowej wydaje dane z pamięci podręcznej SSD, jeśli jest, lub z dysku twardego i kopiuje je do pamięci podręcznej. W przypadku obciążenia dostępu szeregowego dane zostaną odczytane z dysku twardego. Przykład: pula 20 dysków twardych 10 lub 15k może dać około 2000 MB/s przy odczycie sekwencyjnym, ale jeśli potrzebne dane trafią na grupę dysków z pary dysków SSD, to dostaniemy około 800 MB/s. To, czy jest to krytyczne, czy nie, zależy od rzeczywistego scenariusza korzystania z systemów pamięci masowej.

    4x SSD 400GB HGST HUSML4040ASS600 RAID-10

    Wolumen został przetestowany na liniowej grupie dysków - RAID-10 czterech dysków SSD o pojemności 400 GB. W tej przesyłce DotHill HGST HUSML4040ASS600 okazał się abstrakcyjnymi „dyskami SSD SFF SAS o pojemności 400 GB”. Jest to dysk SSD serii Ultrastar SSD400M o dość wysokiej deklarowanej wydajności (56000/24000 IOPS do odczytu/zapisu 4KiB), a co najważniejsze z zasobem 10 przepisywania dziennie przez 5 lat. Oczywiście teraz HGST ma w swoim arsenale bardziej wydajne dyski SSD800MM i SSD1600MM, ale to wystarczy dla DotHill 4004.

    Wykorzystaliśmy testy zaprojektowane dla pojedynczych dysków SSD - "IOPS Test" i "Latency Test" ze specyfikacji SNIA Solid State Storage Performance Test Specification Enterprise v1.1:

    • Test IOPS. Liczba IOPS” (IOPS) jest mierzona dla bloków o różnych rozmiarach (1024KiB, 128KiB, 64KiB, 32KiB, 16KiB, 8KiB, 4KiB) i dostępu losowego z różnymi współczynnikami odczytu / zapisu (100/0, 95/5, 65 /35, 50/50, 35/65, 5/95, 0/100) Użyto 8 wątków z głębokością kolejki 16.
    • Test opóźnień. Wartość średniego i maksymalnego opóźnienia jest mierzona dla różnych rozmiarów bloków (8KiB, 4KiB) i współczynników odczytu/zapisu (100/0, 65/35, 0/100) przy minimalnej głębokości kolejki (1 wątek z QD=1) .
    Test składa się z serii pomiarów - 25 rund po 60 sekund. Wstępne ładowanie — zapis sekwencyjny w blokach 128KB, aż do osiągnięcia 2x pojemności. Okno stanu ustalonego (4 rundy) jest weryfikowane przez wykreślenie. Kryteria stanu ustalonego: Dopasowanie liniowe w obrębie okna nie może przekraczać 90%/110% średniej.

    SNIA PTS: test IOPS



    Zgodnie z oczekiwaniami osiągnięto deklarowany limit wydajności pojedynczego kontrolera w zakresie IOPS z małymi blokami. Z jakiegoś powodu DotHill wskazuje 100 000 IOPS do odczytu, a HP dla MSA2040 - bardziej realistyczne 80 000 IOPS (uzyskuje się 40 tys. na kontroler), co widzimy na wykresie.

    W celu weryfikacji przetestowano pojedynczy dysk SSD HGST HGST HUSML4040ASS600 z połączeniem z SAS HBA. Na bloku 4KiB do odczytu i zapisu odebrano około 50 tys. IOPS, przy nasyceniu (SNIA PTS Write Saturation Test) zapis spadł do 25-26 tys. IOPS, co odpowiada charakterystyce deklarowanej przez HGST.

    SNIA PTS: Test opóźnień

    Średnie opóźnienie (ms):


    Maksymalne opóźnienie (ms):


    Wartości średnie i szczytowe latencji są tylko o 20-30% wyższe niż te dla pojedynczego dysku SSD po podłączeniu do SAS HBA.

    Wniosek

    Oczywiście artykuł okazał się nieco chaotyczny i nie odpowiada na kilka ważnych pytań:
    • Porównanie w podobnej konfiguracji z produktami innych producentów: IBM v3700, Dell PV MD3 (i inni potomkowie LSI CTS2600), Infrotrend ESDS 3000 itd. Systemy pamięci masowej trafiają do nas w różnych konfiguracjach i z reguły nie na długo - musisz załadować i / lub wdrożyć.
    • Limit pamięci nie został przetestowany przez pasmo. Udało nam się zobaczyć około 2100MiB/s (RAID-50 na 20 dysków), ale nie przetestowałem szczegółowo ładowania sekwencyjnego ze względu na niewystarczającą liczbę dysków. Jestem pewien, że deklarowane 3200/2650 MB/s do odczytu/zapisu dałoby się uzyskać.
    • Nie ma wykresu IOPS w zależności od opóźnienia, przydatnego w wielu przypadkach, gdzie zmieniając głębokość kolejki można zobaczyć, ile IOPS można uzyskać przy akceptowalnej wartości opóźnienia. Niestety, nie starczyło czasu.
    • Najlepsze praktyki. Nie chciałem wymyślać koła na nowo, bo jest