Jeśli zapytasz, jaki interfejs powinien być używany dla dysku SSD z obsługą NVMe, każdy (kto w ogóle wie, czym jest NVMe) odpowie: oczywiście PCIe 3.0 x4! To prawda, że ​​z uzasadnieniem prawdopodobnie będzie miał trudności. W najlepszym razie otrzymujemy odpowiedź, że takie dyski obsługują PCIe 3.0 x4, a przepustowość interfejsu ma znaczenie. Ma coś, ale cała rozmowa na ten temat zaczęła się dopiero wtedy, gdy zrobiło się zatłoczona dla niektórych dysków w niektórych operacjach w ramach „zwykłego” SATA. Ale między 600 MB/s a (równie teoretycznie) 4 GB/s interfejsu PCIe 3.0 x4 to tylko przepaść wypełniona wieloma opcjami! A jeśli wystarczy jedna linia PCIe 3.0, skoro to już półtora raza więcej niż SATA600? Paliwa dorzucają producenci kontrolerów, którzy grożą przejściem na PCIe 3.0 x2 w budżetowych produktach, a także fakt, że wielu użytkowników nawet takich a takich nie ma. Dokładniej, teoretycznie są, ale możesz je zwolnić tylko poprzez rekonfigurację systemu lub nawet zmianę czegoś w nim, czego nie chcesz robić. Ale chcę kupić najwyższej klasy dysk SSD, ale istnieją obawy, że w ogóle nie będzie z tego korzyści (nawet moralna satysfakcja z wyników narzędzi testowych).

Ale czy tak jest, czy nie? Innymi słowy, czy naprawdę konieczne jest skupienie się wyłącznie na obsługiwanym trybie pracy - czy jest to nadal możliwe w praktyce? zrezygnować z zasad? To właśnie postanowiliśmy dzisiaj sprawdzić. Niech sprawdzenie będzie szybkie i nie będzie wyczerpujące, ale otrzymane informacje powinny wystarczyć (jak nam się wydaje) przynajmniej do myślenia… W międzyczasie zapoznajmy się pokrótce z teorią.

PCI Express: istniejące standardy i ich przepustowość

Zacznijmy od tego, czym jest PCIe i jak szybko działa ten interfejs. Często nazywa się to „autobusem”, co jest nieco niepoprawne ideologicznie: w związku z tym nie ma magistrali, do której podłączone są wszystkie urządzenia. W rzeczywistości istnieje zestaw połączeń punkt-punkt (podobny do wielu innych interfejsów szeregowych) z kontrolerem pośrodku i podłączonymi do niego urządzeniami (z których każde może być koncentratorem następnego poziomu).

Pierwszy Wersja PCI Express pojawił się prawie 15 lat temu. Orientacja do użycia wewnątrz komputera (często w ramach tej samej płyty) umożliwiła wykonanie standardowej szybkości: 2,5 gigatransakcji na sekundę. Ponieważ interfejs jest szeregowy i pełnodupleksowy, pojedyncza linia PCIe (x1; w rzeczywistości jednostka atomowa) zapewnia transfer danych z prędkością do 5 Gb/s. Jednak w każdym kierunku – tylko połowa tego, czyli 2,5 Gb/s, i to jest pełna prędkość interfejsu, a nie „użyteczna”: dla poprawy niezawodności każdy bajt kodowany jest 10 bitami, więc teoretyczna przepustowość jedna linia PCIe 1.x to około 250 MB/s w każdą stronę. W praktyce nadal konieczne jest przesyłanie informacji o usługach, w związku z czym bardziej poprawne jest mówienie o 200 MB / s transferu danych użytkownika. Co jednak w tamtym czasie nie tylko pokrywało potrzeby większości urządzeń, ale także zapewniało solidne zaopatrzenie: wystarczy przypomnieć, że poprzednik PCIe w segmencie masowych interfejsów systemowych, czyli magistrala PCI, zapewniał przepustowość 133 MB/s. I nawet jeśli weźmiemy pod uwagę nie tylko masową implementację, ale także wszystkie opcje PCI, to maksimum wynosiło 533 MB/s, a dla całej magistrali, czyli taki PS został podzielony na wszystkie podłączone do niego urządzenia. Tutaj 250 MB/s (ponieważ PCI zwykle daje pełną, nieprzydatną przepustowość) na linię - do wyłącznego użytku. A dla urządzeń, które potrzebują więcej, możliwość agregacji kilku linii w jeden interfejs była początkowo przewidziana przez potęgi dwójki - od 2 do 32, czyli. standaryzowany wariant x32 mógł już przesyłać do 8 GB/s w każdą stronę. W komputerach osobistych x32 nie był używany ze względu na złożoność tworzenia i hodowli odpowiednich kontrolerów i urządzeń, więc wariant z 16 liniami stał się maksymalny. Był używany (i nadal jest używany) głównie przez karty graficzne, ponieważ większość urządzeń nie potrzebuje tak wiele. Ogólnie wystarczy ich spora liczba i jedna linia, ale niektórzy z powodzeniem wykorzystują zarówno x4 jak i x8: właśnie w temacie pamięci masowej - kontrolery RAID lub SSD.

Czas nie stanął w miejscu, a około 10 lat temu pojawiła się druga wersja PCIe. Ulepszenia dotyczyły nie tylko prędkości, ale i w tym zakresie zrobiono krok naprzód – interfejs zaczął zapewniać 5 gigatransakcji na sekundę przy zachowaniu tego samego schematu kodowania, czyli podwojeniu przepustowości. W 2010 r. liczba ta się podwoiła: PCIe 3.0 zapewnia 8 (zamiast 10) gigatransakcji na sekundę, ale redundancja spadła - teraz do kodowania 128 bitów używa się 130, a nie 160, jak wcześniej. W zasadzie wersja PCIe 4.0 z kolejnym podwojeniem prędkości jest już gotowa do pojawienia się na papierze, ale w najbliższej przyszłości jest mało prawdopodobne, aby pojawiła się masowo w sprzęcie. W rzeczywistości PCIe 3.0 jest nadal używany na wielu platformach w połączeniu z PCIe 2.0, ponieważ wydajność tego ostatniego jest po prostu… nie potrzebna dla wielu aplikacji. A tam, gdzie jest to potrzebne, działa stara dobra metoda agregacji linii. Tylko każdy z nich stał się czterokrotnie szybszy w ciągu ostatnich lat, tj. PCIe 3.0 x4 to PCIe 1.0 x16, najszybsze gniazdo w komputerach ze średniej półki. Ta opcja jest obsługiwana przez topowe kontrolery SSD i zaleca się jej używanie. Oczywiste jest, że jeśli taka możliwość istnieje - wiele nie wystarczy. A jeśli nie jest? Czy będą jakieś problemy, a jeśli tak, to jakie? To jest pytanie, z którym musimy sobie poradzić.

Metodologia testów

Uruchom testy z różne wersje Standard PCIe nie jest trudny: prawie wszystkie kontrolery pozwalają korzystać nie tylko z tego, który obsługują, ale także ze wszystkich wcześniejszych. Trudniej jest z liczbą linii: chcieliśmy bezpośrednio przetestować warianty z jedną lub dwiema liniami PCIe. Płyta Asus H97-Pro Gamer, na której zwykle używamy Chipset Intela H97 kompletny zestaw nie obsługuje, ale oprócz „procesorowego” gniazda x16 (które jest zwykle używane), ma jeszcze jeden, który działa w trybach PCIe 2.0 x2 lub x4. Skorzystaliśmy z tego trio, dodając do niego tryb PCIe 2.0 gniazda „procesora”, aby ocenić, czy istnieje różnica. Mimo to w tym przypadku nie ma żadnych obcych „pośredników” między procesorem a dyskiem SSD, ale podczas pracy z gniazdem „chipset” istnieje: sam chipset, który jest faktycznie podłączony do procesora za pomocą tego samego PCIe 2.0 x4 . Moglibyśmy dodać jeszcze kilka trybów działania, ale nadal zamierzaliśmy przeprowadzić główną część badania na innym systemie.

Faktem jest, że postanowiliśmy skorzystać z tej okazji i jednocześnie sprawdzić jedną „miejską legendę”, a mianowicie przekonanie o przydatności wykorzystania topowych procesorów do testowania dysków. Wzięliśmy więc ośmiordzeniowy Core i7-5960X - krewny używanego zwykle w testach Core i3-4170 (są to Haswell i Haswell-E), ale który ma cztery razy więcej rdzeni. Ponadto płyta Asus Sabertooth X99 znaleziona w binach przydaje się nam dzisiaj dzięki obecności Gniazdo PCI e x4, faktycznie zdolny do pracy jako x1 lub x2. W tym układzie przetestowaliśmy trzy warianty x4 (PCIe 1.0/2.0/3.0) procesora i chipsetu PCIe 1.0 x1, PCIe 1.0 x2, PCIe 2.0 x1 i PCIe 2.0 x2 (we wszystkich przypadkach konfiguracje chipsetów są oznaczone na schematach Ikona (c)). Czy ma sens teraz przejście do pierwszej wersji PCIe, biorąc pod uwagę, że prawie żadna płyta nie obsługuje tylko tej wersji standardu i może uruchamiać się z urządzenia NVMe? Z praktycznego punktu widzenia nie, ale aby sprawdzić a priori oczekiwany stosunek PCIe 1,1 x4 = PCIe 2,0 x2 i tym podobne, przyda się nam. Jeśli test wykaże, że skalowalność magistrali odpowiada teorii, to nie ma znaczenia, że ​​nie udało nam się jeszcze uzyskać praktycznie znaczących sposobów podłączenia PCIe 3.0 x1/x2: ten pierwszy będzie identyczny jak tylko PCIe 1.1 x4 lub PCIe 2.0 x2, a drugi - PCIe 2.0 x4 . I mamy je.

Jeśli chodzi o oprogramowanie, ograniczyliśmy się tylko do Anvil’s Storage Utilities 1.1.0: dość dobrze mierzy różne niskopoziomowe charakterystyki dysków, ale nie potrzebujemy niczego więcej. Wręcz przeciwnie: jakikolwiek wpływ innych elementów systemu jest skrajnie niepożądany, więc syntetyki niskiego poziomu nie mają alternatywy dla naszych celów.

Jako „ciało robocze” użyliśmy Patriota Hellfire o pojemności 240 GB. Jak stwierdzono podczas testów, nie jest to rekordzista wydajności, ale jego charakterystyka prędkości jest dość zgodna z wynikami. najlepszy dysk SSD ta sama klasa i ta sama pojemność. Tak, a na rynku są już wolniejsze urządzenia, a będzie ich więcej. W zasadzie będzie można powtórzyć testy czymś szybciej, jednak jak nam się wydaje, nie ma takiej potrzeby – wyniki są przewidywalne. Ale nie wyprzedzajmy siebie, ale zobaczmy, co mamy.

Wyniki testu

Podczas testowania Hellfire zauważyliśmy, że maksymalna prędkość w operacjach sekwencyjnych może być „wyciśnięta” z niej tylko przez obciążenie wielowątkowe, więc należy to również wziąć pod uwagę na przyszłość: teoretyczna przepustowość jest teoretyczna, ponieważ „rzeczywista” dane, otrzymane w różne programy według różnych scenariuszy będą zależeć bardziej nie od tego, ale od tych właśnie programów i scenariuszy - w przypadku oczywiście, gdy okoliczności siły wyższej nie przeszkadzają :) Obserwujemy teraz właśnie takie okoliczności: to było już powiedziane powyżej że PCIe 1 .x x1 to ~200 MB/s, i to jest dokładnie to, co widzimy. Dwie linie PCIe 1.x lub jedna linia PCIe 2.0 są dwa razy szybsze i właśnie to widzimy. Cztery linie PCIe 1.x, dwie linie PCIe 2.0 lub jedna linia PCIe 3.0 są dwa razy szybsze, co zostało potwierdzone dla dwóch pierwszych opcji, więc jest mało prawdopodobne, aby trzecia była inna. Czyli w zasadzie skalowalność zgodnie z oczekiwaniami jest idealna: operacje są liniowe, Flash radzi sobie z nimi dobrze, więc interfejs ma znaczenie. Błysk zatrzymuje się radzić sobie dobrze do PCIe 2.0 x4 do zapisu (więc wystarczy PCIe 3.0 x2). Czytanie „może” więcej, ale ostatni krok daje już półtora, a nie dwa (jak potencjalnie powinno być) wzrost. Zauważamy również, że nie ma zauważalnej różnicy między kontrolerami chipsetu i procesora, a także między platformami. Jednak LGA2011-3 jest trochę do przodu, ale tylko trochę.

Wszystko jest gładkie i piękne. Ale szablony się nie rozrywają: maksimum w tych testach to tylko nieco ponad 500 MB/s, a nawet SATA600 czy (w dodatku do dzisiejszych testów) PCIe 1.0 x4/PCIe 2.0 x2/ PCIe 3.0x1. Zgadza się: nie bój się wypuszczenia kontrolerów budżetowych dla PCIe x2 lub obecności tylko tylu linii (i wersji standardu 2.0) w gniazdach M.2 na niektórych płytach, gdy więcej nie jest potrzebne. Czasami tak wiele nie jest potrzebne: maksymalne wyniki osiąga się dzięki kolejce 16 poleceń, co nie jest typowe dla oprogramowania masowego. Częściej jest kolejka z 1-4 komendami, a do tego można sobie poradzić z jedną linią pierwszego PCIe, a nawet pierwszego SATA. Są jednak koszty ogólne i takie, więc przydatny jest szybki interfejs. Jednak zbyt szybko - być może nie zaszkodzi.

W tym teście platformy zachowują się inaczej, a przy pojedynczej kolejce poleceń zachowują się zupełnie inaczej. „Kłopot” wcale nie polega na tym, że wiele rdzeni jest złych. Nadal nie są one tutaj używane, może z wyjątkiem jednego i nie na tyle, aby tryb doładowania rozwijał się z mocą i głównym. Mamy więc różnicę około 20% w częstotliwości rdzeni i półtora raza w pamięci podręcznej - w Haswell-E działa z niższą częstotliwością, a nie synchronicznie z rdzeniami. Ogólnie rzecz biorąc, najwyższa platforma może się przydać tylko do wyrzucenia maksymalnego „jopu” w najbardziej wielowątkowym trybie z dużą głębokością kolejki poleceń. Szkoda tylko, że z punktu widzenia praktyczna praca to bardzo kulisty syntetyk w próżni :)

W zapisie stan rzeczy nie zmienił się zasadniczo – pod każdym względem. Ale, co zabawne, w obu systemach tryb PCIe 2.0 x4 w slocie „procesora” okazał się najszybszy. Zarówno! Oraz z wielokrotnymi kontrolami/ponownymi kontrolami. W tym momencie możesz się zastanawiać, czy potrzebujesz to są twoje nowe standardy A może lepiej nigdzie się nie spieszyć ...

Podczas pracy z blokami o różnej wielkości załamuje się teoretyczna sielanka, że ​​zwiększenie szybkości interfejsu wciąż ma sens. Wynikowe liczby są takie, że wystarczyłoby kilka linii PCIe 2.0, ale w rzeczywistości w tym przypadku wydajność jest niższa niż w przypadku PCIe 3.0 x4, choć czasami nie. I generalnie tutaj platforma budżetowa „punktuje” tę najwyższą w znacznie większym stopniu. Ale właśnie takie operacje znajdują się głównie w oprogramowaniu użytkowym, tj. ten schemat jest najbliższy rzeczywistości. W rezultacie nie ma nic dziwnego w tym, że grube interfejsy i modne protokoły nie dają efektu „wow”. Dokładniej, ci, którzy odchodzą od mechaniki, otrzymają, ale dokładnie tak samo, jak każdy dysk półprzewodnikowy z dowolnym interfejsem, zapewni to.

Całkowity

Aby ułatwić postrzeganie obrazu szpitala jako całości, posłużyliśmy się punktacją podaną przez program (łączną - do czytania i pisania), normalizując ją zgodnie z trybem „chipset” PCIe 2.0 x4: ten moment to on jest najszerzej dostępny, ponieważ można go znaleźć nawet na platformach LGA1155 lub AMD bez konieczności „obrażania” karty graficznej. Ponadto jest to odpowiednik PCIe 3.0 x2, do opanowania przygotowują się kontrolery budżetowe. Tak, i na nowym Platforma AMD AM4, znowu jest to ten tryb, który można uzyskać bez wpływu na dyskretną kartę graficzną.

Więc co widzimy? Korzystanie z PCIe 3.0 x4, jeśli to możliwe, jest z pewnością preferowane, ale nie konieczne: zapewnia dosłownie 10% dodatkowej wydajności dyskom NVMe klasy średniej (w swoim początkowym górnym segmencie). A nawet wtedy - z powodu operacji w ogóle nie tak często spotykanych w praktyce. Dlaczego ta opcja jest w tym przypadku zaimplementowana? Po pierwsze była taka możliwość, ale kieszeń nie ciągnie kolby. Po drugie, są dyski i szybsze niż nasz testowy Patriot Hellfire. Po trzecie, istnieją takie obszary działalności, w których obciążenia „nietypowe” dla systemu stacjonarnego są po prostu dość typowe. I to właśnie tam wydajność systemu pamięci masowej jest najważniejsza, a przynajmniej możliwość bardzo szybkiego jej części. Ale to nie dotyczy zwykłych komputerów osobistych.

W nich, jak widzimy, zastosowanie PCIe 2.0 x2 (lub odpowiednio PCIe 3.0 x1) nie prowadzi do drastycznego spadku wydajności - tylko o 15-20%. I to pomimo tego, że w tym przypadku czterokrotnie ograniczyliśmy potencjalne możliwości kontrolera! W przypadku wielu operacji ta przepustowość jest wystarczająca. Tutaj jedna linia PCIe 2.0 już nie wystarcza, więc ma sens, aby kontrolery obsługiwały dokładnie PCIe 3.0 - i to w warunkach dotkliwego niedoboru linii w nowoczesny system to zadziała dobrze. Ponadto przydaje się szerokość x4 - nawet jeśli w systemie nie ma obsługi nowoczesnych wersji PCIe, nadal będzie pozwalała na pracę z normalną prędkością (choć wolniej niż mogłaby potencjalnie), jeśli jest mniej lub bardziej szerokie gniazdo .

W zasadzie duża liczba scenariuszy, w których sama pamięć flash okazuje się wąskim gardłem (tak, jest to możliwe i nieodłączne nie tylko w mechanice) prowadzi do tego, że cztery pasy trzeciej wersji PCIe na tym dysku wyprzedzają pierwszy około 3,5 raza - teoretyczna przepustowość tych dwóch przypadków różni się 16 razy. Z czego oczywiście nie wynika, że ​​trzeba się spieszyć, aby opanować bardzo wolne interfejsy - ich czas minął bezpowrotnie. Tyle, że wiele funkcji szybkich interfejsów można zaimplementować dopiero w przyszłości. Albo w warunkach, których zwykły użytkownik zwykłego komputera nigdy bezpośrednio w życiu nie spotka (z wyjątkiem tych, którzy lubią mierzyć się tym, co wiedzą). Właściwie to wszystko.

). Jednym z kryteriów tego pomysłu było bezpłatne korzystanie z portów USB 3.0 w domu. Cóż, skoro płyty główne platformy am2 nie były wyposażone w takie porty, wyjście jest tylko jedno – użyć kontrolera.
Nie było pytań o dostawę - tor był międzynarodowy i wszystko było śledzone poprawnie.
Ale opakowanie (a dokładniej jego brak) - odradza. Sprzedawca jest albo naiwny do punktu lekkomyślności, albo jest właścicielem całej masy stalowych jajek. Ponieważ antystatyczna torba z kontrolerem pakuje się po prostu w pocztę. Bez śladu opakowania/materiału uszczelniającego. W efekcie dostarczono mi sterownik z uszkodzonym kondensatorem (+ jeszcze jeden na warunkowym). A w komentarzach przez jeden kupujący piszą o porysowanym dysku ze sterownikami lub wygiętej ramie montażowej.

Co do dysku ze sterownikami. Konkretnie w moim przypadku nie mogę sprawdzić jego przydatności/wydajności. Bo nie mam sprzętu, żeby to przeczytać. Ale jest kilka zastrzeżeń:
1) W systemie Windows 10 kontroler nie wymaga instalacji sterowników. (Potwierdzam!)
2) W recenzjach piszą, że sprzedawca wysyła kierowcę na żądanie. (Nie mogę komentować, nie aplikowałem. Nie było potrzeby)
3) Sterownik (dla XP, VISTA, 7 i 8) zawsze można pobrać na model chipa - VL805.


Prawdę mówiąc poza ościeżnicą z kondensatorami nie ma już miejsca na wady instalacji. Przylutowane schludnie i czysto.
Pod względem geometrycznym płyta ma niewielkie rozmiary i może z łatwością zmieścić się nawet w wąskiej jednostce systemowej, ale nie ma do tego odpowiedniej ramy montażowej. (Idealnie, moim zdaniem, można by było wybrać przy składaniu zamówienia. Ale to prawda, marzenia…)


Układ VL805 „może zrobić” cztery porty USB 3.0. Dwa z nich (A F) są skierowane na zewnątrz, a dwa (19-stykowe) są skierowane do wnętrza jednostki systemowej. Obok tego ostatniego znajduje się 4-pinowe złącze molex do zewnętrznego zasilania.


Do testów prędkości użyłem następujących dysków zewnętrznych:
1) Karta pamięci podłączona za pomocą czytnika kart USB 3.0 ().
[Dalsze zrzuty ekranu po lewej stronie to pomiary na starym porcie 2.0. A po prawej na nowym - 3.0]

2) 2,5 cala Dysk twardy zachodnie cyfrowe WD Scorpio Blue 320 GB () sparowany z „kieszonką” USB 3.0

3) SSD OCZ Vertex 2 () sparowany ze wspomnianym powyżej zewnętrznym pudełkiem firmy AgeStar.

Co mogę o tym powiedzieć. Wartości liczb okazały się oczekiwane, ponieważ USB 2.0 to stary i powolny port. A różnica w szybkości między nim a portem USB 3.0 będzie tym bardziej zauważalna, im szybszy będzie dysk, z którego zamierzasz korzystać.
Jeśli mówimy konkretnie o tej rozważanej płycie, to z powodu nieostrożności sprzedawcy może się zdarzyć, że przy jej zakupie będziesz musiał pracować z lutownicą i / lub pobrać sterownik z Internetu. Z drugiej strony jest to jedna z najtańszych opcji wyposażenia starszego komputera w szybszy interfejs.

Teraz żegnam się. Bądź miły!

planuję kupić +21 Dodaj do ulubionych Podobała mi się recenzja +24 +41

USB jest najpopularniejszy nowoczesny interfejs do podłączania zewnętrznych urządzeń peryferyjnych. W szczególności standard USB 2.0 zapewnia szybkość przesyłania danych do 480 Mb/s. Uważany jest również za przestarzały w świetle pojawienia się szybszych i bardziej zaawansowanych wersji - 3.0 i 3.1. Niemniej jednak, Możliwości USB 2.0 wystarczy na urządzenia peryferyjne które nie wymagają dużej szybkości transferu danych ani dużej mocy - klawiatur, myszy, kamer internetowych, pendrive'ów itp.; a ten interfejs jest niedrogi. Dlatego złącza tego typu są nadal szeroko stosowane w technologia komputerowa a sytuacja raczej nie zmieni się w najbliższej przyszłości.

USB 3.2 pierwszej generacji

USB to najpopularniejszy nowoczesny interfejs do podłączania zewnętrznych urządzeń peryferyjnych. USB 3.2 gen1 (wcześniej oznaczone jako USB 3.1 gen1 i USB 3.0) to kolejna generacja tego interfejsu po 2.0. W tej wersji zwiększono szybkość transmisji danych do 4,8 Gb/s, a także zwiększono ilość mocy, jaką można dostarczyć do złącza.

USB 3.2 generacji2

USB to najpopularniejszy nowoczesny interfejs do podłączania zewnętrznych urządzeń peryferyjnych. Wersja 3.2 gen2 (wcześniej USB 3.1 gen2 i USB 3.1) ma prędkość transferu do 10 Gb/s.

USB C 3.2 pierwszej generacji

eSATA to wyspecjalizowany interfejs do łączenia dyski zewnętrzne. Zapewnia transfer danych z szybkością 2,4 Gb/s (5 razy szybszy niż standard USB 2.0). Ponadto połączenie przez eSATA jest wygodne, ponieważ dysk nie zajmuje Port USB, co może być przydatne w przypadku innych urządzeń peryferyjnych. Z drugiej strony istnieje stosunkowo niewiele urządzeń peryferyjnych z takim złączem.

Port COM

Termin „port COM” zwykle odnosi się do interfejsu RS-232. Jest to złącze serwisowe, obecnie używane głównie do łączenia różnych specjalistycznych urządzeń - maszyn CNC, źródeł nieprzerwana dostawa energii programowalny sterowniki logiczne, niektóre modele routerów itp. Ponadto interfejs ten może służyć do bezpośredniego połączenia między dwoma komputerami, a także do sterowania ustawieniami telewizorów, projektorów, odbiorników audio i innego sprzętu audio i wideo. Port COM jest rzadko instalowany w nowoczesnych komputerach podczas wstępnego montażu, więc do korzystania z tego interfejsu zwykle wymagany jest kontroler PCI.

Port LPT

LPT to przestarzały interfejs do podłączania urządzeń peryferyjnych do komputera. Wykorzystywany był głównie do drukarek, skanerów i napędów zewnętrznych, ale technicznie może być również używany z innymi urządzeniami - od modemów i joysticków po wysoce wyspecjalizowany sprzęt i bezpośrednie połączenie między dwoma komputerami. Nowe urządzenia peryferyjne dla LPT praktycznie nie są produkowane, jednak istnieje sporo starych urządzeń, które działają; w związku z tym nadal produkowane są kontrolery PCI z podobnymi portami.

Zauważ, że LPT jest dość duży, więc problematyczne jest zapewnienie więcej niż dwóch takich złączy w kontrolerze PCI. W praktyce jednak często wystarczy jeden port.

SAS (SFF-8088)

SFF-8088 to jeden z typów złączy używanych do podłączania dysków zewnętrznych przez Interfejs SAS. To połączenie zapewnia szybkość przesyłania danych do 12 Gb/s, co jest szczególnie wygodne podczas pracy z dużymi ilościami danych. Jednocześnie produkuje się stosunkowo niewiele peryferiów z takim złączem, więc złącza tego typu są dość rzadkie.

USB 2.0

Liczba wewnętrznych portów USB 2.0 przewidzianych w kontrolerze.

Zobacz „USB 2.0” powyżej, aby uzyskać szczegółowe informacje na temat samego interfejsu. A porty wewnętrzne znajdują się bezpośrednio na płycie kontrolera i są skierowane zgodnie z nazwą do wnętrza obudowy. Doskonale nadają się do urządzeń peryferyjnych, które muszą być na stałe podłączone do systemu i mogą być ukryte w obudowie; Przykładami takich urządzeń są Wi-Fi i Adaptery Bluetooth. Zaletą podłączenia do wewnętrznego USB jest to, że urządzenie nie wystaje z obudowy i nie zajmuje portów zewnętrznych, które mogą być przydatne dla innych urządzeń peryferyjnych.

USB 3.2 pierwszej generacji

Liczba wewnętrznych portów USB 3.2 gen1 (dawniej USB 3.1 gen1 i USB 3.0) dostępnych w kontrolerze.

Aby uzyskać szczegółowe informacje na temat samego interfejsu, zobacz „USB 3.2 gen1” powyżej. A porty wewnętrzne znajdują się bezpośrednio na płycie kontrolera i są skierowane zgodnie z nazwą do wnętrza obudowy. Doskonale nadają się do urządzeń peryferyjnych, które muszą być na stałe podłączone do systemu i mogą być ukryte w obudowie; Przykładami takich urządzeń są adaptery Wi-Fi i Bluetooth. Zaletą podłączenia do wewnętrznego USB jest to, że urządzenie nie wystaje z obudowy i nie zajmuje portów zewnętrznych, które mogą być przydatne dla innych urządzeń peryferyjnych.

USB 3.2 generacji2

Liczba wewnętrznych portów USB 3.2 gen2 (dawniej USB 3.1 gen2 i USB 3.1) dostępnych w kontrolerze.

Aby uzyskać szczegółowe informacje na temat samego interfejsu, zobacz „USB 3.2 gen2” powyżej. A porty wewnętrzne znajdują się bezpośrednio na płycie kontrolera i są skierowane zgodnie z nazwą do wnętrza obudowy. Doskonale nadają się do urządzeń peryferyjnych, które muszą być na stałe podłączone do systemu i mogą być ukryte w obudowie; Przykładami takich urządzeń są adaptery Wi-Fi i Bluetooth. Zaletą podłączenia do wewnętrznego USB jest to, że urządzenie nie wystaje z obudowy i nie zajmuje portów zewnętrznych, które mogą być przydatne dla innych urządzeń peryferyjnych.

SATA

Oceniając liczbę złączy, należy pamiętać, że jedno złącze może być wyprowadzone na dwa porty USB.

Rozmiar pamięci podręcznej

Ilość pamięci podręcznej dostępnej w kontrolerze.

Pamięć podręczna jest używana w kontrolerach RAID (patrz „Typ”). Służy do przechowywania danych, które są najczęściej wykorzystywane podczas pracy urządzenia: pamięć podręczna zapewnia szybki dostęp do tych danych, poprawiając w ten sposób ogólną wydajność kontrolera. Im większa pamięć podręczna, tym więcej danych można w niej przechowywać i tym szybciej urządzenie może działać; z drugiej strony duże ilości pamięci mają odpowiedni efekt kosztowy.

Dodatkowe jedzenie

Typ złącza do podłączenia dodatkowego zasilania, do którego przeznaczony jest sterownik.

- Molex. Charakterystyczne czteropinowe złącze zasilania, które ma dość duże rozmiary. Dość wszechstronny, używany do zasilania szerokiej gamy komponentów systemu

- SATA. Złącze zasilania zwalniane w tym samym czasie co odpowiedni interfejs danych (patrz wyżej) specjalnie dla dysków twardych; jednak może być również używany do innych komponentów. Posiada 15 pinową wtyczkę.

- Molex/SATA. Możliwość podłączenia do sterownika mocy za pomocą dowolnego z opisanych powyżej złączy. Ta konstrukcja jest najbardziej uniwersalna, minimalizuje prawdopodobieństwo, że w zasilaczu nie znajdzie się odpowiedniego złącza. Z drugiej strony taka wszechstronność wpływa na wielkość i cenę urządzenia.

Zajęte sloty

Liczba standardowych gniazd na tylnym panelu, które zajmuje kontroler. Ta informacja niezbędne do oceny, czy w walizce jest wystarczająco dużo miejsca na montaż tablicy. Zwykle kontrolery zajmują , czyli sloty.

niski profil

Ta funkcja oznacza, że ​​płyta kontrolera ma niewielką wysokość; a wysokość w tym przypadku to to, jak bardzo płyta wystaje ponad „płytę główną”, w której jest zainstalowana.

Komponenty niskoprofilowe są przeznaczone głównie do użytku w kompaktowych obudowach, w których nie ma miejsca na pełnowymiarowe płyty. Jednak nic nie stoi na przeszkodzie, aby zainstalować taką opłatę w więcej duże ciało.

Długość deski

Całkowita długość kontrolera wynosi od pręta zamocowanego na tylnej ścianie obudowy komputera do przeciwległego końca płytki. Informacje te pozwalają ocenić, czy w obudowie jest wystarczająco dużo miejsca, aby zainstalować ten komponent.

W przeszłości istniały tylko dwa rodzaje dysków SSD, którymi interesował się główny konsument: szybkie modele premium, takie jak Samsung 850 PRO, lub niedrogie, takie jak Crucial BX100 lub SanDisk Ultra II. Oznacza to, że segmentacja rynku dysków SSD była wyjątkowo słaba i chociaż konkurencja między producentami rozwinęła się w obszarach wydajności i ceny, różnica między rozwiązaniami z górnej i dolnej półki pozostała dość niewielka. Taki stan rzeczy wynikał częściowo z faktu, że sama technologia SSD znacznie poprawia wrażenia użytkownika podczas pracy z komputerem, przez co problemy z implementacją dla wielu schodzą na dalszy plan. Z tego samego powodu konsumenckie dyski SSD zostały włączone do starej infrastruktury, która początkowo skupiała się na mechanice dyski twarde. To znacznie ułatwiło ich implementację, ale zamknęło dysk SSD w dość wąskiej strukturze, co w dużej mierze utrudnia zarówno wzrost przepustowości, jak i zmniejszenie opóźnień podsystemu dyskowego.

Ale do pewnego czasu ten stan rzeczy odpowiadał wszystkim. Technologia SSD była nowa, a użytkownicy przechodzący na dyski SSD byli zadowoleni z zakupu, mimo że zasadniczo otrzymywali produkty, które w rzeczywistości nie działały najlepiej, a ich wydajność była ograniczana przez sztuczne bariery. Jednak do tej pory dyski SSD można już uznać za prawdziwy główny nurt. Każdy szanujący się właściciel komputera osobistego, jeśli nie ma przynajmniej jednego dysku SSD w swoim systemie, bardzo poważnie myśli o jego zakupie w najbliższej przyszłości. W tych warunkach producenci są po prostu zmuszeni pomyśleć o wdrożeniu pełnej konkurencji: zlikwidowaniu wszelkich barier i przejściu do produkcji szerszych linii produktów, które zasadniczo różnią się pod względem oferowanych cech. Na szczęście przygotowano do tego wszelkie niezbędne grunty, a przede wszystkim większość twórców dysków SSD ma chęć i możliwość rozpoczęcia wypuszczania produktów, które działają nie za pośrednictwem starszego interfejsu SATA, ale za pośrednictwem znacznie wydajniejszej magistrali PCI Express.

Ponieważ przepustowość SATA jest ograniczona do 6 Gb/s, maksymalna prędkość flagowych dysków SSD SATA nie przekracza 500 MB/s. Jednak współczesne pendrive'y potrafią znacznie więcej: w końcu, jeśli się nad tym zastanowić, mają więcej wspólnego z pamięć systemowa niż w przypadku mechanicznych dysków twardych. Jeśli chodzi o magistralę PCI Express, teraz jest aktywnie wykorzystywana jako warstwa transportowa podczas łączenia karty graficzne i inne dodatkowe kontrolery, które wymagają szybkiej wymiany danych, takie jak Thunderbolt. Jedna linia PCI Express Gen 2 zapewnia przepustowość do 500 MB/s, podczas gdy linia PCI Express 3.0 może osiągnąć prędkość do 985 MB/s. Tym samym karta interfejsu zainstalowana w gnieździe PCIe x4 (z czterema liniami) może wymieniać dane z prędkością do 2 GB/s w przypadku PCI Express 2.0 i do prawie 4 GB/s w przypadku korzystania z PCI Express trzeciej generacji. Są to doskonałe wskaźniki, które są odpowiednie dla nowoczesnych dysków półprzewodnikowych.

Z tego, co zostało powiedziane, wynika oczywiście, że oprócz dysków SATA SSD, na rynku powinny stopniowo znajdować dystrybucję szybkie dyski wykorzystujące magistralę PCI Express. I to się naprawdę dzieje. W sklepach można znaleźć kilka modeli konsumenckich dysków SSD wiodących producentów, wykonanych w formie kart rozszerzeń lub kart M.2 wykorzystujących różne warianty magistrali PCI Express. Postanowiliśmy je połączyć i porównać pod względem wydajności i innych parametrów.

Uczestnicy testu

Intel SSD 750 400 GB

Na rynku dysków SSD Intel trzyma się dość niestandardowej strategii i nie przywiązuje zbytniej wagi do rozwoju dysków SSD dla segmentu konsumenckiego, koncentrując się na produktach dla serwerów. Jednak jego propozycje nie stają się nieciekawe, zwłaszcza jeśli chodzi o dysk półprzewodnikowy na magistralę PCI Express. W tym przypadku Intel zdecydował się dostosować swoją najbardziej zaawansowaną platformę serwerową do użytku w wysokowydajnym klienckim dysku SSD. Tak narodził się Intel SSD 750 400 GB, który otrzymał nie tylko imponującą charakterystykę wydajności i szereg technologii serwerowych odpowiedzialnych za niezawodność, ale także wsparcie dla nowomodnego interfejsu NVMe, o którym kilka słów należy powiedzieć osobno.




Jeśli mówimy o konkretnych ulepszeniach NVMe, to przede wszystkim redukcja kosztów ogólnych zasługuje na wzmiankę. Na przykład przesyłanie najbardziej typowych 4-kilobajtowych bloków w nowym protokole wymaga tylko jednego polecenia zamiast dwóch. A cały zestaw instrukcji sterujących został uproszczony do tego stopnia, że ​​ich przetwarzanie na poziomie sterownika zmniejsza obciążenie procesora i wynikające z tego opóźnienia o co najmniej połowę. Drugą ważną innowacją jest obsługa deep pipeliningu i wielozadaniowości, która polega na możliwości równoległego tworzenia wielu kolejek żądań zamiast dotychczasowej pojedynczej kolejki na 32 polecenia. Protokół interfejsu NVMe jest w stanie obsłużyć do 65536 kolejek, a każda z nich może zawierać do 65536 poleceń. W rzeczywistości wszelkie ograniczenia są w ogóle eliminowane, a jest to bardzo ważne w środowiskach serwerowych, gdzie do podsystemu dyskowego można przypisać ogromną liczbę jednoczesnych operacji I/O.



Ale pomimo pracy przez interfejs NVMe, Intel SSD 750 nadal nie jest serwerem, ale dyskiem konsumenckim. Tak, prawie ta sama platforma sprzętowa co w tym dysku jest używana w dyskach SSD klasy serwerowej Intel DC P3500, P3600 i P3700, ale Intel SSD 750 wykorzystuje tańszą zwykłą MLC NAND, a poza tym firmware jest modyfikowany. Producent wierzy, że dzięki takim zmianom powstały produkt przypadnie do gustu entuzjastom, ponieważ łączy w sobie dużą moc, zasadniczo nowy interfejs NVMe i niezbyt zastraszający koszt.

Intel SSD 750 to karta PCIe x4 o połowie wysokości, która może korzystać z czterech linii 3.0 i osiągać sekwencyjne szybkości transferu do 2,4 GB/s oraz operacje losowe do 440 000 IOPS. Co prawda najbardziej pojemna modyfikacja 1,2 TB ma najwyższą wydajność, podczas gdy otrzymana do testów wersja 400 GB jest nieco wolniejsza.



Płyta napędowa jest całkowicie pokryta pancerzem. Z przodu jest to aluminiowy radiator, a z tyłu znajduje się ozdobna metalowa płytka, która tak naprawdę nie styka się z mikroukładami. Należy zauważyć, że zastosowanie grzejnika jest tutaj koniecznością. Główny kontroler dysku Intel SSD generuje bardzo dużo ciepła, a przy dużym obciążeniu nawet dysk wyposażony w takie chłodzenie może nagrzewać się do temperatur rzędu 50-55 stopni. Ale dzięki fabrycznie zainstalowanemu chłodzeniu nie ma śladu dławienia - wydajność pozostaje stała nawet podczas ciągłego i intensywnego użytkowania.



Dysk Intel SSD 750 jest oparty na kontrolerze serwerowym Intel CH29AE41AB0, który działa z częstotliwością 400 MHz i ma osiemnaście (!) kanałów do podłączenia pamięci flash. Biorąc pod uwagę, że większość konsumenckich kontrolerów SSD ma osiem lub cztery kanały, staje się jasne, że Intel SSD 750 może faktycznie pompować znacznie więcej danych przez magistralę niż konwencjonalne modele SSD.



Jeśli chodzi o używaną pamięć flash, Intel SSD 750 nie wprowadza innowacji w tym obszarze. Jest on oparty na zwykłym procesorze MLC NAND firmy Intel, wydanym zgodnie z technologią procesu 20 nm i mającym przeplatane rdzenie 64 i 128 Gb. Należy zauważyć, że większość innych producentów dysków SSD już dawno zrezygnowała z takiej pamięci, przechodząc na układy wykonane według cieńszych standardów. A sam Intel zaczął przenosić nie tylko swojego konsumenta, ale także dyski serwerowe do pamięci 16 nm. Jednak mimo wszystko Intel SSD 750 wykorzystuje starszą pamięć, która podobno ma wyższy zasób.

Serwerowe pochodzenie dysku Intel SSD 750 można również prześledzić w fakcie, że całkowita pojemność pamięci flash tego dysku SSD wynosi 480 GiB, z czego tylko około 78 procent jest dostępne dla użytkownika. Reszta jest przeznaczona na fundusz zastępczy, technologie zbierania śmieci i ochrony danych. Intel SSD 750 realizuje tradycyjny flagowy schemat podobny do RAID 5 na poziomie układów MLC NAND, co pozwala na pomyślne przywracanie danych, nawet jeśli jeden z układów całkowicie ulegnie awarii. Ponadto dysk Intel SSD zapewnia pełną ochronę danych przed awariami zasilania. Dysk Intel SSD 750 ma dwa kondensatory elektrolityczne, a ich pojemność wystarcza do regularnego wyłączania dysku w trybie offline.

Kingston HyperX Predator 480 GB

Kingston HyperX Predator to znacznie bardziej tradycyjne rozwiązanie w porównaniu do Intel SSD 750. Po pierwsze, działa za pośrednictwem protokołu AHCI, a nie NVMe, a po drugie, ten dysk SSD wymaga bardziej popularnej magistrali PCI Express 2.0 do połączenia z systemem. Wszystko to sprawia, że ​​wersja Kingston jest nieco wolniejsza - szczytowe prędkości dla operacji sekwencyjnych nie przekraczają 1400 MB / s, a losowe - 160 tys. IOPS. Ale HyperX Predator nie nakłada na system żadnych specjalnych wymagań - jest kompatybilny ze wszystkimi, w tym starymi platformami.

Oprócz tego napęd ma nie do końca prostą konstrukcję dwukomponentową. Sam dysk SSD to płyta w formacie M.2, uzupełniona adapterem PCI Express, który umożliwia podłączenie dysków M.2 przez zwykłe pełnowymiarowe gniazda PCIe. Adapter jest wykonany w postaci karty PCIe x4 o połowie wysokości, która wykorzystuje wszystkie cztery linie PCI Express. Dzięki tej konstrukcji firma Kingston sprzedaje swojego HyperX Predator w dwóch wersjach: jako dysk SSD PCIe do komputerów stacjonarnych oraz jako dysk M.2 do systemów mobilnych (w tym przypadku adapter nie jest zawarty w dostawie).



Kingston HyperX Predator oparty jest na kontrolerze Marvell Altaplus (88SS9293), który z jednej strony obsługuje cztery tory PCI Express 2.0, a z drugiej posiada osiem kanałów do podłączenia pamięci flash. Jest to jak dotąd najszybszy masowo produkowany kontroler SSD PCI Express firmy Marvell. Jednak wkrótce Marvell będzie miał szybszych zwolenników z obsługą NVMe i PCI Express 3.0, których nie ma w układzie Altaplus.



Ponieważ sam Kingston nie produkuje ani kontrolerów, ani pamięci, montując swoje dyski SSD z bazy elementów zakupionej od innych producentów, nie ma nic dziwnego w tym, że HyperX Predator PCIe SSD jest oparty nie tylko na kontrolerze innej firmy, ale także na 128-gigabitowe chipy MLC NAND 19 nm firmy Toshiba. Taka pamięć ma niską cenę zakupu i jest obecnie instalowana w wielu produktach firmy Kingston (i innych firm), a przede wszystkim w modelach konsumenckich.



Stosowanie takiej pamięci stworzyło jednak paradoks: pomimo tego, że zgodnie z formalnym pozycjonowaniem, Kingston HyperX Predator PCIe SSD jest produktem premium, to ma tylko trzyletnią gwarancję, a podany średni czas między awariami jest znacznie mniej niż w przypadku flagowych dysków SATA SSD innych producentów.

Kingston HyperX Predator nie oferuje również specjalnych technologii ochrony danych. Ale dysk ma stosunkowo duży obszar ukryty przed oczami użytkownika, którego rozmiar stanowi 13 procent całkowitej pojemności dysku. Zawarta w nim zapasowa pamięć flash służy do zbierania śmieci i niwelowania zużycia, ale jest głównie przeznaczana na wymianę uszkodzonych komórek pamięci.

Pozostaje tylko dodać, że konstrukcja HyperX Predator nie przewiduje żadnych specjalnych środków do odprowadzania ciepła ze sterownika. W przeciwieństwie do większości innych rozwiązań o wysokiej wydajności, ten dysk nie ma radiatora. Jednak ten dysk SSD w ogóle nie jest podatny na przegrzanie – jego maksymalne rozpraszanie ciepła jest tylko nieznacznie wyższe niż 8 watów.

OCZ Revodrive 350 480 GB

OCZ Revodrive 350 jest słusznie jednym z najstarszych konsumenckich dysków SSD z Interfejs PCI wyrazić. W czasach, gdy żaden z innych producentów nawet nie myślał o wypuszczeniu klienckich dysków SSD PCIe, w zakres modeli Firma OCZ miała RevoDrive 3 (X2), prototyp obecnego Revodrive 350. Jednak trwałe korzenie dysku PCIe OCZ sprawiają, że jest to nieco dziwna propozycja w porównaniu z dzisiejszą konkurencją. Podczas gdy większość producentów wysokowydajnych dysków PC używa nowoczesnych kontrolerów z natywną obsługą magistrali PCI Express, Revodrive 350 ma bardzo skomplikowaną i wyraźnie nieoptymalną architekturę. Opiera się na dwóch lub czterech (w zależności od wolumenu) kontrolerach SandForce SF-2200, które są montowane w macierzy RAID poziomu zerowego.

Jeśli mówimy o modelu 480 GB OCZ Revodrive 350, który brał udział w tym teście, to w rzeczywistości jest on oparty na czterech dyskach SSD SATA o pojemności 120 GB każdy, z których każdy oparty jest na własnym układzie SF-2282 (analogowym szeroko rozpowszechnionego SF-2281) . Następnie te elementy są łączone w pojedynczą czteroskładnikową macierz RAID 0. Jednak w tym celu używany jest nie do końca znany kontroler RAID, ale zastrzeżony procesor wirtualizacji (VCA 2.0) OCZ ICT-0262. Jest jednak bardzo prawdopodobne, że pod tą nazwą kryje się odwrócony układ Marvell 88SE9548, czyli czteroportowy kontroler RAID SAS/SATA 6 Gb/s z interfejsem PCI Express 2.0 x8. Ale mimo to inżynierowie OCZ napisali własne oprogramowanie i sterownik dla tego kontrolera.



Wyjątkowość komponentu programowego RevoDrive 350 polega na tym, że nie implementuje on dość klasycznego RAID 0, ale swego rodzaju z interaktywnym równoważeniem obciążenia. Zamiast dzielić strumień danych na bloki o stałym rozmiarze i sekwencyjnie przesyłać je do różnych kontrolerów SF-2282, technologia VCA 2.0 obejmuje analizę i elastyczną redystrybucję operacji We/Wy w zależności od aktualnego zajętości kontrolerów pamięci flash. Dlatego RevoDrive 350 wygląda dla użytkownika jak dysk SSD. Nie możesz wejść do jego BIOS-u i nie można dowiedzieć się, że macierz RAID jest ukryta w trzewiach tego dysku SSD bez szczegółowego zapoznania się z upychaniem sprzętowym. Co więcej, w przeciwieństwie do konwencjonalnych macierzy RAID, RevoDrive 350 obsługuje wszystkie typowe funkcje SSD: monitorowanie SMART, TRIM i Secure Erase.

RevoDrive 350 jest dostępny jako płyty z interfejsem PCI Express 2.0 x8. Pomimo faktycznego wykorzystania wszystkich ośmiu linii interfejsu, deklarowane wskaźniki wydajności są zauważalnie niższe niż ich całkowita teoretyczna przepustowość. Maksymalna prędkość operacji sekwencyjnych jest ograniczona do 1800 MB/s, a wydajność dowolnych operacji nie przekracza 140 tys. IOPS.

Warto zauważyć, że OCZ RevoDrive 350 jest płytą PCI Express x8 o pełnej wysokości, co oznacza, że ​​jest fizycznie większa niż wszystkie inne testowane przez nas dyski SSD i dlatego nie może być instalowana w systemach niskoprofilowych. Przednia powierzchnia płyty RevoDrive 350 pokryta jest ozdobną metalową obudową, która pełni również funkcję radiatora dla podstawowego układu kontrolera RAID. Sterowniki SF-2282 znajdują się na odwrocie płytki i są pozbawione jakiegokolwiek chłodzenia.



Do utworzenia macierzy pamięci flash firma OCZ wykorzystała chipy swojej firmy macierzystej, Toshiba. Zastosowane chipy są produkowane w technologii 19 nm i mają przepustowość 64 Gbps. Całkowita ilość pamięci flash w RevoDrive 350 480 GB to 512 GB, ale 13% jest zarezerwowane na potrzeby wewnętrzne - niwelowanie zużycia i usuwanie śmieci.



Warto zauważyć, że architektura RevoDrive 350 nie jest wyjątkowa. Na rynku dostępnych jest jeszcze kilka modeli podobnych dysków SSD, które działają na zasadzie „macierzy RAID z dysków SSD SATA opartych na kontrolerach SandForce”. Jednak wszystkie takie rozwiązania, jak rozważany dysk OCZ PCIe, mają nieprzyjemną wadę – ich wydajność zapisu z czasem spada. Wynika to ze specyfiki wewnętrznych algorytmów kontrolerów SandForce, dla których operacja TRIM nie przywraca prędkości zapisu do pierwotnego poziomu.



Niepodważalny fakt, że RevoDrive 350 jest o krok poniżej następnej generacji dysków PCI Express, podkreśla również fakt, że dysk ten objęty jest jedynie trzyletnią gwarancją, a jego gwarantowany zasób zapisu to tylko 54 TB - kilka razy mniej niż konkurentów. Co więcej, pomimo tego, że RevoDrive 350 bazuje na tej samej konstrukcji co serwer Z-Drive 4500, nie posiada żadnej ochrony przed przepięciami. Jednak to wszystko nie przeszkadza firmie OCZ, z jej wrodzoną śmiałością, pozycjonować RevoDrive 350 jako rozwiązanie premium na poziomie Intel SSD 750.

Plextor M6e Black Edition 256 GB

Należy od razu zaznaczyć, że napęd Plextor M6e Black Edition jest bezpośrednim następcą znanego modelu M6e. Podobieństwo nowości do poprzednika można prześledzić prawie we wszystkim, jeśli mówimy o komponencie technicznym, a nie estetycznym. Nowy dysk SSD ma również dwuczęściową konstrukcję, w tym rzeczywisty dysk w formacie M.2 2280 oraz adapter, który pozwala zainstalować go w dowolnym zwykłym gnieździe PCIe x4 (lub szybszym). Oparty jest również na ośmiokanałowym kontrolerze Marvell 88SS9183, który komunikuje się ze światem zewnętrznym za pośrednictwem dwóch linii PCI Express 2.0. Podobnie jak w poprzedniej wersji, M6e Black Edition korzysta z pamięci flash MLC firmy Toshiba.

A to oznacza, że ​​pomimo tego, że zmontowany M6e Black Edition wygląda jak karta PCI Express x4 o połowie wysokości, w rzeczywistości ten dysk SSD wykorzystuje tylko dwie linie PCI Express 2.0. Stąd niezbyt imponujące prędkości, które są tylko nieznacznie szybsze niż tradycyjne dyski SSD SATA. Wydajność paszportu na operacjach sekwencyjnych jest ograniczona do 770 MB / s, a na arbitralnie - 105 tys. IOPS. Warto zauważyć, że Plextor M6e Black Edition działa zgodnie ze starszym protokołem AHCI, co zapewnia jego szeroką kompatybilność z różnymi systemami.



Pomimo tego, że Plextor M6e Black Edition, podobnie jak Kingston HyperX Predator, jest połączeniem adaptera PCI Express i „rdzenia” w formacie M.2 płyty, nie można tego określić z przodu. Cały napęd ukryto pod figurową, czarną, aluminiową obudową, pośrodku której osadzony jest czerwony radiator, który ma odprowadzać ciepło z kontrolera i układów pamięci. Kalkulacja projektantów jest jasna: podobny schemat kolorów jest szeroko stosowany w różnych urządzeniach do gier, więc Plextor M6e Black Edition będzie harmonijnie prezentować się obok wielu płyt głównych do gier i kart graficznych większości wiodących producentów.



Macierz pamięci flash w Plextor M6e Black Edition jest zasilana przez 19-nanometrowe chipy MLC NAND drugiej generacji firmy Toshiba o przepustowości 64 Gb/s. Rezerwa wykorzystywana na fundusz odtworzeniowy i działanie wewnętrznych algorytmów niwelowania zużycia i zbierania śmieci przeznacza się na 7 procent całości. Cała reszta jest dostępna dla użytkownika.



Ze względu na zastosowanie dość słabego kontrolera Marvell 88SS9183 z zewnętrzną magistralą PCI Express 2.0 x2, dysk Plextor M6e Black Edition należy uznać za raczej wolny dysk SSD PCIe. Nie uniemożliwia to jednak producentowi odniesienia tego produktu do wyższej kategorii cenowej. Z jednej strony nadal jest szybszy niż dysk SSD SATA, a z drugiej ma dobre parametry niezawodnościowe: ma długi czas między awariami i jest objęty pięcioletnią gwarancją. Jednak nie są w nim zaimplementowane żadne specjalne technologie, które mogą chronić M6e Black Edition przed przepięciami lub zwiększyć jego zasoby.

Samsung SM951 256 GB

Samsung SM951 to najbardziej nieuchwytny dysk w dzisiejszych testach. Faktem jest, że początkowo jest to produkt dla monterów komputerów, więc jest raczej wyblakły w sprzedaży detalicznej. Niemniej jednak, w razie potrzeby, nadal można go kupić, więc nie odmówiliśmy rozważenia SM951. Co więcej, sądząc po cechach, jest to bardzo szybki model. Został zaprojektowany do pracy na magistrali PCI Express 3.0 x4, wykorzystuje protokół AHCI i obiecuje imponujące prędkości: do 2150 MB/s w operacjach sekwencyjnych i do 90 000 IOPS w operacjach losowych. Ale co najważniejsze, pomimo tego wszystkiego Samsung SM951 jest tańszy niż wiele innych dysków SSD PCIe, więc szukanie go w sprzedaży może mieć bardzo konkretny przypadek biznesowy.

Kolejną cechą Samsung SM951 jest to, że jest on dostępny w formie M.2. Początkowo to rozwiązanie koncentruje się na systemy mobilne, więc do napędu nie są dołączone żadne adaptery do pełnowymiarowych gniazd PCIe. Trudno jednak uznać to za poważną wadę - większość flagowych płyt głównych ma również na pokładzie gniazda interfejsu M.2. Ponadto niezbędne adaptery są szeroko dostępne na rynku. Sam Samsung SM951 to płyta w formacie M.2 2280, której złącze ma klucz typu M, co wskazuje na potrzebę posiadania dysku SSD na czterech liniach PCI Express.



Samsung SM951 bazuje na wyjątkowo wydajnym kontrolerze Samsung UBX, opracowanym przez producenta specjalnie dla dysków SSD PCI Express. Oparty jest na trzech rdzeniach z architekturą ARM i teoretycznie może współpracować zarówno z poleceniami AHCI, jak i NVMe. W omawianym dysku SSD w kontrolerze włączony jest tylko tryb AHCI. Ale wersja NVMe tego kontrolera będzie wkrótce dostępna w nowym konsumenckim dysku SSD, który Samsung ma wprowadzić na rynek jesienią tego roku.



Ze względu na koncentrację na OEM dla danego dysku nie jest zgłaszany okres gwarancyjny ani przewidywana trwałość. Parametry te muszą być zadeklarowane przez monterów systemów, w których będzie instalowany SM951 lub przez sprzedawców. Należy jednak zauważyć, że 3D V-NAND, który jest obecnie aktywnie promowany przez Samsunga w konsumenckich dyskach SSD jako szybsza i bardziej niezawodna forma pamięci flash, nie jest używany w SM951. Zamiast tego używa zwykłego płaskiego Toggle Mode 2.0 MLC NAND, wyprodukowanego prawdopodobnie przy użyciu technologii 16 nm (niektóre źródła sugerują technologię procesu 19 nm). Oznacza to, że SM951 nie powinien mieć tak samo wysokiej wytrzymałości, jak flagowy dysk 850 PRO SATA. W tym parametrze SM951 jest bliższy zwykłym modelom klasy średniej, dodatkowo tylko 7 procent macierzy pamięci flash jest przeznaczonych na nadmiarowość w tym dysku SSD. Samsung SM951 nie ma żadnych specjalnych technologii na poziomie serwera, które chroniłyby dane przed awariami zasilania. Innymi słowy, w tym modelu nacisk kładzie się wyłącznie na szybkość pracy, a wszystko inne jest odcinane, aby obniżyć koszty.



Warto zwrócić uwagę na jeszcze jedną rzecz. Pod dużym obciążeniem Samsung SM951 wykazuje dość poważne nagrzewanie się, co w końcu może nawet doprowadzić do włączenia dławienia. Dlatego w wysokowydajnych systemach SM951 pożądane jest zorganizowanie przynajmniej przepływu powietrza, a lepiej zamknięcie go grzejnikiem.

Charakterystyka porównawcza testowanych dysków SSD


Problemy ze zgodnością

Jak każdy Nowa technologia, dyski SSD PCI Express nie mogą jeszcze pochwalić się w 100% bezproblemową wydajnością na żadnej platformie, zwłaszcza starszej. Dlatego musisz wybrać odpowiedni dysk SSD nie tylko w oparciu o cechy konsumentów, ale także mając na uwadze kompatybilność. Tutaj ważne jest, aby pamiętać o dwóch punktach.

Po pierwsze, różne dyski SSD mogą korzystać z różnej liczby linii PCI Express i różne pokolenia ta opona - 2.0 lub 3.0. Dlatego przed zakupem dysku PCIe musisz upewnić się, że system, w którym zamierzasz go zainstalować, ma wolne gniazdo o wymaganej przepustowości. Oczywiście szybsze dyski SSD PCIe są wstecznie kompatybilne z wolniejszymi gniazdami, ale w tym przypadku zakup szybkiego dysku SSD nie ma większego sensu – po prostu nie może osiągnąć pełnego potencjału.

Plextor M6e Black Edition ma najszerszą kompatybilność w tym sensie - wymaga tylko dwóch linii PCI Express 2.0, a takie wolne gniazdo z pewnością znajdziesz na prawie każdym płyta główna. Kingston HyperX Predator potrzebuje już czterech linii PCI Express 2.0: wiele płyt głównych również ma takie złącza PCIe, ale niektóre tanie platformy mogą nie mieć dodatkowych gniazd z czterema lub więcej liniami PCI Express. Dotyczy to zwłaszcza płyt głównych zbudowanych na niskopoziomowych chipsetach, których łączna liczba linii może zostać zmniejszona do sześciu. Dlatego przed zakupem Kingston HyperX Predator upewnij się, że system ma wolne gniazdo z co najmniej czterema liniami PCI Express.

OCZ Revodrive 350 idzie o krok dalej - wymaga już ośmiu linii PCI Express. Takie gniazda są zwykle realizowane nie przez chipset, ale przez procesor. Dlatego najlepszym miejscem do wykorzystania takiego dysku są platformy LGA 2011/2011-3, gdzie kontroler procesora PCI Express ma nadmierną liczbę linii, co pozwala na obsługę więcej niż jednej karty graficznej. W systemach z procesorami LGA 1155/1150/1151 OCZ Revodrive 350 będzie odpowiedni tylko w przypadku użycia grafiki zintegrowanej z procesorem. W przeciwnym razie, na korzyść dysku SSD, będziesz musiał usunąć połowę linii z GPU, przełączając go w tryb PCI Express x8.

Dyski Intel SSD 750 i Samsung SM951 są nieco podobne do OCZ Revodrive 350: są również preferowane do stosowania w gniazdach PCI Express zasilanych procesorem. Powodem nie jest jednak liczba pasów - wymagają one tylko czterech pasów PCI Express, ale generacja tego interfejsu: oba te dyski są w stanie wykorzystać zwiększoną przepustowość PCI Express 3.0. Jest jednak wyjątek: otrzymały najnowsze chipsety Intel z setnej serii, przeznaczone dla procesorów z rodziny Skylake Obsługa PCI Express 3.0, a więc w najnowszych płytach LGA 1151 można je bez odrobiny sumienia zainstalować w slotach PCIe chipsetu, do których podłączone są co najmniej cztery linie.

Problem kompatybilności ma drugą część. Do wszystkich ograniczeń związanych z przepustowością różnych odmian gniazd PCI Express, istnieją również ograniczenia związane z używanymi protokołami. Najbardziej bezproblemowe w tym sensie są dyski SSD działające przez AHCI. Dzięki temu, że emulują zachowanie zwykłego kontrolera SATA, mogą pracować z każdą, nawet starą platformą: są widoczne w BIOS-ie każdej płyty głównej, mogą być dyski startowe, a do ich działania w systemie operacyjnym nie są wymagane żadne dodatkowe sterowniki. Innymi słowy, Kingston HyperX Predator i Plextor M6e Black Edition to dwa najbardziej bezproblemowe dyski SSD PCIe.

A co z drugą parą dysków AHCI? Z nimi sytuacja jest nieco bardziej skomplikowana. OCZ Revodrive 350 działa w systemie operacyjnym poprzez własny sterownik, ale mimo to nie ma problemów z uruchomieniem tego dysku. Gorzej jest z Samsungiem SM951. Chociaż ten dysk SSD komunikuje się z systemem za pośrednictwem starszego protokołu AHCI, nie ma on własnego systemu BIOS i dlatego należy go zainicjować BIOS płyty głównej opłaty. Niestety obsługa tego dysku SSD nie jest dostępna na wszystkich płytach głównych, zwłaszcza starszych. Dlatego z pełnym przekonaniem możemy mówić tylko o jego kompatybilności z płytami opartymi na najnowszych chipsetach Intela z dziewięćdziesiątej i setnej serii. W innych przypadkach może po prostu nie być widoczny dla płyty głównej. Oczywiście nie przeszkadza to w korzystaniu z Samsunga SM951 w systemie operacyjnym, w którym jest on łatwo inicjowany przez sterownik AHCI, ale w tym przypadku będziesz musiał zapomnieć o możliwości rozruchu z szybkiego dysku SSD.

Jednak największą niedogodność może spowodować Intel SSD 750, który działa poprzez nowy interfejs NVMe. Sterowniki wymagane do obsługi dysków SSD przy użyciu tego protokołu są dostępne tylko w najnowszych systemach operacyjnych. Tak więc w Linuksie obsługa NVMe pojawiła się w wersji jądra 3.1; „Natywny” sterownik NVMe jest dostępny w systemach Microsoft począwszy od Windows 8.1 i Serwer Windows 2012R2; w systemie OS X w wersji 10.10.3 dodano kompatybilność z dyskami NVMe. Ponadto dyski NVMe SSD nie są obsługiwane przez wszystkie płyty główne. Aby takie dyski mogły być używane jako dyski rozruchowe, BIOS płyty głównej również musi mieć odpowiedni sterownik. Jednak producenci zbudowali niezbędną funkcjonalność tylko w większości najnowsze wersje wydane oprogramowanie układowe dla najnowszych modeli płyt głównych. Więc pobierz wsparcie system operacyjny Dyski NVMe są dostępne tylko na najnowocześniejszych płytach głównych dla entuzjastów opartych na chipsetach Intel Z97, Z170 i X99. Na starszych i tańszych platformach użytkownicy będą mogli używać dysków SSD NVMe jako drugich dysków tylko w ograniczonym zestawie systemów operacyjnych.

Pomimo tego, że staraliśmy się opisać wszystkie możliwe kombinacje platform i dysków PCI Express, głównym wnioskiem z tego, co zostało powiedziane, jest to, że kompatybilność dysków SSD PCIe z płytami głównymi nie jest tak oczywista, jak w przypadku dysków SATA SSD. Dlatego przed zakupem dowolnego szybkiego dysku SSD, który działa przez PCI Express, należy sprawdzić jego kompatybilność z konkretną płytą główną na stronie internetowej producenta.

Konfiguracja testów, narzędzia i metodyka testowania

Testowanie przeprowadza się na sali operacyjnej System Microsoft Windows 8.1 Professional x64 z aktualizacją poprawnie rozpoznaje i obsługuje nowoczesne dyski SSD. Oznacza to, że w trakcie przechodzenia testów, jak zwykle codziennego użytku SSD, polecenie TRIM jest obsługiwane i aktywnie włączone. Pomiar wydajności odbywa się na dyskach w stanie „używanym”, co osiąga się poprzez wstępne wypełnienie ich danymi. Przed każdym testem dyski są czyszczone i konserwowane za pomocą polecenia TRIM. Pomiędzy poszczególnymi testami utrzymywana jest 15-minutowa przerwa, przeznaczona na prawidłowy rozwój technologii zbierania śmieci. Wszystkie testy, o ile nie zaznaczono inaczej, wykorzystują losowe, nieskompresowalne dane.

Zastosowane aplikacje i testy:

Iometr 1.1.0

Pomiar szybkości sekwencyjnego odczytu i zapisu danych w blokach 256 KB (najbardziej typowy rozmiar bloku dla operacji sekwencyjnych w zadaniach desktopowych). Szacunki prędkości są wykonywane w ciągu minuty, po czym obliczana jest średnia.
Pomiar losowej prędkości odczytu i zapisu w blokach 4 KB (ta wielkość bloku jest używana w zdecydowanej większości rzeczywistych operacji). Test jest uruchamiany dwukrotnie - bez kolejki żądań i z kolejką żądań o głębokości 4 poleceń (typowe dla aplikacji desktopowych, które aktywnie pracują z rozwidlonym systemem plików). Bloki danych są wyrównane ze stronami pamięci flash dysków. Prędkości są oceniane przez trzy minuty, po czym obliczana jest średnia.
Ustalenie zależności losowych prędkości odczytu i zapisu przy pracy dysku z 4-kilobajtowymi blokami od głębokości kolejki żądań (w zakresie od jednego do 32 poleceń). Bloki danych są wyrównane ze stronami pamięci flash dysków. Prędkości są oceniane przez trzy minuty, po czym obliczana jest średnia.
Ustalenie zależności losowych prędkości odczytu i zapisu, gdy dysk pracuje z blokami o różnych rozmiarach. Używane są bloki od 512 bajtów do 256 KB. Głębokość kolejki żądań podczas testu to 4 komendy. Bloki danych są wyrównane ze stronami pamięci flash dysków. Prędkości są oceniane przez trzy minuty, po czym obliczana jest średnia.
Mierzenie wydajności w mieszanym obciążeniu wielowątkowym i ustalanie jej zależności od stosunku między operacjami odczytu i zapisu. Test wykonywany jest dwukrotnie: dla sekwencyjnych odczytów i zapisów w blokach 128 KB, wykonywanych w dwóch niezależnych wątkach oraz dla operacji losowych z blokami 4 KB, które są wykonywane w czterech wątkach. W obu przypadkach stosunek odczytów i zapisów zmienia się w 20-procentowych przyrostach. Prędkości są oceniane przez trzy minuty, po czym obliczana jest średnia.
Badanie pogorszenia wydajności dysku SSD podczas przetwarzania ciągłego strumienia losowych operacji zapisu. Używane są bloki 4 KB i głębokość kolejki 32 poleceń. Bloki danych są wyrównane ze stronami pamięci flash dysków. Czas trwania testu to dwie godziny, co sekundę dokonywane są chwilowe pomiary prędkości. Na koniec testu sprawdzana jest dodatkowo zdolność dysku do przywrócenia jego wydajności do pierwotnych wartości ze względu na działanie technologii garbage collection oraz po przetworzeniu polecenia TRIM.

CrystalDiskMark 5.0.2
Syntetyczny test porównawczy pokazujący typową wydajność SSD mierzoną na 1 GB obszarze dysku „na górze” system plików. Z całego zestawu parametrów, które można ocenić za pomocą tego narzędzia, zwracamy uwagę na szybkość sekwencyjnego odczytu i zapisu, a także wydajność losowych odczytów i zapisów w blokach 4-kilobajtowych bez kolejki żądań i z kolejką 32 instrukcje głębokie.
PC Mark 8 2,0
Test oparty na emulacji rzeczywistego obciążenia dysku, typowego dla różnych popularnych aplikacji. Na testowanym dysku tworzona jest pojedyncza partycja w systemie plików NTFS dla całego dostępnego woluminu, a test Secondary Storage jest przeprowadzany w PCMark 8. Jako wyniki testów brana jest pod uwagę zarówno końcowa wydajność, jak i szybkość wykonania poszczególnych śladów testowych generowanych przez różne aplikacje.
Testy kopiowania plików
Ten test mierzy szybkość kopiowania katalogów z plikami inny rodzaj, a także szybkość archiwizacji i rozpakowywania plików na dysku. Do kopiowania używane jest standardowe narzędzie Windows - narzędzie Robocopy, do archiwizacji i rozpakowywania - archiwizator 7-zip w wersji 9.22 beta. W testach biorą udział trzy zestawy plików: ISO - zestaw zawierający kilka obrazów dysków z dystrybucjami oprogramowania; Program – zestaw będący preinstalowanym pakietem oprogramowania; Praca to zestaw plików roboczych obejmujący dokumenty biurowe, zdjęcia i ilustracje, pliki pdf oraz treści multimedialne. Każdy z zestawów ma łączny rozmiar pliku 8 GB.

Jako platformę testową używany jest komputer z płytą główną. Płyta ASUS Z97 Pro, Procesor rdzeniowy i5-4690K ze zintegrowaną grafiką Rdzeń Intela Grafika HD 4600 i 16 GB DDR3-2133 SDRAM. Dyski z interfejsem SATA są podłączane do kontrolera SATA 6 Gb/s wbudowanego w chipset płyty głównej i działają w trybie AHCI. Napędy PCI Express są instalowane w pierwszym gnieździe PCI Express 3.0 x16 o pełnej szybkości. Używane sterowniki to Intel Rapid Storage Technology (RST) 13.5.2.1000 i sterownik Intel Windows NVMe 1.2.0.1002.

Wielkość i szybkość przesyłania danych w benchmarkach są podawane w jednostkach binarnych (1 KB = 1024 bajty).

Oprócz pięciu głównych bohaterów tego testu - klienckich dysków SSD z interfejsem PCI Express, dodaliśmy do firmy najszybszy dysk SSD SATA - Samsung 850 PRO.

W rezultacie lista testowanych modeli przybrała następującą postać:

Intel SSD 750 400 GB (SSDPEDMW400G4, oprogramowanie układowe 8EV10135);
Kingston HyperX Predator PCIe 480 GB (SHPM2280P2H/480G, oprogramowanie układowe OC34L5TA);
OCZ RevoDrive 350 480 GB (RVD350-FHPX28-480G, oprogramowanie układowe 2.50);
Plextor M6e Black Edition 256 GB (PX-256M6e-BK, oprogramowanie układowe 1.05);
Samsung 850 Pro 256 GB (MZ-7KE256, oprogramowanie EXM01B6Q);
Samsung SM951 256 GB (MZHPV256HDGL-00000, oprogramowanie BXW2500Q).

Wydajność

Sekwencyjne operacje odczytu i zapisu






Jako pierwsza powinna się wyróżniać nowa generacja dysków półprzewodnikowych przeniesiona na magistralę PCI Express wysokie prędkości sekwencyjny odczyt i zapis. I dokładnie to widzimy na wykresie. Wszystkie dyski SSD PCIe przewyższają najlepszy dysk SSD SATA Samsung 850 PRO. Jednak nawet takie proste obciążenie jak sekwencyjny odczyt i zapis pokazuje ogromne różnice między dyskami SSD różnych producentów. Ponadto wariant zastosowanej magistrali PCI Express nie ma decydującego znaczenia. Najlepszą wydajność daje tutaj dysk Samsung SM951 PCI Express 3.0 x4, a na drugim miejscu jest Kingston HyperX Predator, który działa przez PCI Express 2.0 x4. Progresywny dysk NVMe Intel SSD 750 znalazł się dopiero na trzecim miejscu.

Losowe odczyty






Jeśli mówimy o odczytywaniu losowym, jak widać na diagramach, dyski SSD PCIe nie różnią się szczególnie szybkością od tradycyjnych dysków SSD SATA. Co więcej, dotyczy to nie tylko dysków AHCI, ale także produktu współpracującego z kanałem NVMe. Właściwie lepszy niż Samsung 850 Wydajność PRO z losowymi operacjami odczytu w małych kolejkach żądań, tylko trzech uczestników tego testu może zademonstrować: Samsung SM951, Intel SSD 750 i Kingston HyperX Predator.

Chociaż głębokie operacje kolejki żądań dla komputery osobiste nie są typowe, nadal zobaczymy, jak wydajność dysku SSD zależy od głębokości kolejki żądań przy odczytywaniu 4-kilobajtowych bloków.



Wykres wyraźnie pokazuje, w jaki sposób rozwiązania działające za pośrednictwem PCI Express 3.0 x4 mogą przewyższać wszystkie inne dyski SSD. Krzywe odpowiadające Samsungowi SM951 i Intel SSD 750 są znacznie wyższe niż krzywe innych dysków. Z powyższego diagramu można wyciągnąć inny wniosek: OCZ RevoDrive 350 to zawstydzająco powolny dysk półprzewodnikowy. W przypadku operacji odczytu losowego jest o połowę mniej niż w przypadku dysków SSD SATA, co wynika z architektury RAID i użycia przestarzałych kontrolerów SandForce drugiej generacji.

Oprócz tego sugerujemy przyjrzenie się, jak szybkość losowego odczytu zależy od rozmiaru bloku danych:



Tutaj obraz jest nieco inny. Wraz ze wzrostem rozmiaru bloku operacje zaczynają wyglądać jak sekwencyjne, więc rolę zaczyna odgrywać nie tylko architektura i moc kontrolera SSD, ale także przepustowość wykorzystywanej przez niego magistrali. W przypadku większych bloków, Samsung SM951, Intel SSD 750 i Kingston HyperX Predator zapewniają najlepszą wydajność.

Losowe zapisy






Gdzieś powinny się ujawnić zalety interfejsu NVMe, który zapewnia niskie opóźnienia, oraz kontrolera Intel SSD 750 o wysokim poziomie równoległości. Dodatkowo pojemny bufor DRAM dostępny w tym dysku SSD pozwala na zorganizowanie bardzo wydajnego buforowania danych. W rezultacie dysk Intel SSD 750 zapewnia niezrównaną wydajność zapisu losowego, nawet gdy kolejka żądań ma minimalną głębokość.

Aby dokładniej zobaczyć, co dzieje się z wydajnością zapisu losowego wraz ze wzrostem głębokości kolejki żądań, zobacz poniższy wykres, który przedstawia wydajność losowego zapisu 4K w porównaniu z głębokością kolejki żądań:



skalowanie Wydajność Intel SSD 750 występuje, dopóki głębokość kolejki nie osiągnie 8 poleceń. Jest to typowe zachowanie konsumenckich dysków SSD. Tym, co wyróżnia firmę Intel, jest jednak to, że prędkość zapisu losowego jest znacznie większa niż w przypadku innych dysków SSD, w tym najszybszych modeli PCIe, takich jak Samsung SM951 lub Kingston HyperX Predator. Innymi słowy, przy losowym obciążeniu zapisu, Intel SSD 750 oferuje zasadniczo lepszą wydajność niż jakikolwiek inny dysk SSD. Innymi słowy, przejście do korzystania z interfejsu NVMe pozwala na podkręcenie prędkości losowego nagrywania. A to z pewnością ważna cecha, ale przede wszystkim dla dysków serwerowych. W rzeczywistości Intel SSD 750 jest tylko bliskim krewnym takich modeli jak Intel DC P3500, P3600 i P3700.

Poniższy wykres przedstawia wydajność zapisu losowego w zależności od rozmiaru bloku danych.



Wraz ze wzrostem rozmiarów bloków dysk Intel SSD 750 traci swoją niezaprzeczalną przewagę. Samsung SM951 i Kingston HyperX Predator zaczynają osiągać mniej więcej taką samą wydajność.


Ponieważ koszt dysków SSD nie jest już używany wyłącznie jako dyski systemowe i stają się zwykłymi dyskami roboczymi. W takich sytuacjach dysk SSD otrzymuje nie tylko dopracowane obciążenie w postaci zapisów lub odczytów, ale także mieszane żądania przy inicjowaniu operacji odczytu i zapisu różne aplikacje i muszą być przetwarzane w tym samym czasie. Jednak praca w pełnym dupleksie dla nowoczesnych kontrolerów SSD pozostaje poważnym problemem. Podczas mieszania odczytów i zapisów w tej samej kolejce prędkość większości dysków SSD klasy konsumenckiej wyraźnie spada. Z tego powodu powstało osobne badanie, w którym sprawdzamy, jak sprawują się dyski SSD, gdy konieczne jest przeplatanie operacji sekwencyjnych. Kolejna para wykresów przedstawia najbardziej typowy przypadek dla komputerów stacjonarnych, gdzie stosunek liczby odczytów i zapisów wynosi 4 do 1.






Przy sekwencyjnych obciążeniach mieszanych z dominującymi operacjami odczytu, co jest typowe dla zwykłych komputerów osobistych, Samsung SM951 i Kingston HyperX Predator zapewniają najlepszą wydajność. Losowe obciążenie mieszane okazuje się trudniejszym testem dla dysków SSD i pozostawia Samsung SM951 na czele, ale na drugie miejsce przesuwa się Intel SSD 750. W tym samym czasie generalnie okazują się Plextor M6e Black Edition, Kingston HyperX Predator i OCZ RevoDrive 350 być zauważalnie gorszy niż zwykły dysk SSD SATA.

Kolejne kilka wykresów daje bardziej szczegółowy obraz wydajności mieszanego obciążenia, pokazując, jak szybkość dysku SSD zależy od stosunku odczytów i zapisów do niego.






Wszystko to dobrze potwierdzają powyższe wykresy. W mieszanym obciążeniu z operacjami sekwencyjnymi Samsung SM951 wykazuje najlepszą wydajność, co sprawia wrażenie ryby w wodzie w każdej pracy z danymi szeregowymi. W przypadku dowolnych operacji mieszanych sytuacja jest nieco inna. Oba dyski Samsunga, zarówno PCI Express 3.0 x4 SM951, jak i zwykłe SATA 850 PRO, radzą sobie w tym teście bardzo dobrze. ładne wyniki, pomijając wydajność prawie wszystkich innych dysków SSD. Oprzyj się im w indywidualne przypadki tylko dysk Intel SSD 750, który dzięki systemowi instrukcji NVMe jest doskonale zoptymalizowany do pracy z losowymi zapisami. A kiedy przepływ pracy w handlu mieszanym wzrośnie do 80 procent lub więcej rekordów, idzie do przodu.

Wyniki w CrystalDiskMark

CrystalDiskMark to popularna i prosta aplikacja testowa, która działa „na górze” systemu plików, co pozwala uzyskać wyniki, które są łatwo replikowane przez zwykłych użytkowników. Uzyskane w nim wartości wydajności powinny uzupełniać szczegółowe wykresy, które zbudowaliśmy na podstawie testów w IOMeter.












Te cztery wykresy są tylko wartością teoretyczną, pokazującą szczytową wydajność, która nie jest osiągalna w typowych zadaniach klienta. Głębokość kolejki żądań 32 poleceń nigdy nie występuje na komputerach osobistych, ale w specjalnych testach pozwala uzyskać maksymalną wydajność. I w tym przypadku wiodącą wydajność z dużym marginesem zapewnia Intel SSD 750, który ma architekturę odziedziczoną po dyskach serwerowych, gdzie duża głębokość kolejki żądań jest całkiem w porządku.












Ale te cztery diagramy mają już znaczenie praktyczne - pokazują wydajność pod obciążeniem, co jest typowe dla komputerów osobistych. I tutaj Samsung SM951 daje najlepszą wydajność, która pozostaje w tyle za Intelem SSD 750 tylko przy losowych 4-kilobajtowych zapisach.

PCMark 8 2.0 Prawdziwe przypadki użycia

Pakiet testowy Futuremark PCMark 8 2.0 jest interesujący, ponieważ nie ma charakteru syntetycznego, a wręcz przeciwnie, opiera się na działaniu rzeczywistych aplikacji. Podczas jego przejścia odtwarzane są rzeczywiste scenariusze-ślady użycia dysku w typowych zadaniach pulpitu, a także mierzona jest szybkość ich wykonania. Obecna wersja Ten test symuluje obciążenie pobierane z rzeczywistych aplikacji gier Battlefield 3 i World of Warcraft oraz pakietów oprogramowania firm Abobe i Microsoft: After Effects, Illustrator, InDesign, Photoshop, Excel, PowerPoint i Word. Ostateczny wynik jest obliczany jako średnia prędkość, jaką wykazują napędy podczas przejazdu torów testowych.



Test PCMark 8 2.0, który ocenia wydajność systemów pamięci masowej w prawdziwe aplikacje, wyraźnie mówi nam, że istnieją tylko dwa dyski PCIe, których prędkość jest zasadniczo wyższa niż w przypadku zwykłych modeli z interfejsem SATA. Są to Samsung SM951 oraz Intel SSD 750, które wygrywają także w wielu innych testach. Inne dyski SSD PCIe, takie jak Plextor M6e Black Edition i Kingston HyperX Predator, są ponad półtora raza za liderami. Cóż, OCZ ReveDrive 350 demonstruje szczerze słabą wydajność. Jest ponad dwukrotnie wolniejszy od najlepszych dysków SSD PCIe i jest gorszy nawet od Samsunga 850 PRO, który działa przez interfejs SATA.

Integralny wynik PCMark 8 należy uzupełnić wskaźnikami wydajności wydawanymi przez dyski flash podczas przechodzenia poszczególnych torów testowych, które symulują różne warianty rzeczywistego obciążenia. Faktem jest, że pod różnymi obciążeniami dyski flash często zachowują się nieco inaczej.






























Niezależnie od aplikacji, o której mówimy, w każdym razie jeden z dysków SSD z interfejsem PCI Express 3.0 x4 zapewnia najwyższą wydajność: albo Samsung SM951 albo Intel SSD 750. Co ciekawe, inne dyski SSD PCIe w niektórych przypadkach na ogół dają tylko prędkości na poziomie Dyski SSD SATA . W rzeczywistości przewagę tych samych Kingston HyperX Predator i Plextor M6e Black Edition nad Samsung 850 PRO widać tylko w Adobe Photoshop, Battlefield 3 i Microsoft Word.

Kopiowanie plików

Mając na uwadze, że dyski półprzewodnikowe są coraz częściej wprowadzane do komputerów osobistych, postanowiliśmy dodać do naszej metodologii pomiar wydajności podczas normalnych operacji na plikach – podczas kopiowania i pracy z archiwizatorami – które są wykonywane „wewnątrz” dysku. Jest to typowa aktywność dysku, która występuje, gdy dysk SSD nie pełni roli dysku systemowego, ale zwykły dysk.









W testach kopiowania prym wiodą wciąż te same Samsung SM951 i Intel SSD 750. Jeśli jednak mówimy o dużych plikach sekwencyjnych, to Kingston HyperX Predator może z nimi konkurować. Muszę powiedzieć, że przy prostym kopiowaniu prawie wszystkie dyski SSD PCIe okazują się być szybszy Samsung 850PRO. Jest tylko jeden wyjątek - Plextor M6e Black Edition. A OCZ RevoDrive 350, który w pozostałych testach konsekwentnie znajdował się w pozycji beznadziejnego słabszego, niespodziewanie omija nie tylko dysk SSD SATA, ale także najwolniejszy dysk SSD PCIe.

Druga grupa testów została przeprowadzona podczas archiwizacji i rozpakowywania katalogu z plikami roboczymi. Zasadnicza różnica w tym przypadku polega na tym, że połowa operacji wykonywana jest na różnych plikach, a druga połowa na jednym duży plik archiwum.






Podobnie sytuacja wygląda w przypadku pracy z archiwami. Jedyną różnicą jest to, że tutaj Samsung SM951 udaje się śmiało oderwać od wszystkich konkurentów.

Jak działa TRIM i usuwanie śmieci w tle

Testując różne dyski SSD zawsze sprawdzamy, jak przetwarzają polecenie TRIM i czy są w stanie zbierać śmieci i przywracać swoją wydajność bez wsparcia ze strony systemu operacyjnego, czyli w sytuacji, gdy polecenie TRIM nie jest przesyłane. Takie testy przeprowadzono również i tym razem. Schemat tego testu jest standardowy: po wytworzeniu długiego ciągłego obciążenia zapisu danych, co prowadzi do degradacji prędkości zapisu, wyłączamy obsługę TRIM i czekamy 15 minut, podczas których dysk SSD może próbować samodzielnie się zregenerować ze względu na jego własny algorytm zbierania śmieci, ale bez pomocy z zewnątrz systemu operacyjnego i pomiaru prędkości. Następnie polecenie TRIM jest wymuszane do napędu - i po krótkiej przerwie prędkość jest ponownie mierzona.

Wyniki takich testów przedstawiono w poniższej tabeli, która dla każdego testowanego modelu wskazuje, czy odpowiada on na TRIM, czyszcząc nieużywaną część pamięci flash i czy może przygotować czyste strony pamięci flash do przyszłych operacji, jeśli polecenie TRIM nie jest dane mu. W przypadku dysków, które okazały się w stanie wykonać usuwanie śmieci bez polecenia TRIM, wskazaliśmy również ilość pamięci flash, która została niezależnie zwolniona przez kontroler SSD do przyszłych operacji. W przypadku pracy dysku w środowisku bez obsługi TRIM jest to tylko ilość danych, które można zapisać na dysku z dużą prędkością początkową po okresie bezczynności.



Pomimo faktu, że wysokiej jakości obsługa polecenia TRIM stała się standardem branżowym, niektórzy producenci uważają za dopuszczalne sprzedawanie dysków, w których to polecenie nie jest w pełni przetworzone. Taki negatywny przykład pokazuje OCZ Revodrive 350. Formalnie rozumie TRIM, a nawet próbuje coś zrobić po otrzymaniu tego polecenia, ale nie ma potrzeby mówić o pełnym powrocie prędkości zapisu do pierwotnych wartości. I nie ma w tym nic dziwnego: Revodrive 350 bazuje na kontrolerach SandForce, które wyróżniają się nieodwracalną degradacją wydajności. W związku z tym jest również obecny w Revodrive 350.

Wszystkie inne dyski SSD PCIe działają z TRIM, podobnie jak ich odpowiedniki SATA. To znaczy, najlepiej: w systemach operacyjnych, które wysyłają to polecenie do dysków, wydajność pozostaje na niezmiennie wysokim poziomie.

Jednak chcemy więcej - wysokiej jakości dysk powinien być w stanie wykonać odśmiecanie bez wydawania polecenia TRIM. I tutaj wyróżnia się Plextor M6e Black Edition – dysk, który jest w stanie samodzielnie zwolnić znacznie więcej pamięci flash na nadchodzące operacje niż jego konkurenci. Chociaż oczywiście usuwanie śmieci offline działa w pewnym stopniu na wszystkich testowanych przez nas dyskach SSD, z wyjątkiem Samsunga SM951. Innymi słowy, przy normalnym użytkowaniu w dzisiejszych środowiskach wydajność Samsunga SM951 nie ulegnie pogorszeniu, ale w przypadkach, gdy TRIM nie jest obsługiwany, ten dysk SSD nie jest zalecany.

wnioski

Podsumowując, powinniśmy chyba zacząć od stwierdzenia, że ​​konsumenckie dyski SSD z interfejsem PCI Express nie są już egzotycznymi i nie jakimś eksperymentalnym produktem, ale całym segmentem rynku, w którym grają najszybsze dyski półprzewodnikowe dla entuzjastów. Oczywiście oznacza to również, że od dawna nie było problemów z dyskami SSD PCIe: obsługują one wszystkie funkcje, które mają dyski SSD SATA, ale jednocześnie są bardziej wydajne i czasami mają kilka nowych ciekawych technologii.

Jednocześnie rynek klienckich dysków SSD PCIe nie jest tak zatłoczony i do tej pory do kohorty producentów takich dysków półprzewodnikowych mogły wejść tylko firmy o dużym potencjale inżynieryjnym. Wynika to z faktu, że niezależni twórcy masowo produkowanych kontrolerów SSD nie mają jeszcze designerskich rozwiązań, które pozwalają im rozpocząć produkcję dysków PCIe przy minimalnym nakładzie pracy inżynierskiej. Dlatego każdy z dysków SSD PCIe znajdujących się obecnie na półkach sklepowych jest wyróżniający się i niepowtarzalny na swój sposób.

W tym teście byliśmy w stanie zebrać pięć najpopularniejszych i najpopularniejszych dysków SSD PCIe przeznaczonych do użytku w komputerach osobistych. I zgodnie z wynikami ich znajomości, staje się jasne, że kupujący, którzy chcą przestawić się na dyski półprzewodnikowe z progresywnym interfejsem, nie spotkają się jeszcze z żadną poważną udręką z wyboru. W większości przypadków wybór będzie jednoznaczny, testowane modele tak bardzo różnią się walorami konsumenckimi.

Ogólnie rzecz biorąc, najbardziej atrakcyjnym modelem SSD PCIe okazał się Samsung SM951. To genialne rozwiązanie PCI Express 3.0 x4 jednego z liderów rynku, które nie tylko udowodniło, że jest w stanie zapewnić najwyższą wydajność w typowych ogólnych obciążeniach roboczych, ale jest również znacznie tańsze niż wszystkie inne dyski PCIe.

Jednak Samsung SM951 nadal nie jest doskonały. Po pierwsze nie zawiera żadnych specjalnych technologii mających na celu poprawę niezawodności, ale chcielibyśmy je mieć w produktach klasy premium. Po drugie, ten dysk SSD jest dość trudny do znalezienia w sprzedaży w Rosji - nie jest dostarczany do naszego kraju oficjalnymi kanałami. Na szczęście możemy zaproponować zwrócenie uwagi na dobrą alternatywę - Intel SSD 750. Ten dysk SSD działa również przez PCI Express 3.0 x4 i tylko nieznacznie ustępuje Samsungowi SM951. Ale jest to bezpośredni krewny modeli serwerów, dlatego ma wysoką niezawodność i działa na protokole NVMe, co pozwala mu wykazać niezrównaną prędkość w operacjach losowego zapisu.

W zasadzie na tle Samsunga SM951 i Intel SSD 750 inne dyski SSD PCIe wyglądają raczej słabo. Jednak nadal zdarzają się sytuacje, w których będą musieli preferować inny model SSD PCIe. Faktem jest, że zaawansowane dyski Samsung i Intel są kompatybilne tylko z nowoczesnymi płytami głównymi zbudowanymi na chipsetach z serii dziewięćdziesiątej lub setnej Intela. W starszych systemach mogą działać tylko jako „drugi dysk”, a załadowanie z nich systemu operacyjnego będzie niemożliwe. Dlatego ani Samsung SM951 ani Intel SSD 750 nie nadają się do modernizacji platform poprzednich generacji, a wyboru trzeba będzie dokonać na dysku Kingston HyperX Predator, który z jednej strony zapewnia dobrą wydajność, a z drugiej gwarantuje brak problemów z kompatybilnością ze starszymi platformami.

Moduły WiFi i inne podobne urządzenia. Rozwój tego autobusu rozpoczął Intel w 2002 roku. Teraz organizacja non-profit PCI Special Interest Group opracowuje nowe wersje tego autobusu.

W tej chwili magistrala PCI Express całkowicie zastąpiła takie przestarzałe magistrale, jak AGP, PCI i PCI-X. Magistrala PCI Express znajduje się na spodzie płyty głównej w pozycji poziomej.

PCI Express to magistrala opracowana z magistrali PCI. Główne różnice między PCI Express i PCI leżą na poziomie fizycznym. Podczas gdy PCI korzysta ze wspólnej magistrali, PCI Express wykorzystuje topologię gwiazdy. Każde urządzenie jest podłączone do wspólnego przełącznika z osobnym połączeniem.

Model oprogramowania PCI Express w dużej mierze powtarza model PCI. Dlatego większość istniejących kontrolerów PCI można łatwo zmodyfikować tak, aby korzystały z magistrali PCI Express.

Gniazda PCI Express i PCI na płycie głównej

Ponadto magistrala PCI Express obsługuje nowe funkcje, takie jak:

  • Urządzenia podłączane na gorąco;
  • Gwarantowany kurs wymiany danych;
  • Zarządzanie energią;
  • Kontrola integralności przesyłanych informacji;

Jak działa magistrala PCI Express

Magistrala PCI Express używa dwukierunkowego połączenia szeregowego do łączenia urządzeń. Ponadto takie połączenie może mieć jedną (x1) lub kilka (x2, x4, x8, x12, x16 i x32) oddzielnych linii. Im więcej takich linii jest używanych, tym większą prędkość transmisji danych może zapewnić magistrala PCI Express. W zależności od liczby obsługiwanych linii, rozmiar sortowania na płycie głównej będzie się różnić. Istnieją sloty z jedną (x1), czterema (x4) i szesnastoma (x16) liniami.

Wizualna demonstracja wymiarów gniazda PCI Express

Jednocześnie każde urządzenie PCI Express może pracować w dowolnym gnieździe, jeśli gniazdo ma te same lub więcej linii. Pozwala to na zainstalowanie karty PCI Express z gniazdem x1 w gnieździe x16 na płycie głównej.

Przepustowość PCI Express zależy od liczby linii i wersji magistrali.

Jeden sposób / dwa sposoby w Gbps

Liczba linii

PCIe 1,0 2/4 4/8 8/16 16/32 24/48 32/64 64/128
PCIe 2.0 4/8 8/16 16/32 32/64 48/96 64/128 128/256
PCIe 3.0 8/16 16/32 32/64 64/128 96/192 128/256 256/512
PCIe 4.0 16/32 32/64 64/128 128/256 192/384 256/512 512/1024

Przykłady urządzeń PCI Express

Przede wszystkim PCI Express służy do podłączania dyskretnych kart graficznych. Od czasu pojawienia się tego autobusu używają go absolutnie wszystkie karty graficzne.

karta graficzna GIGABYTE GeForce GTX 770

Jednak to nie wszystko, co potrafi magistrala PCI Express. Wykorzystywany jest przez producentów innych komponentów.

Karta dźwiękowa SUS Xonar DX

Dysk SSD OCZ Z-Drive R4 Enterprise