Kraftway는 하드웨어 지향 클러스터 스토리지 부문에서 새로운 제품을 선보입니다. 신뢰할 수 있는 스토리지 시스템 PROGRESS, 정보 보안 도구가 통합된 컨트롤러와 러시아어를 기반으로 합니다. 소프트웨어 제품디스크 어레이 관리. 고유 한 특징신뢰할 수 있는 스토리지 플랫폼 Kraftway:

  • 컨트롤러에 통합된 내장 정보 보안 기능(해군 보드의 회로, BIOS 및 펌웨어 코드);
  • 소프트웨어(소프트웨어) 러시아 연방 통신부 등록부에 입력된 스토리지 시스템 관리용. 소프트웨어는 Radix, NPO Baum 및 Aerodisk에서 생산합니다.

신뢰할 수 있는 스토리지는 IT 시스템에 대한 특정 보안 요구 사항이 있는 고객을 위해 설계되었습니다. SHD PROGRESS에는 활성-활성 모드에서 작동하고 스토리지 시스템의 높은 내결함성을 제공하는 컨트롤러 1,2,4 및 8(*)의 수가 포함된 모델이 포함됩니다. 다양한 표준 크기의 확장 디스크 쉘프가 시스템 컨트롤러에 연결되어 최대 수십 PB의 저장 용량을 제공합니다. 2-컨트롤러 스토리지의 최대 용량은 16PB입니다. 스토리지 호스트 인터페이스: iSCSI 1~100Gb/s, FC 2~32Gb/s, Infiniband 최대 100Gb/s(*).

(*) 명세서소프트웨어 공급업체마다 다를 수 있습니다.



  • 마. 접근통제


    첨부 파일

  • 신뢰할 수 있는 스토리지 시스템 Kraftway PROGRESS

    질문하기
  • 신뢰할 수 있는 스토리지 시스템 Kraftway PROGRESS

  • 신뢰할 수 있는 스토리지 시스템 Kraftway PROGRESS

    Kraftway PROGRESS 스토리지 관리 소프트웨어의 기능

  • 신뢰할 수 있는 스토리지 시스템 Kraftway PROGRESS

    VAZ 사용을 위한 주요 시나리오

    A. 승인된 직원만 스토리지 컨트롤러에 액세스할 수 있도록 합니다.

    로딩용 운영 체제컨트롤러에는 2단계 인증이 필요합니다. 전원이 켜진 후 VZZ는 다운로드 프로세스를 중지합니다. 승인된 사용자는 다운로드를 진행하기 위해 식별 장치(스마트 카드, USB 키)와 암호가 있어야 합니다.
    VZZ는 사용자의 역할에 따라 보안 설정을 관리할 수 있는 권한을 차등화하는 기능이 있습니다. 일반 사용자예를 들어 UEFI BIOS 설정을 입력하고 변경할 수 있는 권한이 없을 수 있습니다.

    B. 하드웨어 구성의 무결성 제어

    전원이 켜진 후 VZZ는 자체 테스트, 체크섬 계산 및 참조 항목과의 비교를 수행합니다. 성공하면 체크섬을 비교하고 변경이 감지되면 신호를 보내 장비의 무결성을 모니터링합니다. 무결성이 위반되면 관리자 권한이 있는 사용자만 VZ를 관리할 수 있습니다.

    B. 파일 시스템의 무결성 제어

    VZ 관리자는 중요한 파일의 무결성 검사를 활성화할 수 있습니다. 이 경우 OS가 로드되기 전에 제품을 켜면 제어 목록에 추가된 파일의 체크섬이 계산됩니다. 무결성이 위반되면 관리자 권한이 있는 사용자만 통합 VIS를 관리할 수 있습니다.

    D. 운영 체제 시작 전 바이러스 백신 검사

    운영 체제 부팅 전 UEFI 단계에서 맬웨어를 검색하면 OS 시작 후 감지하기 매우 어려운 위협, 이른바 "루트킷" 및 "부트킷"을 무력화할 수 있습니다. 그들은 수정할 수 있습니다 부트 섹터시스템에서 공격자 또는 악성 코드 존재의 흔적을 숨길 뿐만 아니라. 검색은 특수 모듈 "Kaspersky Anti-Virus for UEFI"에 의해 수행됩니다. 발견의 경우 악성 코드스캐너는 OS 로딩을 일시 중지하고 감염된 개체를 식별합니다.

    마. 접근통제 "씬 하이퍼바이저"를 사용하여 하드웨어 리소스에 하이퍼바이저는 UEFI의 일부이며 컴퓨팅 장치의 하드웨어 리소스에 대한 액세스를 제한하기 위한 소프트웨어 도구입니다.
    하이퍼바이저는 물리적으로 존재하는 모든 하이퍼바이저의 가상화 모드에서 기능합니다. 마더보드입력/출력 장치, 입력/출력 포트 및 직접 메모리 액세스 채널. 하이퍼바이저는 연결된 이동식 미디어의 중앙 집중식 계정뿐만 아니라 사용 금지를 포함하여 외부 미디어에 대한 액세스 제어를 제공합니다.

    스토리지 관리 소프트웨어 기능

    첨부 파일에는 Radix, NPO Baum 및 Aerodisk와 같은 각 제조업체의 디스크 어레이 관리 소프트웨어에 대한 설명과 기능이 포함되어 있습니다.

    • Dell EMC Storage SC 시리즈는 하이브리드 스토리지 및 하이엔드 플래시 어레이로 구축된 자동화된 최신 인프라 솔루션입니다.
    • Dell EMC Equallogic PS 시리즈는 기업 정보 환경에 이상적인 장치로 일상 업무의 효율적인 구현을 가능하게 합니다. 정보 작업.
    • Dell POWERVAULT MD 시리즈는 대용량 데이터 통합을 지원하고 데이터 관리를 단순화하는 확장 가능한 저비용 시스템입니다.
    • EMC VNXE 시리즈는 중소기업 정보 요구 사항을 충족하는 통합 스토리지 솔루션입니다.

    보급형 스토리지

    Dell EMC 엔트리 레벨 스토리지 시스템은 광범위한 지사 인프라로 구별되는 대기업은 물론 중소기업을 위한 고성능 플랫폼을 제공합니다. 이 등급의 하드웨어는 최대 450TB의 저장 용량을 위해 6개에서 150개 드라이브까지 확장이 가능합니다. Dell EMC 스토리지 시스템은 물리적 서버 시스템의 고급 인프라를 갖춘 기업과 가상화된 서버 시스템을 사용하는 기업에 이상적입니다. Dell EMC 스토리지를 실제로 사용하면 대량의 정보를 통합하고 처리 효율성을 높일 수 있습니다. 이러한 장치를 사용하여 파일 및 블록 액세스 프로토콜(NAS 및 iSCSI)을 각각 지원하는 IP 네트워크 기반의 다기능 스토리지 시스템을 배포할 수 있습니다.

    미드레인지 스토리지

    Dell EMC Midrange Storage는 블록 스토리지, 파일 서버 시스템 및 DAS를 통합할 수 있는 기능이 풍부한 플랫폼입니다. 이 장비를 사용하면 기업에서 NFS 및 CIFS와 같은 여러 프로토콜에 대한 병렬 지원을 통해 파일 시스템을 동적으로 확장하고 리소스를 차단할 수 있습니다. 또한 스토리지 저장소는 파이버 채널, iSCSI 및 FCoE와 같은 프로토콜을 사용하여 정보에 대한 액세스를 제공할 수 있습니다. 이것은 높은 대역폭과 낮은 대기 시간이 필요한 블록 애플리케이션을 지원하는 데 도움이 됩니다.

    몇 년 전까지만 해도 값비싼 전용 하드 드라이브 스토리지 시스템은 주로 미션 크리티컬 엔터프라이즈 애플리케이션이나 일부 특정 작업에 중점을 두었습니다. 오늘날 NAS(Network Attached Storage) 개념의 급속한 발전과 ATA 하드 드라이브를 기반으로 하는 여러 솔루션 덕분에 이러한 보급형 시스템은 중소기업에서 특히 중요한 관심 대상이 되고 있습니다. 가격에 민감한 우크라이나 시장.
    스토리지 시스템에 대한 구매자의 관심에는 충분히 심각한 이유가 있습니다.
    데이터 - 예를 들어 정보 어레이를 통합해야 할 필요성,
    대규모 네트워크 등에서 데이터 중복 문제를 해결합니다. 한편,
    그들은 고급 및 중급 시스템의 작동 중에 나타납니다.

    여러 키예프 회사에 대한 설문 조사에 따르면 오늘날 드라이브 인수에 대한 다음 동기가 가장 자주 발생합니다(내림차순).

    1. 추가 디스크서버에 설치하는 것이 불가능하거나 비경제적입니다(일반적으로 섀시의 공간 부족 또는 높은 가격원본 디스크 또는 비대량 OS 및 플랫폼 구성(예: Silicon Graphics 또는 Compaq Alpha Server, Mac 등).

    2. 공유 디스크 어레이로 장애 조치 클러스터를 구축해야 합니다. 이러한 상황에서는 예를 들어 클러스터 시스템을 지원하는 PCI-SCSI RAID 컨트롤러를 사용하여 스토리지 시스템 없이도 수행할 수 있지만 이 구성은 기능이 떨어지고 데이터 쓰기 캐싱을 활성화할 수 없습니다. 컨트롤러. 데이터베이스로 작업할 때 독립적인 저장 장치가 있는 솔루션의 성능이 PCI-SCSI RAID 컨트롤러 기반 시스템보다 성능이 훨씬 뛰어납니다.

    3. 표준 서버 내에서 양질의 스토리지 솔루션을 확보하는 것은 불가능합니다. 이 경우 외부 시스템을 통해 RAIS(독립 서버의 중복 배열 - 독립 서버의 내결함성 배열)를 구현할 수 있습니다. 시스템 데이터를 포함하여 데이터를 처리하는 서버에서 액세스하는 모든 것을 저장합니다. 동시에 실패한 서버를 대체하는 예비 서버가 제공됩니다. 이 접근 방식은 클러스터링과 다소 유사하지만 특수 소프트웨어를 사용하지 않으며 애플리케이션이 자동으로 마이그레이션되지 않습니다.

    데이터 저장 시스템의 일반적인 분류
    그들에 대한 액세스를 조직화하는 원칙을 기반으로 합니다.


    SAS(서버 연결 스토리지)— 서버에 연결된 드라이브.
    "직접 연결된 드라이브"라는 용어는 때때로 다음과 같이 사용됩니다.
    DAS(직접 연결 스토리지).

    서버에 연결된 드라이브의 주요 장점은
    다른 옵션으로 저렴한 가격그리고 고속.


    NAS(네트워크 연결 스토리지)— 네트워크에 연결된 드라이브.

    이 솔루션의 주요 장점은 배포 속도와 사려 깊은
    파일에 대한 액세스 구성.

    SAN(저장 영역 네트워크) -스토리지 네트워크.
    많은 이점을 제공하는 동시에 가장 비싼 솔루션
    - 스토리지 시스템 및 서버로부터 SAN 토폴로지의 독립성, 편리함
    중앙 집중식 관리, LAN/WAN 트래픽과 충돌 없음, 편리함
    로컬 네트워크 및 서버를 로드하지 않고 데이터 백업 및 복원,
    고속, 확장성, 유연성, 가용성 및 내결함성.

    스토리지 시스템 또는 독립 실행형 드라이브

    확실히 드라이브 또는 스토리지 시스템
    많은 데이터가 될 수 있습니다 다양한 장치. 하지만 연설을 하자마자
    정보 저장 및 액세스를 제공하는 디스크 시스템에 대해 설명합니다.
    우리는 "축적기"라는 용어를 정확히 의미합니다. 전체적으로
    경우에는 하드 드라이브, I/O 컨트롤러 및 통합
    시스템. 드라이브는 일반적으로 핫 스왑이 가능합니다.
    드라이브를 끄지 않고도 "즉시" 연결 및 분리할 수 있습니다. 그것
    고장난 하드 드라이브를 문제 없이 교체할 수 있습니다.
    사용자를 위해. 드라이브의 기본 및 백업 전원 공급 장치가 증가했습니다.
    신뢰성과 핫스왑이 가능합니다. 예, I/O 컨트롤러
    때로는 두 가지가 사용됩니다. 하나의 일반적인 디스크 스토리지 시스템의 다이어그램
    컨트롤러는 그림에서 볼 수 있습니다. 하나.

    디스크 스토리지 시스템의 컨트롤러는 그 중심입니다. 그는 시스템 내 및 외부 채널에 대한 데이터 입력/출력은 물론 정보에 대한 저장 및 액세스 구성을 담당합니다. 외부 세계와 통신하기 위해 드라이브 컨트롤러는 일반적으로 SCSI, 파이버 채널 또는 이더넷 인터페이스를 사용합니다.

    시스템의 목적에 따라 컨트롤러는 다른 작동 논리를 구현하고 다른 데이터 교환 프로토콜을 사용할 수 있습니다. 이들은 네트워크 파일 시스템, 파일 서버와 같은 공통 인터넷 파일 시스템(사이드바 "NAS의 파일 프로토콜 - CIFS, NFS, DAFS"). 이러한 컨트롤러는 일반적으로 표준 RAID 수준을 지원하여 시스템 성능을 높이고 내결함성을 제공합니다.

    NAS의 파일 프로토콜
    - CIFS, NFS, DAFS
    CIFS(Common Internet File System)는 표준 프로토콜입니다.
    원격 컴퓨터의 파일 및 서비스에 대한 액세스를 제공합니다(
    인터넷 포함). 프로토콜은 클라이언트-서버 상호 작용 모델을 사용합니다.

    클라이언트는 파일에 액세스하거나 메시지를 보내도록 서버에 요청합니다.
    서버의 프로그램. 서버는 클라이언트의 요청을 이행
    작업 결과를 반환합니다. CIFS는 개발된 개방형 표준입니다.
    Microsoft의 SMB 프로토콜(Server Message Block Protocol)을 기반으로 하며,
    전통적으로 사용되는 로컬 네트워크 Windows OS를 사용하여 파일에 액세스
    그리고 인쇄합니다. 후자와 달리 CIFS는 다음과 같은 응용 분야에 중점을 둡니다.
    수 및 분산 네트워크에서 - 예를 들어 다음과 같은 가능성을 고려합니다.
    큰 시간 초과.

    CIFS는 TCP/IP를 사용하여 데이터를 전송합니다. 기능을 제공합니다
    FTP( 파일 전송프로토콜)을 제공하지만 클라이언트에게 향상된
    (직접과 유사) 파일 제어. 또한 공유를 허용합니다
    차단을 적용하여 클라이언트 간의 파일에 자동 복구
    네트워크 장애 발생 시 서버와의 통신.

    NFS(Network File System)는 분산된 파일을 포함하는 IETF 표준입니다.
    파일 시스템 및 네트워크 프로토콜. NFS는 Sun에 의해 개발되었으며
    원래 Unix 시스템에서만 사용되었습니다. 나중에 클라이언트 구현
    서버 부품이 다른 시스템으로 퍼졌습니다.

    CIFS와 마찬가지로 NFS는 클라이언트-서버 상호 작용 모델을 기반으로 합니다. 그것은 제공
    쓰기 및 읽기를 위해 원격 컴퓨터(서버)의 파일에 액세스
    마치 사용자의 컴퓨터에 있는 것처럼. 이전 버전에서
    NFS는 UDP 프로토콜을 사용하여 데이터를 전송했습니다.
    — TCP/IP. Sun은 인터넷에서 NFS 작업을 위한 프로토콜을 개발했습니다.
    NFS 기능에 대한 확장을 사용하여 올바르게
    월드 와이드 웹에서 작업합니다.

    DAFS(Direct Access File System)는 표준 파일 액세스 프로토콜이며,
    NFSv4를 기반으로 합니다. 응용 프로그램 작업을 전송할 수 있습니다.
    운영 체제 및 해당 버퍼 공간을 직접 우회하는 데이터
    의미를 유지하면서 리소스를 전송하기 위해 파일 시스템. DAFS 사용
    이익 최신 기술"메모리-메모리" 방식에 따른 데이터 전송.
    높은 파일 I/O 속도, 최소한의 다운로드 제공
    작업 수의 대폭 감소로 인한 CPU 및 전체 시스템
    및 일반적으로 네트워크 프로토콜 처리에 필요한 인터럽트.
    특히 효과적인 것은 하드웨어 지원을 사용하는 것입니다.
    VI(가상 인터페이스).

    DAFS는 지속적으로 실행되는 데이터베이스와 다양한
    클러스터 및 서버 환경의 인터넷 응용 프로그램. 그것은 제공
    공유 파일 리소스 및 정보에 대한 액세스 지연 최소화
    지능형 복구 메커니즘 지원
    시스템과 데이터는 사용하기에 매우 매력적입니다.
    고급 NAS 드라이브에서.


    왜 ATA인가?

    오늘날 대형 ATA 및 SCSI 드라이브의 단위 볼륨당 비용 차이는
    6배 이상이며 이 비율은 상당히 타당합니다. 비싼 인터페이스 디스크
    SCSI는 주로 기업용 정보 시스템그리고 보통
    더 가지고 고성능대량 처리 시 속도
    요청. 그들은 더 안정적인 구성 요소를 사용하고 더 잘 테스트되었습니다.
    이러한 장치에 대한 제조업체의 책임은 훨씬 더 큽니다.

    그러나 데이터 비용이 그렇게 높지 않거나 중간 장치만 필요한 경우
    예약할 때 6배 더 지불하는 이유는 무엇입니까? 나가는 것을 감안하면
    어레이에서 디스크 중 하나를 구축하는 것은 중요하지 않으며 사용하기에 완벽합니다.
    ATA 디스크가 있는 드라이브. 물론 사용에 대한 많은 금기 사항이 있습니다.
    대형 스토리지 시스템의 ATA 드라이브는 여러 애플리케이션이 있습니다.
    그들은 완벽합니다.

    IDE 장치는 보급형 NAS 시스템에서 가장 널리 사용됩니다. RAID 1 또는 0 + 1 어레이로 구성된 2개 또는 4개의 디스크를 사용하는 경우 전체 시스템의 오류 가능성은 허용 가능하며 성능은 "헤드 포함"으로 충분합니다. 파일 서버보급형 드라이브는 초당 너무 많은 디스크 작업을 수행하지 않으며 데이터 흐름은 외부 패스트 이더넷 또는 기가비트 이더넷 인터페이스로 제한됩니다.

    솔루션의 최소 비용으로 데이터에 대한 블록 액세스가 필요한 경우 및
    단위 시간당 작업 수는 중요한 매개변수가 아닙니다.
    외부 병렬 SCSI 또는 파이버 채널 인터페이스 및 ATA 드라이브가 있는 시스템
    내부(그림 2).

    오늘날 주요 제조업체는 모든 특성이 유사한 ATA 드라이브를 제공합니다.
    MTBF에서 산업용 SCSI 드라이브까지. 함께
    비용이 비슷할수록 ATA 디스크를 사용하게 됩니다.
    드라이브 가격에 약간의 이득만 제공합니다.

    충분한 저장 공간이 있는 보급형 서버 및 워크스테이션용
    실습에서 알 수 있듯이 중요한 데이터, 저렴한 PCI ATA 컨트롤러 사용,
    상대적인 원시성과 작기 때문에 항상 원하는 결과를 제공하지는 않습니다.
    기능. 값 비싼 외장 드라이브를 사용하는 것이 항상 정당화되는 것은 아닙니다.
    이 경우 축소된 ATA-to-ATA 장치를 사용할 수 있습니다.
    외부 디스크 저장 시스템의 복사본이며 두 개의 디스크용으로만 설계되었습니다.
    ATA 인터페이스 포함. 그러나 상당히 고품질의 내장 컨트롤러가 있습니다.
    "핫 스왑" 드라이브를 지원합니다(그림 3).


    직렬 ATA - ATA 인터페이스의 새로운 숨결

    ATA 디스크의 데이터 스토리지 시스템에 대한 직렬 ATA 인터페이스의 출현으로
    더 되어야 합니다. 거의 모든 드라이브 제조업체가 이에 대해 이야기합니다.
    입문 단계. 오늘날 그들의 새 모델에는 이미 새 인터페이스가 장착되어 있습니다. 어떻게
    직렬 ATA 인터페이스가 데이터 스토리지 시스템 제조업체에게 흥미로운가요?

    컨트롤러는 I/O 요청을 분석하고 실행 순서를 최적화하는 기본 명령 대기열 명령어 세트(명령 파이프라인)를 지원합니다. 사실, 최대 256개의 명령 대기열을 제공했던 SCSI 드라이브의 기존 기본 명령 대기열과 달리 직렬 ATA는 최대 32개의 명령 대기열을 지원합니다. 특정 기술 트릭이 필요했던 직렬 ATA 드라이브의 "핫 스와핑"이 이제 표준에 직접 작성되어 높은 수준의 기업 솔루션을 만들 수 있습니다. 새로운 디자인도 중요합니다. 새로운 인터페이스의 케이블은 둥글고 커넥터는 작고 좁아서 시스템 설계 및 조립이 용이합니다.

    새 버전에서는 직렬 ATA의 속도가 증가하고 이 인터페이스가 있는 새 드라이브로 인해 엔트리 레벨 스토리지 시스템에서 ATA 솔루션의 점유율이 정확하게 증가할 것이라는 데는 의심의 여지가 없지만 병렬 ATA의 개발은 느려질 것입니다. 최근에 관찰된 것입니다.

    RAID(중복 어레이
    독립 디스크)
    보급형 드라이브는 일반적으로 RAID 0 수준을 사용하며,
    1, 5 및 이들의 조합.

    RAID 0


    스트라이프 내결함성이 없는 디스크 어레이(스트라이프 디스크
    내결함성이 없는 어레이). 이 경우 데이터는 블록으로 분할되며,
    공동으로 참여하는 다른 디스크에 병렬로 작성
    모든 I/O 작업.

    이 접근 방식의 장점은 높은 성능을 제공하는 것입니다.
    많은 양의 I/O 데이터를 필요로 하는 애플리케이션, 구현 용이성
    단위 부피당 비용이 저렴합니다. 주요 단점은 내결함성이 없다는 것입니다.
    솔루션: 하나의 디스크에 장애가 발생하면 모든 디스크가 손실됩니다.
    배열 데이터.

    RAID 1


    복제된 디스크 어레이. "거울"(거울)
    - 소형 디스크 어레이의 안정성을 높이는 전통적인 방법
    용량. 가장 간단한 버전에서는 두 개의 디스크가 사용되며 그 위에는
    같은 정보. 그 중 하나가 실패하면 이중으로 남습니다.
    이전과 같이 계속 작동합니다.

    장점 - 데이터 어레이의 구현 및 복원 용이성,
    고강도 애플리케이션을 위한 충분한 속도
    요청. 단점 - 두 배의 비용으로 낮은 데이터 전송 속도
    100% 중복이 있기 때문에 단위 볼륨당. 더 많은
    디스크 수, RAID 1 대신 RAID 0+1 또는 RAID 10을 사용할 수 있습니다.
    최상의 성능을 달성하기 위한 RAID 0과 RAID 1의 조합
    시스템 속도와 신뢰성.

    RAID 5



    안전 장치
    분산 패리티가 있는 독립 데이터 디스크 어레이(독립 데이터 디스크
    분산 패리티 블록 포함).

    데이터는 블록 수준에서 분할됩니다. 각 데이터 블록은 다음에 기록됩니다.
    특정 디스크에 저장되며 별도로 읽을 수 있습니다. 데이터 블록의 경우 계산됩니다.
    패리티이며 어레이의 모든 디스크에 주기적으로 분산됩니다. 만약 작업
    기록이 적절하게 예약되면 병렬 처리가 가능합니다.
    최대 N/2개의 블록을 처리합니다. 여기서 N은 그룹의 디스크 수입니다. 그것은 증가
    성능 및 내결함성 어레이를 얻기 위해 다음을 사용합니다.
    단 하나의 중복 드라이브.

    RAID 5 제공 고속데이터 쓰기 및 읽기,
    고강도 읽기/쓰기 요청 시 성능 및
    이렇게 하면 중복성 구현에 대한 오버헤드가 줄어듭니다. 하지만,
    조직이 매우 복잡하고 데이터 복구가
    특정 문제.


    직렬 연결 SCSI

    SCSI 인터페이스는 속도와 안정성이 높지만 이러한 솔루션은
    꽤 비싸다. SAS(Serial Attached SCSI)는 SCSI의 흥미로운 진화입니다.
    그리고 아마도 저가의 보급형 시스템에도 사용될 것입니다.
    그리고 중간 수준.

    오늘날 많은 스토리지 제조업체는 비교적 단순한 드라이브를 설계할 때 Ultra 320 SCSI 인터페이스를 사용합니다. 이것은 병렬 SCSI 인터페이스의 생성입니다. 이 순간줄의 마지막. 이전에 발표된 Ultra 640 SCSI 인터페이스가 있는 드라이브는 대부분 양산되지 않거나 현장에서 완전히 사라질 것입니다. 최근 파트너와의 회의에서 엔터프라이즈급 하드 드라이브의 선두업체인 Seagate는 하이엔드 시스템용 새 드라이브 모델에 파이버 채널 인터페이스가 탑재될 것이라고 발표했습니다. 기업 시스템- 직렬 SCSI. 동시에 일반적인 병렬 Ultra 320 SCSI는 즉시 사라지지 않습니다. 그것의 최종 교체는 늦어도 5년 이내에 이루어질 것으로 예상됩니다.

    직렬 SCSI는 직렬 ATA와 파이버 채널의 일부 기능을 결합합니다. 직렬 ATA 사양에서 개발 및 개선되었습니다. 따라서 신호 레벨이 증가하여 4 코어 케이블의 최대 길이를 10m로 늘릴 수 있습니다.이 2 채널 지점 간 인터페이스는 전이중 모드에서 작동하며 최대 4096개의 디스크 장치를 제공할 수 있습니다 도메인 및 지원 표준 세트 SCSI 명령.

    동시에 모든 장점에도 불구하고 Serial Attached SCSI는 가까운 장래에 기존 병렬 인터페이스를 대체할 것 같지 않습니다. 엔터프라이즈 솔루션의 세계에서 개발은 매우 신중하게 수행되며 물론 데스크탑 시스템보다 더 오래 걸립니다. 예, 오래된 기술은 그리 빨리 사라지지 않습니다. 라이프 사이클몇 년입니다. 최초의 장치 SAS 인터페이스 2004년에 시장에 나와야 합니다. 당연히 처음에는 주로 디스크와 PCI 컨트롤러가 될 것이지만 데이터 저장 시스템은 매우 빠르게 나타날 것입니다. 비교 특성인터페이스는 "최신 디스크 인터페이스 비교" 표에 나열되어 있습니다.


    SAN - SAN

    SAN(사이드바 "데이터 스토리지 시스템 분류 - DAS/SAS,
    NAS, SAN") 파이버 채널 기반으로 거의 모든 작업을 해결할 수 있습니다.
    데이터 저장 및 액세스. 그러나 부정적인 영향을 미치는 몇 가지 단점이 있습니다.
    이러한 기술의 확산에 대해 우선 - 솔루션의 높은 비용
    지리적으로 분산된 시스템 구축의 복잡성.

    SAN에서 SCSI 명령 및 데이터를 위한 전송으로 IP 프로토콜을 사용하는 것과 관련하여 격렬한 논쟁이 있지만, IP 스토리지 솔루션이 스토리지 시스템 분야에서 확실히 틈새 시장을 찾을 것이라는 점을 모두가 이해하고 있으며 이는 머지 않아 도래할 것입니다.

    네트워크 스토리지 기술 개선의 일환으로 IETF(Internet Engineering Task Force)는 다음 영역에서 작업 그룹과 IPS(IP 스토리지) 포럼을 구성했습니다.

    FCIP - TCP/IP를 통한 파이버 채널(Fibre Channel over TCP/IP)은 TCP/IP를 기반으로 하며 FC 및 IP 프로토콜에 영향을 주지 않고 지리적으로 멀리 떨어진 FC SAN을 연결하도록 설계되었습니다.

    iFCP - FC 스위칭 및 라우팅 요소와 함께 또는 대신 IP 인프라를 사용하여 TCP/IP를 기반으로 FC 시스템 또는 스토리지 네트워크를 연결하기 위한 프로토콜인 인터넷 파이버 채널 프로토콜.

    iSNS - 인터넷 저장소 이름 서비스, 저장소 이름 지원 프로토콜.

    iSCSI는 스토리지 시스템, 서버 및 클라이언트와 통신하고 관리하도록 설계된 TCP/IP 기반 프로토콜인 Internet Small Computer Systems Interface의 약자입니다.

    이 분야 중 가장 빠르게 발전하고 흥미로운 분야는 2003년 2월 11일에 공식 표준이 된 iSCSI입니다. 그 개발은 스토리지 네트워크가 훨씬 저렴해질 것이라는 사실 때문에 중소기업에서 SAN의 확산에 상당한 영향을 미칠 것입니다. 인터넷에서 iSCSI를 사용하는 것과 관련하여 오늘날 FCIP는 이미 여기에서 잘 뿌리를 내리고 있으며 FCIP와의 경쟁은 매우 치열할 것이지만 통합 접근 방식으로 인해 iSCSI에 유리하게 작동해야 합니다.

    iSCSI를 포함한 IP 스토리지 기술 덕분에 스토리지 네트워크는 지리적으로 분산된 스토리지 시스템을 구축할 수 있는 새로운 기회를 갖게 되었습니다. 또한 기본적으로 iSCSI를 사용하는 새로운 스토리지 시스템은 QoS 지원, 높은 수준의 보안, 이더넷 전문가를 사용하여 네트워크를 유지 관리할 수 있는 기능과 같은 다른 많은 이점을 제공할 것입니다.

    iSCSI의 매우 흥미로운 기능 중 하나는 미디어, 스위치 및 라우터 이상을 사용하여 iSCSI 드라이브에서 데이터를 전송할 수 있다는 것입니다. 기존 네트워크 LAN/WAN뿐 아니라 기존 네트워크 어댑터클라이언트 측의 고속 이더넷 또는 기가비트 이더넷. 그러나 실제로 몇 가지 어려움으로 인해 특수 장비를 사용하는 것이 더 낫습니다. 그러면 솔루션 비용이 기존 파이버 채널 SAN을 따라잡기 시작할 것입니다.

    스토리지 네트워크의 급속한 발전은 World 개념 형성의 기초가되었습니다.
    광역 스토리지 영역 네트워크. WWSAN은 다음과 같은 인프라 생성을 제공합니다.
    전 세계에 분산된 데이터의 고속 액세스 및 저장을 제공합니다.

    최신 디스크 인터페이스 비교

    옵션
    연속물
    ATA
    SCSI
    SAS
    FC
    지원 기기 수 16 16 4096 2 24
    최대 케이블 길이, m 1 12 10 구리: 30
    광학: 10,000*
    지원되는 토폴로지 점 점 타이어 점 점 반지**
    점 점
    속도, MBps 150, 300 320 150, 300 100, 200, 400
    전이중 + +
    인터페이스 ATA, SCSI SCSI ATA, SCSI 독립적인***
    듀얼 포트 장치 지원 + +

    * 표준은 거리를 규제합니다
    단일 모드 광섬유의 경우 최대 10km, 데이터 전송을 위한 구현이 있습니다.
    100km 이상의 거리 이상.
    ** 링의 내부 토폴로지의 일부로 허브 및 FC 스위치가 작동합니다.
    점대점 연결을 제공하는 스위치 구현도 있습니다.
    연결된 모든 장치.
    *** 인터페이스 및 프로토콜 SCSI, FICON,
    ESCON, TCP/IP, HIPPI, VI.

    인포트렌드 ESDS 1000 시리즈

    검토 인포트렌드 ESDS 1000

    EonStor DS 1000 스토리지 시스템은 우수한 가격 대비 성능을 제공합니다. 중소형 사용자를 위해...

    Infortrend ESDS 1000 시리즈 스토리지

    Infortrend ESDS 1000 시리즈는 향상된 성능과 확장성을 위해 내장형 iSCSI 및 FC/SAS 인터페이스 옵션을 갖춘 경제적인 스토리지입니다.

    검토 인포트렌드 ESDS 1000

    EonStor DS 1000 스토리지 시스템은 우수한 가격 대비 성능을 제공합니다. 중소기업(SMB) 사용자를 위해 보급형 솔루션이 제공됩니다. 모델은 다양한 폼 팩터의 다양한 HDD 드라이브에 사용할 수 있습니다. 12슬롯 2U, 16슬롯 3U 및 24슬롯 2U 2,5" 드라이브. 모두 여러 클라이언트에 대한 빠른 연결이 필요한 감시 애플리케이션을 염두에 두고 구축된 아키텍처인 네트워크 연결을 위한 여러 1Gb/s iSCSI 포트를 포함합니다. 최대 444개의 드라이브를 확장 인클로저에 연결할 수 있습니다. 10TB 드라이브 지원으로 사용 가능한 용량은 최대 4PB가 될 수 있습니다.

    시리즈 구성 이온스토어 DS 1000

    2.5" HDD용 모델

    DS 1024B - 2U, SAS 또는 SATA 인터페이스가 있는 2.5인치 드라이브 24개

    DS-1036B - 3U, 36개의 2.5인치 드라이브 SAS 또는 SATA 인터페이스 포함

    3.5" HDD용 모델

    DS 1012 - 2U, 3.5인치 드라이브 12개 SAS 또는 SATA 인터페이스 포함

    DS 1016 - 3U, 3.5인치 드라이브 16개 SAS 또는 SATA 인터페이스 포함

    DS 1024 - 4U, 24 운전하다 3,5"SAS 또는 SATA 인터페이스 포함

    성능

    • 이온스토어 DS 1000최대 550K IOPS(캐시 작업) 및 120K IOPS 제공 (디스크를 포함한 전체 경로) 모든 스토리지 관련 작업의 속도 향상.
    • 처리량은 읽기 5,500MB/s 및 1,900MB/s에 이릅니다.기록상 쉽게 집약적인 워크로드도 고효율로 처리합니다.

    SSD 캐시 작업

    (선택 사항, 라이센스 필요)

    • 핫 데이터에 대한 향상된 읽기 성능
    • 컨트롤러당 최대 4개의 SSD
    • 큰 수영장 용량 SSD 드라이브: 최대 3.2TB

    쌀. 1 SSD 캐시가 핫 데이터로 포화된 경우 IOPS 증가

    결합된 호스트 인터페이스 옵션

    • 모든 시스템에는 4개의 1Gb/s iSCSI 포트가 있어 클라이언트, 서버 및 기타 스토리지 어레이에 충분한 연결을 제공합니다..
    • 선택적으로 추가됨 기준 치수 8Gb/s 또는 16Gb/s 파이버 채널, iSCSI 10Gb/s 또는 40Gb/s iSCSI, 10Gb/s FCoE 또는 12Gb/s SAS가 있는 호스트 인터페이스 기본 iSCSI 포트 1Gbps와 병렬로 실행.
    • 선택적으로 추가됨 4가지 연결 옵션을 선택할 수 있는 통합 호스트 보드(16Gb/s FC, 8Gb/s FC 및 10Gb/s iSCSI SFP+, 10Gb/s FCoE)

    다양한 캐시 저장 옵션

    수명이 다한 유지 보수가 필요 없는 교체가 필요 없는 슈퍼커패시터와 플래시 모듈은 주 전원 공급 장치에 장애가 발생한 경우 캐시 메모리 상태를 유지하기 위해 안전하고 안정적인 전원을 제공합니다.

    플래시 모듈이 있는 핫 스왑 가능한 배터리 백업 장치(BBU)는 시스템이 갑자기 종료되거나 정전이 발생하는 경우 데이터를 저장합니다..

    당신은 선택할 수 있습니다 필요와 예산에 맞는 BBU 또는 슈퍼커패시터

    선택적으로 사용 가능하고 포함된 고급 기능:

    로컬 복제로컬 복제

    (표준 라이선스는 기본적으로 포함되며 확장 라이선스는 선택 사항입니다)

    스냅샷

    표준 라이선스 확장 라이선스
    원본 볼륨당 스냅샷 64 256
    시스템의 스냅샷 128 4096

    볼륨 복사/미러

    표준 라이선스 확장 라이선스
    시스템의 소스 볼륨 16 32
    소스 볼륨당 복제 쌍 4 8
    시스템당 복제 쌍 64 256

    미세 조정(기본적으로 활성화됨)

    Just-in-time 용량 할당은 스토리지 사용을 최적화하고 사용되지 않는 전용 스토리지 공간을 제거합니다..

    원격 복제 (추가 라이선스)

    볼륨당 복제: 16
    소스 볼륨당 복제 쌍: 4
    시스템당 복제 배치: 64

    자동화된 계층화 시스템데이터 저장고 (추가 라이선스)

    드라이브 유형에 따라 2개 또는 4개의 스토리지 계층

    SSD 지원

    예약 옵션이 있는 자동 데이터 마이그레이션

    SSD 캐싱 (추가 라이선스)

    OLTP와 같은 읽기 집약적 환경에서 데이터 액세스 가속화

    컨트롤러당 최대 4개의 SSD 지원

    SSD 캐시용 컨트롤러당 권장 DIMM 용량:

    DRAM: 최대 2GB SSD 캐시 풀 크기: 150GB

    DRAM: 최대 4GB SSD 캐시 크기: 400GB

    DRAM: 최대 8GB SSD 캐시 풀 크기: 800GB

    DRAM: 최대 16GB SSD 캐시 크기: 1,600GB

    Infortrend DS 1000 시리즈 스토리지 시스템이 적합하지 않습니까? 다른 시리즈 또는 라인의 저장을 고려하려면 다음 섹션으로 이동하십시오.

    겸손한 DotHill 4824 스토리지 시스템이 이 리뷰의 주인공이 될 것입니다. DotHill이 OEM 파트너로서 이미 매우 인기 있는 HP MSA(Modular Storage Array)를 위한 보급형 스토리지 시스템을 생산한다는 소식을 들어보셨을 것입니다. 4세대에서. DotHill 4004 라인은 HP MSA2040과 약간의 차이가 있지만 아래에서 자세히 설명합니다.

    DotHill은 고전적인 보급형 스토리지 솔루션입니다. 폼 팩터, 2U, 다양한 드라이브와 다양한 호스트 인터페이스를 위한 두 가지 옵션. 미러링된 캐시, 2개의 컨트롤러, ALUA가 있는 비대칭 활성-활성. 작년에 3단계 계층화(계층화된 데이터 스토리지) 및 SSD 캐시가 있는 디스크 풀이라는 새로운 기능이 추가되었습니다.

    형질

    • 폼 팩터: 2U 24x 2.5" 또는 12x 3.5"
    • 인터페이스(컨트롤러당) 4524C/4534C - 4x SAS3 SFF-8644
    • 확장: 192개의 2.5" 드라이브 또는 96개의 3.5" 드라이브에서 최대 7개의 추가 DAE 지원
    • RAID 지원: 0, 1, 3, 5, 6, 10, 50
    • 캐시(컨트롤러당): 4GB(플래시 보호 포함)
    • 기능: 스냅샷, 볼륨 복제, 비동기식 복제(SAS 제외), 씬 프로비저닝, SSD 캐시, 3단계 계층화(SSD, 10/15k HDD, 7.2k HDD)
    • 구성 제한: 32개 어레이(vDisk), 어레이당 최대 256개 볼륨, 시스템당 1024개 볼륨
    • 관리: CLI, 웹 인터페이스, SMI-S 지원

    DotHill의 디스크 풀

    이론에 익숙하지 않은 사람들을 위해 디스크 풀과 계층형 스토리지의 원리에 대해 이야기할 가치가 있습니다. 보다 정확하게는 DotHill 스토리지 시스템의 특정 구현에 대해 설명합니다.

    풀이 등장하기 전에는 두 가지 제한 사항이 있었습니다.

    • 최대 디스크 그룹 크기입니다. RAID-10, 5 및 6은 최대 16개의 드라이브를 가질 수 있습니다. RAID-50 - 최대 32개의 디스크. 많은 수의 스핀들이 있는 볼륨이 필요한 경우(성능 및/또는 볼륨을 위해) 호스트 측에서 LUN을 결합해야 했습니다.
    • 빠른 디스크의 차선책 사용. 여러 로드 프로필에 대해 많은 수의 디스크 그룹을 생성할 수 있지만 큰 숫자호스트 및 서비스에 대한 성능, 볼륨을 지속적으로 모니터링하고 주기적으로 변경하는 것이 어려워집니다.

    DotHill 스토리지의 디스크 풀은 로드가 분산된 여러 디스크 그룹의 모음입니다. 성능 면에서 풀을 여러 하위 어레이의 RAID-0으로 간주할 수 있습니다. 우리는 이미 짧은 디스크 그룹의 문제를 해결하고 있습니다. 컨트롤러당 하나씩 총 2개의 디스크 풀 A와 B만 스토리지 시스템에서 지원되며 각 풀에는 최대 16개의 디스크 그룹이 있을 수 있습니다. 주요 아키텍처 차이점은 디스크에 스트라이프를 자유롭게 배치할 수 있다는 점입니다. 여러 기술과 기능이 이 기능을 기반으로 합니다.

    HP MSA2040과의 차이점

    성능

    스토리지 구성
    • DotHill 4824(2U, 24x2.5")
    • 펌웨어 버전: GL200R007(테스트 당시 최신)
    • 활성화된 RealTier 2.0 라이선스
    • CNC 포트(FC/10GbE)가 있는 컨트롤러 2개, 8Gb FC 트랜시버 4개(첫 번째 컨트롤러에 설치됨)
    • 20x 146GB 15Krpm SAS HDD(Seagate ST9146852SS)
    • 4x 400GB SSD(HGST HUSML4040ASS600)

    호스트 구성

    • 슈퍼마이크로 1027R-WC1R 플랫폼
    • 2배 인텔 제온 E5-2620v2
    • 8x 8GB DDR3 1600MHz ECC RDIMM
    • 480GB SSD Kingston E50
    • 2x Qlogic QLE2562(2포트 8Gb FC HBA)
    • CentOS 7, 피오 2.1.14
    연결은 4개의 8Gb FC 포트를 통해 직접 하나의 컨트롤러를 통해 이루어졌습니다. 당연히 호스트에 대한 볼륨 매핑은 4개의 포트를 통해 이루어졌으며 호스트에 다중 경로가 구성되었습니다.

    SSD의 Tier-1 및 캐시가 있는 풀

    이 테스트는 읽기/쓰기 비율이 다양한 8KiB 블록(큐 깊이가 각각 16인 스레드 8개)에서 랜덤 액세스가 포함된 3시간(60초의 180주기) 로드입니다. 전체 부하가 0-20GB 영역에 집중되어 성능 계층의 볼륨보다 적게 보장됩니다. "및 또는 SSD(800GB)의 캐시 - 이는 캐시 또는 계층을 빠르게 채우기 위해 수행됩니다. 수용 가능한 시간.

    각 테스트를 실행하기 전에 볼륨을 다시 생성하고(SSD 계층 "a 또는 SSD 캐시를 지우기 위해) 임의 데이터로 채우고(1MiB 블록의 순차적 쓰기) 볼륨에서 미리 읽기를 해제했습니다. IOPS, 평균 최대 대기 시간 값은 각 60초 주기 내에서 결정되었습니다.

    100% 읽기 및 65/35 읽기 + 쓰기 테스트는 SSD 계층(RAID-10의 4x400GB SSD 디스크 그룹이 풀에 추가됨)과 SSD 캐시(RAID-0의 2x400GB SSD, 스토리지는 각 풀의 캐시에 2개 이상의 SSD를 추가할 수 없습니다.) 볼륨은 각각 10개의 46GB 15K RPM SAS 디스크로 구성된 2개의 RAID-6 디스크 그룹 풀에서 생성되었습니다(즉, 실제로는 2x10 RAID- 60) 왜 10이나 50은 안되나요? 저장소가 무작위로 쓰기 어렵게 만들려고 의도적으로.

    IOPS

    결과는 충분히 예상할 수 있었습니다. 공급업체가 주장하는 바와 같이 SSD 계층 "옴에 비해 SSD 캐시의 장점은 더 빠른 캐시 채우기입니다. 즉, 스토리지 시스템은 랜덤 액세스에 대한 부하가 심한 "핫" 영역의 출현에 더 빠르게 응답합니다. IOPS가 100% 증가합니다. Tier "ing을 사용하는 경우보다 더 빠르게 지연 강하와 함께 읽기

    이 이점은 상당한 쓰기 로드가 추가되는 즉시 종료됩니다. RAID-60은 간단히 말해서 작은 블록의 임의 쓰기에는 적합하지 않지만 이 구성은 특히 문제의 본질을 보여주기 위해 선택되었습니다. 스토리지 시스템이 쓰기에 대처할 수 없기 때문입니다. 느린 RAID-60의 캐시를 우회하고 대기열이 빠르게 채워지며 캐싱을 사용하더라도 읽기 요청을 처리할 시간이 거의 없습니다. 일부 블록은 여전히 ​​도달하지만 기록이 진행 중이기 때문에 빠르게 무효화됩니다. 이 악순환으로 인해 이 로드 프로필에서 읽기 전용 캐시가 비효율적이 됩니다. LSI 및 Adaptec PCI-E RAID 컨트롤러에서 초기 버전의 SSD 캐시(후기입이 등장하기 전)에서도 똑같은 상황이 관찰될 수 있었습니다. 해결책 - 처음에는 더 생산적인 볼륨을 사용하십시오. 5/6/50/60 대신 RAID-10 및/또는 캐시 대신 SSD 계층

    평균 지연


    최대 지연

    이 그래프는 로그 스케일을 사용합니다. 100%이고 SSD 캐시를 사용하는 경우 보다 안정적인 레이턴시 값을 볼 수 있습니다.


    "캐싱 대 계층화" 딜레마에서 요약할 수 있는 것은 무엇입니까?
    무엇을 선택할 것인가?
    • 캐시 채우기가 더 빠릅니다. 워크로드가 주로 무작위 읽기로 구성되고 동시에 "핫" 영역이 주기적으로 변경되는 경우 캐시를 선택해야 합니다.
    • "빠른" 볼륨을 저장합니다. "핫" 데이터가 완전히 캐시에 맞지만 SSD 계층에는 맞지 않으면 캐시가 더 효율적일 것입니다. DotHill 4004의 SSD 캐시는 읽기 전용이므로 RAID-0 디스크 그룹이 생성됩니다. 예를 들어 각각 400GB의 SSD가 4개 있는 경우 두 개의 풀 각각에 대해 800GB의 캐시(총 1600GB)를 얻을 수 있으며 계층화 사용 시 2배(1개 풀에 800GB 또는 2개에 400GB)를 사용할 수 있습니다. 물론, 두 번째 풀에 SSD가 필요하지 않은 경우 한 풀에 대해 RAID-5에 또 다른 1200GB 옵션이 있습니다.

      반면에 계층화를 사용할 때 전체 유용한 풀 크기는 블록 사본 하나만 저장하기 때문에 더 커집니다.

    • 캐시는 순차 액세스에 성능에 영향을 미치지 않습니다. 캐싱 시 블록은 이동되지 않고 복사만 됩니다. 적절한 로드 프로필(동일한 LBA에 반복적으로 액세스하여 작은 블록에서 무작위 읽기)을 사용하면 스토리지 시스템은 SSD 캐시(있는 경우) 또는 HDD에서 데이터를 발행하여 캐시에 복사합니다. 직렬 액세스 부하가 있는 경우 HDD에서 데이터를 읽습니다. 예: 20개의 10 또는 15k HDD 풀은 순차 읽기로 약 2000MB/s를 제공할 수 있지만 필요한 데이터가 한 쌍의 SSD에서 디스크 그룹으로 끝나면 약 800MB/s를 얻게 됩니다. 이것이 중요한지 아닌지는 스토리지 시스템을 사용하는 실제 시나리오에 따라 다릅니다.

    4x SSD 400GB HGST HUSML4040ASS600 RAID-10

    볼륨은 4개의 400GB SSD로 구성된 선형 디스크 그룹인 RAID-10에서 테스트되었습니다. 이 DotHill 배송에서 HGST HUSML4040ASS600은 추상적인 "400GB SFF SAS SSD"로 판명되었습니다. 상당히 높은 선언 성능(4KiB 읽기/쓰기 56000/24000 IOPS), 그리고 가장 중요한 것은 5년 동안 하루에 10번씩 다시 쓸 수 있는 리소스가 있는 Ultrastar SSD400M 시리즈의 SSD입니다. 물론 이제 HGST는 더 생산적인 SSD800MM 및 SSD1600MM을 무기고에 보유하고 있지만 DotHill 4004에는 이 정도면 충분합니다.

    단일 SSD용으로 설계된 테스트(SNIA 솔리드 스테이트 스토리지 성능 테스트 사양 Enterprise v1.1의 "IOPS 테스트" 및 "대기 시간 테스트")를 사용했습니다.

    • IOPS 테스트. IOPS(IOPS)의 수는 다양한 크기(1024KiB, 128KiB, 64KiB, 32KiB, 16KiB, 8KiB, 4KiB)의 블록과 읽기/쓰기 비율이 다른 랜덤 액세스(100/0, 95/5, 65)에 대해 측정됩니다. /35, 50/50, 35/65, 5/95, 0/100) 16의 대기열 깊이와 함께 8개의 스레드가 사용되었습니다.
    • 대기 시간 테스트. 평균 및 최대 지연 값은 최소 대기열 깊이(QD=1인 스레드 1개)로 다양한 블록 크기(8KiB, 4KiB) 및 읽기/쓰기 비율(100/0, 65/35, 0/100)에 대해 측정됩니다. .
    이 테스트는 일련의 측정으로 구성됩니다(60초씩 25회). 사전 로드 - 2배 용량에 도달할 때까지 128KiB 블록에서 순차적 쓰기. 정상 상태 창(4회)은 플로팅에 의해 확인됩니다. 정상 상태 기준: 창 내 선형 맞춤은 평균의 90%/110%를 초과해서는 안 됩니다.

    SNIA PTS: IOPS 테스트



    예상대로 작은 블록이 있는 IOPS 측면에서 단일 컨트롤러의 선언된 성능 제한에 도달했습니다. 어떤 이유로 DotHill은 읽기에 대해 100,000 IOPS를 나타내고 MSA2040에 대한 HP는 그래프에서 보다 현실적인 80,000 IOPS(컨트롤러당 40,000개 획득)를 나타냅니다.

    검증을 위해 SAS HBA에 연결하여 단일 SSD HGST HGST HUSML4040ASS600을 테스트했습니다. 4KiB 블록에서 읽기 및 쓰기에 대해 약 50,000 IOPS가 수신되었으며 포화 상태(SNIA PTS 쓰기 포화 테스트)와 함께 쓰기는 HGST에서 선언한 특성에 해당하는 25-26,000 IOPS로 떨어졌습니다.

    SNIA PTS: 대기 시간 테스트

    평균 지연(ms):


    최대 지연(ms):


    평균 및 최대 대기 시간 값은 SAS HBA에 연결된 경우 단일 SSD의 값보다 20-30%만 높습니다.

    결론

    물론이 기사는 다소 혼란스러운 것으로 판명되었으며 몇 가지 중요한 질문에 대답하지 않습니다.
    • IBM v3700, Dell PV MD3(및 LSI CTS2600의 다른 하위 제품), Infrotrend ESDS 3000 등 다른 공급업체의 제품과 유사한 구성의 비교. 스토리지 시스템은 일반적으로 오래가지 않는 다양한 구성으로 제공됩니다. 로드 및/또는 배포해야 합니다.
    • 에서 테스트하지 않은 저장 한도 대역폭. 약 2100MiB/s(디스크 20개 중 RAID-50) 정도를 볼 수 있었지만 디스크 수가 부족하여 순차 로드를 자세히 테스트하지 않았습니다. 읽기/쓰기용으로 선언된 3200/2650MB/s를 얻을 수 있다고 확신합니다.
    • 대기 시간에 대한 IOPS 그래프가 없으므로 대기열 깊이를 변경하여 허용 가능한 대기 시간 값으로 얻을 수 있는 IOPS 수를 확인할 수 있는 많은 경우에 유용합니다. 아아, 시간이 충분하지 않았습니다.
    • 모범 사례. 바퀴를 재발명하고 싶지 않았습니다.