Подсистемы хранения данных

         

В свое время Seagate выпускала


Евгений Патий

"Экспресс-электроника"


В свое время Seagate выпускала хорошие жесткие диски для ноутбуков, однако впоследствии отказалась от этого бизнеса. Сегодня же рынок портативных ПК переживает настоящий расцвет и является более динамичным и прибыльным, чем сегмент настольных персональных компьютеров, рабочих станций и серверов - видимо, поэтому руководство компании Seagate сочло необходимым возобновить в 2003 году производство накопителей именно для портативных компьютеров.

Если учесть, что "ноутбучные" винчестеры успешно проникают нынче и на другие, порой более быстро развивающиеся рынки (например, потребительской электроники, аудио- и видеоаппаратуры), а переносные плееры-рекордеры на жестких дисках захватывают все более широкие плацдармы, да и просто носимые накопители (с интерфейсами USB, FireWire и др.) становятся популярнее, то очевидно, что необходимо исследовать возможности мобильных накопителей как самостоятельных устройств, "в отрыве" от ноутбуков.

Примечательно, что на сегодняшний день Seagate является одним из немногих независимых производителей жестких дисков для ноутбуков, в то время как другие компании заняты изготовлением собственно жестких дисков и ноутбуков на их основе - к примеру, Samsung, Toshiba, Hitachi и Fujitsu. Кроме того, в связи с покупкой Seagate компании Maxtor, давнего своего конкурента, можно полагать, что по завершении всех формальностей и реформирования бизнеса обязательно появятся новые продукты для всех сегментов рынка, содержащие и наработки Maxtor.

Объектом нашего внимания стали диски 2,5-дюймового семейства Seagate Momentus - 5400.2 и 7200.1. Кстати, данные накопители рассматривались в версии Parallel ATA, по-прежнему популярной у производителей ноутбуков, несмотря на мощное давление со стороны версий с интерфейсом Serial ATA.



Знакомство с Seagate Momentus начнем с более "задумчивой" модели 5400.2 объемом 120 Гбайт (хотя имеется и менее емкий вариант 100 Гбайт). Хотя задумчивость здесь скорее стереотип, тяжкое бремя "десктопного" опыта (ведь о такой скорости вращения все уже давно позабыли).
Для портативного же компьютера 5400 оборотов шпинделя в минуту - весьма достойный показатель, тем более что ноутбук не настольный компьютер, включенный в розетку на стене, ему требуется и батарею поберечь. Однако помнится, Seagate клятвенно заверяла в момент анонса 2,5-дюймовых накопителей 5400 об/мин, что никакого "перерасхода" энергии в связи с возросшей скоростью вращения не предвидится.

Несмотря на достаточно длительное присутствие на рынке версий Momentus 5400.2, этот накопитель выглядит свежо и актуально. Объем 120 Гбайт, внутренний буфер 8 Мбайт, две пластины, четыре головки - все показатели в норме. И, разумеется, интерфейс UltraATA/100.

Имеются также и фирменные решения Seagate: применение гидродинамических подшипников в механике, эффект сверхмагниторезистивности в головках чтения-записи, технологии EPRML, S.M.A.R.T., QuietStep ramp load и 3D Defence System.

В модели Momentus 5400.2 компания Seagate ощутимо поработала над ударостойкостью, а также над энергопотреблением в состоянии покоя - сегодня, когда идет борьба за каждую минуту автономности, подобное обстоятельство выглядит даже убедительнее, чем многие другие инновации, нашедшие применение в этом накопителе.

Для чего же изначально предназначены "моментусы" 5400.2? Миниатюрный форм-фактор определяет и круг использования: обычные ноутбуки, планшетные ПК, цифровые плееры, внешние накопители и различные устройства, в которых наличие жесткого диска выглядит скорее приятным дополнением, нежели насущной необходимостью - разнообразные копиры, принтеры и т. д.

Если, говоря о Momentus 5400.2, хочется вставить словосочетание "старый знакомый", то применительно к следующему накопителю, Momentus 7200.1, такое клише уже неуместно. Продукт абсолютно новый, открывающий очередную продуктовую линейку, и аналогичных накопителей, как говорят в Одессе, "еще будет и будет".

Старт отмечен 100-Гбайт версией. Даже трудно представить - ноутбук с винчестером, способным раскрутить шпиндель до 7200 оборотов в минуту! Первая мысль: в автономном режиме ему не проработать более одного часа, просто батарея не выдержит такое энергопотребление.



Разумеется, у компании- производителя на этот счет другое мнение - чего и стоило ожидать. В остальном накопитель выглядит очень достойно - имеются "параллельная" и "последовательная" версии UltraATA/100 и SATA, тихий мотор SoftSonic FDB, 8-Мбайт кэш-буфер и технология QuietStep ramp load. Также задействованы инновации, имеющиеся у Momentus 5400.2.

Новый скоростной "моментус" обладает завидной ударостойкостью, безболезненно переживая кратковременную встряску в 250 G. Позиционирование продукта сохранилось, хотя с учетом возросшей скорости вращения шпинделя, Seagate настоятельно рекомендует этот накопитель и для различных мультимедиа новинок, например, цифровых видеорекордеров.



Что касается тестовой системы, мы использовали ноутбук на Centrino - HP nc6000, который позволяет менять жесткий диск без вскрытия корпуса системы. Для этого 2,5-дюймовые жесткие диски можно просто вставить в специальный боковой разъем. Ноутбук основан на процессоре Pentium M 1,4 ГГц, оснащен 256 Мбайт оперативной памяти, операционная система Windows XP SP1.

В качестве конкурентов Momentus 5400.2 и 7200.1 оказались следующие накопители для портативных компьютеров:

Western Digital Scorpio WD800VE 80 Гбайт Fujitsu MHV2100AH 100 Гбайт Hitachi Travelstar 5K100 HTS541010G9AT00 100 ГБайт Toshiba MK1032GSX 100 Гбайт Samsung MP0804H 80 Гбайт

Устройства состязались по проверенной схеме, с помощью программ

PCMark'04 1.3; WinBench 99 2.0; IOMeter 2003.02.15

Результаты тестов оказались вполне предсказуемыми - скорость вращения шпинделя стала доминирующим фактором при сравнении скоростных характеристик. Momentus 7200.1 с легкостью обошел всех. Соответственно, сегодня Momentus 7200.1 выглядит как отличный выбор для пользователей, нуждающихся в большом объеме и высокой скорости.

Очень неплохо зарекомендовал себя и второй накопитель, Momentus 5400.2. Вообще, складывается впечатление, что за время своего отсутствия на рынке портативных винчестеров Seagate вовсе не сидела сложа руки, а пристально следила за конкурентами, делая правильные выводы, и теперь появилась в нужное время и в нужном месте.


Хотя, может быть, это и не так, а просто мощь и опыт компании сделали свое - Seagate буквально поставила рынок с ног на голову, вновь указав "кто в доме хозяин" тогда, когда посчитала это нужным. В любом случае, возвращение Seagate только на руку как производителям портативных ПК, так и пользователям - ведь сегодня самостоятельно заменить в ноутбуке винчестер на тот, что больше по душе (а ассортимент моделей это вполне позволяет) может каждый, кто имеет представление об отвертке.



График 1. IOMeter — последовательное чтение



График 2. IOMeter — последовательная запись

Диаграмма 1. WinBench'99

Диаграмма 2. PCMark’04

Таблица. Характеристики накопителей


За предоставленное оборудование редакция благодарит агентство East-Side Consulting.


Интерфейс FibreChannel


Полнодуплексный последовательный интерфейс. Частично рассмотрен нами ранее, чаще всего в современном оборудовании представлен внешними оптическими разъёмами типа LC или SC (LC – меньше по размерам):

…и протоколами FibreChannel Protocols (FCP). Существует несколько схем коммутации устройств FibreChannel:

Point-to-Point – точка-точка, прямое соединение устройств между собой:

Crosspoint Switched – подключение устройств в коммутатор FibreChannel (аналогичное реализации сети Ethernet на коммутаторах):

Arbitrated loop – FC-AL, петля с арбитражным доступом – все устройства связаны друг с другом в кольцо, схема чем-то напоминает Token Ring. Также может использоваться коммутатор – тогда физическая топология будет реализована по схеме «звезда», а логическая – по схеме «петля» (или «кольцо»):

Подключение по схеме FibreChannel Switched является самой распространённой схемой, в терминах FibreChannel такое подключение называется Fabric – в русском языке существует калька с него – «фабрика». Следует учесть, что коммутаторы FibreChannel – это довольно продвинутые устройства, по сложности наполнения близкие к IP-коммутаторам уровня 3 (маршрутизаторам). Если коммутаторы соединены между собой, то они функционируют в единой фабрике, имея пул настроек, действующих для всей фабрики сразу. Изменение каких-то опций на одном из коммутаторов может приводить к перекоммутации всей фабрики, не говоря уже о настройках авторизации доступа, к примеру. С другой стороны, существуют схемы SAN, которые подразумевают несколько фабрик внутри единой сети SAN. Таким образом, фабрикой можно называть только группу объединённых между собой коммутаторов – два или более не объединённых между собой устройства, введённые в SAN для повышения отказоустойчивости, образуют две или более различные фабрики.

Адресация устройств FibreChannel осуществляется по 64-битовому адресу WorldWideName (WWN), простой пример записи WWN-адреса – 90:06:F1:60:00:60:03:b4. Применимо к портам FibreChannel можно сказать, что WWN этих портов – аналог MAC-адреса в LAN.


Компоненты, позволяющие объединять хосты и системы хранения данных в единую сеть, принято обозначать термином «connectivity». Connectivity – это, конечно же, дуплексные соединительные кабели (обычно с интерфейсом LC), коммутаторы (switches) и адаптеры FibreChannel (HBA, Host Base Adapters) – то есть те платы расширения, которые, будучи установленными в хосты, позволяют подключить хост в сеть SAN. HBA обычно реализованы в виде плат стандарта PCI-X или PCI-Express. На фотографии – PCI-X адаптер FibreChannel от компании QLogic с двумя внешними портами FC 2Gb и дуплексным интерфейсом подключения LC:



Часто возникают вопросы – как же FibreChannel может работать по «меди»? Как уже упоминалось, не стоит путать fibre и fiber – среда распространения сигнала может быть различной. Например, все жёсткие диски FibreChannel имеют металлические контакты, да и обычная коммутация устройств по «меди» – не редкость, просто постепенно все переходят на оптические каналы как наиболее перспективную технологию и функциональную замену «меди». В некотором современном оборудовании с внешними оптическими интерфейсами полки расширения (то есть «коробки» для дополнительных жёстких дисков) подключаются к основному устройству с внешними портами по схеме FC-AL (!) медными кабелями (!), что может вас удивить, однако медное подключение более надёжно в механическом плане и менее требовательно в плане своего обслуживания. Но имеются и минусы – например, ограничение на длину (не более 25 метров) и низкую помехозащищённость, что на скоростях в 2 Гбайт может быть проблемой.


Интерфейс iSCSI


Обычно представлен внешним разъёмом RJ-45 для подключения в сеть Ethernet – всем нам известный разъём:

...и собственно самим протоколом iSCSI (Internet Small Computer System Interface). По определению SNIA: «iSCSI — это протокол, который базируется на TCP/IP и разработан для установления взаимодействия и управления системами хранения данных, серверами и клиентами». На этом интерфейсе остановимся немножко подробней, хотя бы в силу того, что каждый пользователь способен использовать iSCSI даже в обычной «домашней» сети.

Необходимо знать, что протокол iSCSI определяет, как минимум, транспортный протокол для SCSI, который работает поверх TCP, и технологию инкапсуляции SCSI-команд в сеть на базе IP. Проще говоря, iSCSI – это протокол, позволяющий получить блочный доступ к данным с помощью команд SCSI, пересылаемых через сеть со стеком TCP/IP. iSCSI появился как замена FibreChannel и в современных СХД имеет перед ним несколько преимуществ – способность объединять устройства на огромных расстояниях (используя существующие сети IP), возможность обеспечивать заданный уровень QoS (Quality of Service, качество обслуживания), более низкую стоимость connectivity. Однако основная проблема использования iSCSI как замены FibreChannel – большое время задержек, возникающих в сети из-за особенностей реализации стека TCP/IP – это время может приближаться к 80 микросекундам, что сводит на нет одно из важных преимуществ использования СХД – скорость доступа к информации и низкую латентность. Это серьёзный минус

Маленькое замечание по поводу хостов – они могут использовать как обычные сетевые карты (тогда обработка стека iSCSI и инкапсуляция команд будет осуществляться программными средствами), так и специализированные карты с поддержкой технологий аналогичных TOE (TCP/IP Offload Engines). Такая технология обеспечивает аппаратную обработку соответствующей части стека протокола iSCSI. Программный метод дешевле, однако больше загружает центральный процессор сервера и в теории может приводить к бОльшим задержкам, чем аппаратный обработчик.
При современной скорости сетей Ethernet в 1 Гбит/с можно предположить, что iSCSI будет работать ровно в два раза медленнее FibreChannel со скоростью 2 Гбит, однако в реальном применении разница будет ещё заметнее.

Адресация iSCSI-устройств многим покажется слишком сложной, но это итог формирования стандартов эпохи расцвета IT. Существуют два типа адресации – EUI-based и IQN, просто приведу примеры записи адресов двумя различными методами адресации (они не эквивалентны друг другу – это лишь пример):

eui.5a1b375297690100;

iqn.1979-07.ivs.home:winxp.

Желающие могут ознакомиться с RFC 3720 и 3721 для более полной информации, а также найти более свежие документы, определяющие структуру iSCSI в целом.

Однако возможность организовать SAN на базе iSCSI проще, чем вам кажется. Что необходимо для сети данных? Устройства хранения, компоненты коммутации (connectivity) и хосты. Хостами могут быть обычные компьютеры, компоненты коммутации – это ваша локальная IP-сеть, сложнее с системой хранения, но и это решаемо. В терминологии iSCSI принято различать два типа устройств – Initiator и Target. Как вы уже догадались: Initiator – это хост, а Target – это система хранения данных. Для того чтобы ваш хост с операционной системой Windows смог подключиться к хранилищу с интерфейсом iSCSI, достаточно лишь иметь установленный на машине Software Initiator, на данный момент актуальная версия – «Microsoft iSCSI Software Initiator Version 2.01 (build 1748)». По этой ссылке можно ознакомиться с продуктом и при желании скачать (его использование абсолютно бесплатно). Что интересно, в новой версии ОС от Microsoft, Windows Vista, Microsoft iSCSI Software Initiator встроен по умолчанию даже в «домашнюю» версию операционной системы:



Увеличить

Мы видим стандартные пункты панели управления и настройку iSCSI для этой машины. Выделен адрес этого хоста как iSCSI-инициатора, используется уже знакомая нам адресация IQN. После того, как мы имеем iSCSI-инициатор, компоненты коммутации, нам необходима iSCSI-target, то есть наша СХД.


Естественно, первый и самый простой вариант – аппаратное устройство, система хранения данных с интерфейсом iSCSI. Второй вариант – опять же программно реализованный iSCSI-target. На базе всеми любимой операционной системы Windows его можно получить, используя стороннее ПО компании «String Bean Software», к примеру. Такое ПО называется «WinTarget» и может быть опробовано в виде бесплатной 14-дневной испытательной версии, хотя сам продукт платный. С помощью Wintarget вы можете создать на целевом хосте (компьютере, выступающем в роли iSCSI-target) виртуальные логические тома (LUN, хотя правильнее их всё же называть LU – logical unit), которые и будут доступны хостам-инициаторам, хотя на целевой машине эти логические тома будут представлен в виде обычных файлов соответствующей длины. В отличие от обычного файлового доступа к компьютеру по сети, при использовании iSCSI мы получаем блочный доступ. Наш LUN, физически размещённый на инициаторе (который, в свою очередь, может находиться за тысячи километров – подключение через Интернет), видится нашей машиной как обычный «логический диск» (в терминологии Windows). Мы можем присвоить ему «букву диска», отформатировать и использовать в нашей системе так же, как разделы локального жёсткого диска. Ведь забавно выглядит работа с домашнего компьютера с подключённым к нему десятком LUN’ов, которые физически разнесены по всему земному шару – когда загружаетесь вы, к примеру, с СD, а жёсткого диска в вашей системе и вовсе нет! Пока проблема только в «ширине каналов».

При желании каждый может найти дополнительную информацию по iSCSI и поставить собственные эксперименты, однако упомяну ещё одну функциональность, которая становится доступна домашним пользователям – это построение кластеров на базе стандартного аппаратного обеспечения. Необходимы лишь кластерная ОС да грамотно настроенный iSCSI-target, тогда необходимое число LUN видно сразу всем узлам кластера. Скажу более – кластер вида active-active был мной построен и опробован на базе обычной домашней машины (XP Professional), которая выступала в роли iSCSI-target.


Хосты (iSCSI-initiator’ы) были установлены в виртуальной машине VMware Workstation на базе Windows 2003 Server с установленным поверх «Microsoft iSCSI Software Initiator». Все желающие могут повторить эти эксперименты.

И кратко упомянем ещё пару протоколов, которые встречаются более редко и предназначены для предоставления дополнительных сервисов уже существующим сетям хранения данных (SAN):

FCIP (Fibre Channel over IP) – туннельный протокол, построенный на TCP/IP и предназначенный для соединения географически разнесённых сетей SAN через стандартную среду IP. Например, можно объединить две сети SAN в одну через Интернет. Достигается это использованием FCIP-шлюза, который прозрачен для всех устройств в SAN.

iFCP (Internet Fibre Channel Protocol) – протокол, позволяющий объединять устройства с интерфейсами FC через IP-сети. Важное отличие от FCIP в том, что возможно объединять именно FC-устройства через IP-сеть, что позволяет для разной пары соединений иметь разный уровень QoS, что невозможно при туннелировании через FCIP.

Мы кратко рассмотрели физические интерфейсы, протоколы, типы коммутации и адресацию для систем хранения данных, не останавливаясь на перечислении всех возможных вариантов. Теперь попытаемся представить эти технологии в реальных системах, поставляемых на наш рынок различными производителям. Сначала, просто для примера, приведу имеющийся у меня итоговый отчёт одной из ведущих аналитических компании мира – IDC. В таблице видны финансовые результаты 2 квартала 2005 года на мировом рынке внешних (именно они нас интересуют) дисковых систем хранения:



Думаю, кое-кому может быть не известно о лидере – EMC Corporation. Всё дело в том, что EMC специализируется именно на оборудовании для хранения данных, программных продуктах для обеспечения управления информацией и сервисе, предоставляемом клиентам, использующим это оборудование и ПО. Как мы понимаем, такие продукты – это сфера высоких технологий, а вот HP, IBM, Dell и Hitachi производят также широкий спектр другой продукции (часто даже не компьютерной), посему эти названия, как мне кажется, ни у кого не вызовут вопросов.


Что интересно, ПО, поставляемое EMC, настолько актуально, что это позволило компании занять 7 место в мировом рейтинге «софтовых компаний» по объёмам поставок. Между прочим, известная всем специалистам компания VMWare также принадлежит корпорации EMC.

В приведенном списке есть две компании, которые сами производят весь спектр поставляемых ими дисковых систем хранения – это EMC Corp. и Hitachi (HDS, Hitachi Data Systems), также оборудование этих компаний поставляют другие производители под своей собственной маркой. Компания HP использует системы хранения от Hitachi как свои старшие модели (HP XP), а компания Dell – системы хранения от EMC (DELL|EMC). IBM же использует в качестве OEM-производителей для своих младших моделей СХД продукты от Adaptec и Engenio (подразделение LSI Logic, занимающееся направлением компонент систем хранения данных). Конечно, в лидеры не попали множество более мелких компаний, производящих свои собственные системы хранения, а их немало, и о них мы поговорим.

Если перечислить основных значимых производителей рынка внешних систем хранения данных, то список будет примерно таков: EMC, HP, IBM, Dell, Hitachi, NetApps, Dothill, Engenio, Adaptec, Raidtec и другие. Конечно, ещё есть имена, которые на слуху, но отношение к системам хранения данных имеют второстепенное, хотя их и выпускают – например, D-Link.

Какие же параметры характеризуют системы хранения данных? Некоторые из них были перечислены в прошлой статье – это тип внешних интерфейсов подключения и типы внутренних накопителей (жёстких дисков). Следующий параметр, который есть смысл рассматривать после двух вышеперечисленных при выборе дисковой системы хранения, – её надёжность. Надёжность можно оценить не по банальному времени наработки на отказ каких-то отдельных компонент (факт, что это время примерно равно у всех производителей), а по внутренней архитектуре. «Обычная» система хранения часто «внешне» представляет собой дисковую полку (для монтажа в 19-дюймовый шкаф) с жёсткими дисками, внешними интерфейсами для подключения хостов, несколькими блоками питания.


Внутри обычно установлено всё то, что обеспечивает работу системы хранения – процессорные блоки, контроллеры дисков, портов ввода-вывода, кэш-память и так далее. Обычно управление стойкой осуществляется из командной строки или по web-интерфейсу через любой браузер, начальная конфигурация часто требует подключения по последовательному интерфейсу. Пользователь может «разбить» имеющиеся в системе диски на группы и объединить их в RAID (различных уровней), получившееся дисковое пространство разделяется на один или несколько логических блоков (LUN), к которым и имеют доступ хосты (серверы) и «видят» их как локальные жёсткие диски. Количество RAID-групп, LUN-ов, логика работы кэша, доступность LUN-ов конкретным серверам и всё остальное настраивается администратором системы. Обычно СХД предназначены для подключения к ним не одного, а нескольких (вплоть до сотен, в теории) серверов – посему такая система должна обладать высокой производительностью, гибкой системой управления и мониторинга, продуманными средствами защиты данных. Защита данных обеспечивается многими способами, самый простой из которых вы уже знаете – объединение дисков в RAID. Однако данные должны быть ещё и постоянно доступны – ведь остановка одной системы хранения данных, центральной на предприятии, способна нанести ощутимые убытки. Чем больше систем хранит данные на СХД, тем более надёжный доступ к системе должен быть обеспечен – потому что при аварии СХД останавливается работа сразу всех серверов, хранящих там данные. Высокая доступность стойки обеспечивается полным внутренним дублированием всех компонент системы – путей доступа к стойке (портов FibreChannel), процессорных модулей, кэш-памяти, блоков питания и т.д. Попытаемся принцип 100%-го резервирования (дублирования) объяснить следующим рисунком:



...цифрами здесь обозначены:

Контроллер (процессорный модуль) СХД, включающий в себя:

центральный процессор (или процессоры) – обычно на системе работает специальное ПО, выполняющее роль «операционной системы»;



интерфейсы для коммутации с жёсткими дисками – в нашем случае это платы, обеспечивающие подключение дисков FibreChannel по схеме петли с арбитражным доступом (FC-AL);

кэш-память;

контроллеры внешних портов FibreChannel.

Внешний интерфейс FC; как мы видим, тут их по 2 штуки на каждый процессорный модуль;

Жёсткие диски – ёмкость расширяется дополнительными дисковыми полками;

Кэш-память в такой схеме обычно зеркалируется, чтобы не потерять сохранённые там данные при выходе любого модуля из строя.

Касательно аппаратной части – дисковые стойки могут иметь различные интерфейсы для подключения хостов, различные интерфейсы жёстких дисков, различные схемы подключения дополнительных полок, служащих для увеличения числа дисков в системе, а также другие чисто «железные параметры». Попытаемся понять, какие же параметры характерны для самых ходовых СХД, которые производитель относит к разряду midrange, на примере системы хранения данных EMC Clariion CX500/CX500i. Отличие моделей с буквой «i» и без неё – в реализации внешних интерфейсов: FibreChannel и iSCSI, соответственно. Clariion CX500 – это средняя модель линейки EMC Clariion, которая обладает 100% резервом всех компонент, её внутренняя архитектура соответствует приведённому выше рисунку «Структурная схема системы хранения данных». Краткие параметры CX500 таковы:

два независимых процессорных блока (storage processor), обеспечивающих резервирование;

внешний интерфейс подключения – 4 порта FibreChannel 2Gb (LC-коннекторы);

кэш-память – 4GB с поддержкой зеркалирования;

RAID уровней 0, 1, 3, 5, 10. Возможность создавать множество RAID-групп внутри одного массива;

поддержка дисков HotSpare, возможность назначать hs-диски для всего массива – так называемые global hot spare;

до 120 жёстких дисков «горячей замены» на массив, поддержка технологии верификации целостности данных (EMC SNiiFFER);

жёсткие диски, могут быть как с интерфейсом FibreChannel, так и SATA;

производительность системы – до 120000 IOPS (операций в секунду);



пропускная способность – до 760 Мбайт/с;

возможность создания до 1024 LUN;

возможность подключения до 256 серверов или до 128 серверов в конфигурации «высокой доступности» – когда каждый сервер подключён к СХД двумя логическими каналами (в каждый сервер устанавливается по 2 HBA);

поддерживаемые ОС – Windows, Linux, NetWare, Solaris, IBM AIX, HP-UX, VMWare и другие.

Два независимых ввода питания для двух блоков питания;

Фирменные аккумуляторные модули SPS, обеспечивающие сохранение кэш-памяти на жёсткие диски при аварийном отключении питания вместо батарей, которые поддерживают сохранениё данных в самом кэше (обычно это небольшой срок – до 72 часов).

Внешний вид EMC Clariion CX500:



Первая дисковая полка (нижняя на фото, под которой установлены SPS) содержит процессорные модули с портами ввода-вывода и первые 15 жёстких дисков. Остальные полки служат для расширения дисковой ёмкости дисками FibreChannel или SATA – на рисунке мы видим 8 полок, которые и содержат максимальный объём в 8*15=120 дисков.

Следующие модели от известных производителей можно условно отнести к одной «весовой» категории:

EMC Clariion CX500;

HP EVA3000;

IBM DS4400 / DS4300 Turbo;

HDS 9570V;

NetApp FAS940c;

Sun StorEdge 6130 / 6120;

Примечание:

Почти все оборудование на фотографиях предназначено для монтажа в серверные шкафы, ширина является стандартом и составляет 19 дюймов. Это поможет вам оценивать реальные размеры систем хранения.

Подробно о конкретных системах ведущих производителей поговорим в следующей части обзора

Оригинал статьи на

www.ferra.ru"


Часть 1 Часть 3

Интерфейс SCSI


Расшифровывается как Small Computer System Interface (читается «скази») – полудуплексный параллельный интерфейс. В современных системах хранения данных чаще всего представлен разъёмом SCSI:

…и группой протоколов SCSI, а конкретнее – SCSI-3 Parallel Interface. Отличие SCSI от знакомого нам IDE – бОльшее число устройств на канал, бОльшая длина кабеля, бОльшая скорость передачи данных, а также «эксклюзивные» особенности типа high voltage differential signaling, command quequing и некоторые другие – углубляться в этот вопрос мы не станем.

Если говорить об основных производителях компонент SCSI, например SCSI-адаптеров, RAID-контроллеров с интерфейсом SCSI, то любой специалист сразу вспомнит два названия – Adaptec и LSI Logic. Думаю, этого достаточно, революций на этом рынке не было уже давно и, вероятно, не предвидится.



Интерфейсы подключения


Разобравшись с RAID, перейдём к структуре самих СХД. Прежде всего, СХД разделяются по типу используемых интерфейсов подключения хостов (серверов).

Рассмотрим два «простых» внешних интерфейса подключения – самый ходовой интерфейс SCSI и самый распространённый на данный момент интерфейс сетей хранения данных FibreChannel.

SCSI чем-то похож на всем известный IDE – это параллельный интерфейс, допускающий до 16 устройств на одной шине (для IDE, как вы помните – 2 устройства на канал). На данный момент максимальная скорость протокола SCSI – 320 Мбайт/с (в разработке находится версия для 640 Мбайт/с), часто так и пишут – SCSI U320. Недостатки SCSI очевидны – толстые неудобные кабели, имеющие ограничение на максимальную длину (до 25 м), не обладающие помехозащищенностью. Также ограничения накладывает сам протокол SCSI – обычно это один инициатор на шине (SCSI-контроллер) + ведомые устройства (диски, стримеры и т.д.).

Когда внешняя дисковая стойка имеет интерфейс SCSI, нам достаточно поставить в хост-машину SCSI-адаптер или SCSI-RAID и с помощью многожильного SCSI-кабеля подключиться к разъему на внешней дисковой стойке.

FibreChannel очень популярен в среде IT-специалистов– они-то знают, какие преимущества несёт эта технология, почти неизвестная «домашним пользователям». Причина понятна – дороговизна оборудования и предназначение протокола FibreChannel (FCP) для развёртывания масштабных сетей хранения данных (SAN), что находит применение только в крупных компаниях. Однако такая практика является наилучшим решением для всех описанных выше проблем, в чем мы в дальнейшем убедимся.

Не стоит путать «Fiber» и «Fibre» – технология, как и протокол, специально названа FibreChannel, чтобы хоть чем-то отличаться от технологий, построенных на оптических средах передачи (fiber) – ведь FibreChannel может работать и по «меди». На практике современный FibreChannel имеет скорости 2 Гбит (FibreChannel 2 Gb) или 4 Гбит (FibreChannel 4 Gb) full- duplex, то есть такая скорость обеспечивается одновременно в обе стороны.
В переводе на скорость канала получаем 200 или 400 Мбайт/с по оптическому двухжильному кабелю.



Расстояния практически не ограничены – от стандартных 300 метров на самом «обычном» оборудовании до 2000 км для мощных коммутаторов, так называемых «директоров». Главный плюс интерфейса FibreChannel – возможность объединения многих устройств хранения и хостов (серверов) в единую сеть хранения данных (SAN). Более приземлённые мелочи – большие расстояния (чем со SCSI), возможность агрегирования каналов, возможность резервирования путей доступа, «горячего подключения» оборудования, большая помехозащищенность.

Физически используются двухжильные многомодовые или одномодовые оптические кабели (с коннекторами типа LC или SC) и так называемые SFP – оптические трансмиттеры на основе светодиодных или лазерных излучателей – от этих двух компонент зависит скорость передачи и максимальное расстояние между устройствами.


Конструкция стоек


Далее мы будем использовать устоявшееся словосочетание «дисковая стойка». Им обозначают некую коробку с жёсткими дисками, к которой подключаются серверы и которая может содержать, кроме дисков, также кэш-память, процессоры, несколько блоков питания, внутреннее системное ПО и так далее.

Конструктивно дисковая стойка, то есть наша система хранения данных, рассчитана на установку в монтажный шкаф. Она включает в себя от 8 до 15 жёстких дисков «горячей замены» (на 1 дисковую полку) с интерфейсом SATA/PATA, SCSI или FibreChannel, имеет несколько внешних портов SCSI/FibreChannel для подключения хостов. Дисковая стойка может иметь несколько блоков питания «горячей замены», включать в свой состав кэш-память (и батарею резервирования кэш-памяти), контроллеры или процессорные модули, работающие на базе специализированного ПО, обеспечивающего полное управление системой и дополнительную уникальную функциональность.

Самый простой вариант внешней дисковой стойки – это SCSI+ SCSI стойка с 14 дисками, в которой установлены два блока питания и которая может подключаться одновременно к 2 серверам (каждый из них может иметь доступ к своим 7 дискам или работать в кластерном режиме со вторым сервером). Никакого кэша или процессоров в такой стойке нет – по сути, она просто расширяет внутреннюю дисковую ёмкость сервера и добавляет некоторую уникальность – позволяет создавать кластер.

При использовании таких простых стоек необходим RAID-контроллер, установленный на сервере – сама стойка в этом случае создать RAID своими силами не способна. Типичный пример – DELL PowerVault 220 S.

Более продвинутый вариант – стойка со своими процессорами, кэшем и ПО, которая уже способна сама создавать RAID-массив и управляться пользователем. Обычно он имеет интерфейсы SCSI+SATA, типичный пример – Axus DemonRAID.

Отличие в том, что уже нет надобности ставить в сервер RAID-контроллер с внешним интерфейсом – достаточно простого адаптера SCSI. В теории такие стойки обеспечивают большую производительность и функциональность, чем аналогичные неуправляемые беспроцессорные системы.
Но делать управляемые стойки SCSI+SCSI особого смысла нет, а SCSI+SATA в большинстве случаев проигрывает по скорости дисковой подсистемы (SATA медленнее SCSI), хотя выигрывает по ёмкости и цене. В принципе, зная о большом числе накопителей в системах хранения данных, кэш-памяти и специализированных процессорах, можно сразу предположить, что скорости, обеспечиваемые стойкой, несоизмеримы со скоростями в любой внутренней дисковой подсистеме. Этот момент является одним из важных плюсов СХД и, естественно, позволяет работать с СХД многим хостам одновременно.

Следующий очень важный момент – обеспечение дисковой стойкой большей надёжности и уникальной функциональности, которая была недоступна (или просто практически нереализуема) при использовании в сервере внутренних дисков как основном хранилище данных. Кратко рассмотрим основные плюсы, получаемые при внедрении полноценного решения на базе СХД, а их практическую реализацию мы опишем в следующей статье, при рассмотрении конкретных моделей систем хранения:

Высокая надёжность и отказоустойчивость – реализуется полным или частичным резервированием всех компонент системы (блоков питания, путей доступа, процессорных модулей, дисков, кэша и т.д.), а также мощной системой мониторинга и оповещения о возможных и существующих проблемах;

Высокая доступность данных – обеспечивается продуманными функциями сохранения целостности данных (использование 520 байт в секторе, использование технологии RAID, создание полных и мгновенных копий данных внутри дисковой стойки, реплицирование данных на удаленную СХД и т.д.) и возможностью добавления (обновления) аппаратуры и программного обеспечения в беспрерывно работающую систему хранения данных без остановки комплекса;

Мощные средства управления и контроля – управление системой через web-интерфейс или командную строку, выбор нескольких вариантов оповещения администратора о неполадках, полный мониторинг системы, работающая на уровне «железа» технология диагностики производительности;

Высокая производительность – определяется числом жёстких дисков, объёмом кэш-памяти, вычислительной мощностью процессорной подсистемы, числом внутренних (для жёстких дисков) и внешних (для подключения хостов) интерфейсов, а также возможностью гибкой настройки и конфигурирования системы для работы с максимальной производительностью;



Беспроблемная масштабируемость – обычно существует возможность наращивания числа жёстких дисков, объёма кэш-памяти, аппаратной модернизации существующей системы хранения данных, наращивания функционала с помощью специального ПО, работающего на стойке, без значительного переконфигурирования или потерь какой-то функциональности СХД. Этот момент позволяет значительно экономить и более гибко проектировать свою сеть хранения данных.

Момент, которого мы до сей поры не коснулись вообще – это протоколы и программные интерфейсы взаимодействия СХД и хостов, а также всей сети хранения данных в целом. Этому вопросу, а также практической реализации всей уникальной функциональности систем хранения данных и будет посвящена следующая статья. Дополнительно мы рассмотрим различные модели систем хранения от ведущих производителей, представленных на рынке, методы построения сетей SAN и типы подключения систем хранения в существующую серверную инфраструктуру предприятия.

Оригинал статьи на

www.ferra.ru"


Часть 2

Мегабайты или транзакции?


Если раньше жёсткие диски находились внутри компьютера (сервера), то теперь им там стало тесно и не очень надёжно. Самое простое решение (разработанное достаточно давно и применяемое повсеместно) – технология RAID.

При организации RAID в любых системах хранения данных дополнительно к защите информации мы получаем несколько неоспоримых преимуществ, одно из которых – скорость доступа к информации.

С точки зрения пользователя или ПО, скорость определяется не только пропускной способностью системы (Мбайт/с), но и числом транзакций – то есть числом операций ввода-вывода в единицу времени (IOPS). Увеличению IOPS способствует, что вполне логично, большее число дисков и те методики повышения производительности, которые предоставляет контроллер RAID (к примеру, кэширование).

Если для просмотра потокового видео или организации файл-сервера больше важна общая пропускная способность, то для СУБД, любых OLTP (online transaction processing) приложений критично именно число транзакций, которые способна обрабатывать система. А с этим параметром у современных жёстких дисков всё не так радужно, как с растущими объёмами и, частично, скоростями. Все эти проблемы призвана решить сама система хранения данных – чуть ниже будет видно, как и какими методами.



Основные проблемы, решаемые СХД


Итак, какие же задачи призвана решить СХД? Рассмотрим типичные проблемы, связанные с растущими объёмами информации в любой организации. Предположим, что это хотя бы несколько десятков компьютеров и несколько разнесённых территориально офисов.

1.Децентрализация информации – если раньше все данные могли храниться буквально на одном жёстком диске, то сейчас любая функциональная система требует отдельного хранилища – к примеру, серверов электронной почты, СУБД, домена и так далее. Ситуация усложняется в случае распределённых офисов (филиалов).

2. Лавинообразный рост информации – зачастую количество жёстких дисков, которые вы можете установить в конкретный сервер, не может покрыть необходимую системе ёмкость.

Как следствие:

Невозможность полноценно защитить хранимые данные – действительно, ведь довольно трудно произвести даже backup данных, которые находятся не только на разных серверах, но и разнесены территориально.

Недостаточная скорость обработки информации – каналы связи между удалёнными площадками пока оставляют желать лучшего, но даже при достаточно «толстом» канале не всегда возможно полноценное использование существующих сетей, например, IP, для работы.

Сложность резервного копирования (архивирования) – если данные читаются и записываются небольшими блоками, то произвести полное архивирование информации с удалённого сервера по существующим каналам может быть нереально – необходима передача всего объёма данных. Архивирование на местах зачастую нецелесообразно по финансовым соображениям – необходимы системы для резервного копирования (ленточные накопители, например), специальное ПО (которое может стоить немалых денег), обученный и квалифицированный персонал.

3. Сложно или невозможно предугадать требуемый объём дискового пространства при развертывании компьютерной системы.

Как следствие:

Возникают проблемы расширения дисковых ёмкостей – довольно сложно получить в сервере ёмкости порядков терабайт, особенно если система уже работает на существующих дисках небольшой ёмкости – как минимум, требуется остановка системы и неэффективные финансовые вложения.


Неэффективная утилизация ресурсов – порой не угадать, в каком сервере данные будут расти быстрее. В сервере электронной почты может быть свободен критически малый объём дискового пространства, в то время как другое подразделение будет использовать всего лишь 20% объёма недешёвой дисковой подсистемы (например, SCSI).

4. Низкая степень конфиденциальности распределённых данных – невозможно проконтролировать и ограничить доступ в соответствии с политикой безопасности предприятия. Это касается как доступа к данным по существующим для этого каналам (локальная сеть), так и физического доступа к носителям – к примеру, не исключены хищения жёстких дисков, их разрушение (с целью затруднить бизнес организации). Неквалифицированные действия пользователей и обслуживающего персонала могут нанести ещё больший вред. Когда компания в каждом офисе вынуждена решать мелкие локальные проблемы безопасности, это не даёт желаемого результата.

5. Сложность управления распределёнными потоками информации – любые действия, которые направлены на изменения данных в каждом филиале, содержащем часть распределённых данных, создает определённые проблемы, начиная от сложности синхронизации различных баз данных, версий файлов разработчиков и заканчивая ненужным дублированием информации.

6. Низкий экономический эффект внедрения «классических» решений – по мере роста информационной сети, больших объёмов данных и всё более распределённой структуры предприятия финансовые вложения оказываются не столь эффективны и зачастую не могут решить возникающих проблем.

7. Высокие затраты используемых ресурсов для поддержания работоспособности всей информационной системы предприятия – начиная от необходимости содержать большой штат квалифицированного персонала и заканчивая многочисленными недешёвыми аппаратными решениями, которые призваны решить проблему объёмов и скоростей доступа к информации вкупе с надёжностью хранения и защитой от сбоев.

В свете вышеперечисленных проблем, которые рано или поздно, полностью или частично настигают любую динамично развивающуюся компанию, попробуем обрисовать системы хранения данных – такими, какими они должны быть.Рассмотрим типовые схемы подключения и виды систем хранения данных.


Современные системы хранения данных Часть 2.


Игорь Сюртуков

Тестовая лаборатория Ferra

Часть 1 Часть 3

В этой статье мы постараемся разобраться с элементами, характерными для систем хранения данных – функциональностью СХД, протоколами, топологиями подключения хранилищ к серверам.

В первой части статьи, посвящённой системам хранения данных (СХД), мы познакомились с базовой аппаратной составляющей систем хранения и сферой применения такого оборудования. Ведь для возникновения целого направления в современной IT-индустрии был нужен мощный толчок. Можно с уверенностью сказать, что таких подвижек не было уже давно, повсеместно применялась стандартная схема – сервер с дисками внутри, на которых хранятся основные данные; локальная сеть и компьютеры-клиенты. И вот наконец-то свершилось – системы хранения данных выделяются в отдельный «пласт». Теперь данные хранятся на специализированном оборудовании, обеспечивающем высочайшую надёжность хранения и уровень сервиса, который сложно получить на стандартных схемах информационной инфраструктуры предприятия. Собственно, ради этих составляющих – надёжности хранения и сервиса, которые предоставляет хранилище для управления информацией – в основном и строятся сети хранения данных (Storage Area Network, SAN).

В этой статье постараемся более конкретно разобраться с элементами, характерными именно для сетей хранения данных – функциональностью СХД, протоколами, топологиями подключения хранилищ к серверам. Одной из самых «продвинутых» и распространённых топологий и является SAN, хотя хранилища можно подключать по разными схемам.

Итак – сети хранения и системы хранения данных.Если «зачем» пояснялось в первой части статьи, то во второй мы попытаемся ответить на вопрос «как». Как мы помним, системы хранения данных, или, на профессиональном жаргоне, дисковые стойки, в первую очередь легко различать по внешним интерфейсам, которые и обеспечивают подключения серверов (хостов), и по типу используемых внутри накопителей. Кое-какие из интерфейсов и типов накопителей мы уже упоминали, теперь же коснёмся самых современных. Наряду с терминами СХД (система хранения данных) будем также упоминать синонимы – к примеру, «дисковая стойка».

Внешние интерфейсы подключения – это, как мы помним, в основном SCSI или FibreChannel, а также довольно молодой стандарт iSCSI. Также не стоит сбрасывать со счетов небольшие интеллектуальные хранилища, которые могут подключаться даже по USB или FireWire. Мы не станем рассматривать более редкие (порой просто неудачные в том или ином плане) интерфейсы, как SSA от IBM или интерфейсы, разработанные для мейнфреймов – к примеру, FICON/ESCON. Особняком стоят хранилища NAS, подключаемые в сеть Ethernet. Под словом «интерфейс» в основном понимается внешний разъём, но не стоит забывать, что разъём не определяет протокол связи двух устройств. На этих особенностях мы остановимся чуть ниже.



Современные системы хранения данных Часть 3.


Игорь Сюртуков

Тестовая лаборатория Ferra

Часть 2Часть 1

Обзор внешних дисковых систем хранения данных ведущих производителей.

После того, как мы кратко ознакомились с аппаратной частью систем хранения данных, самое время обратиться к конкретным системам ведущих производителей таких устройств. Нас интересуют именно внешние дисковые системы хранения данных – в основном это DAS или SAN-системы, а так же NAS. О других специализированных типах систем хранения, например CAS, в этот раз мы говорить не будем. Сами понятия DAS, SAN, SAN нами будут рассмотрены ниже, в рамках топологии построения вычислительных центров с системами хранения данных.

Корпорация ЕМС предлагает две линейки систем хранения данных SAN – системы высшего уровня Symmetrix и системы среднего уровня CLARiiON. Модель DMX-3 линейки EMC Symmetrix на данный момент является самой мощной и масштабируемой системой хранения данных в мире – сконфигурированная система поддерживает более 1920 жёстких дисков, а сертифицированная ёмкость достигает 1 PB (1 петабайт = 1024 терабайт) данных.

Структурная схема EMC Symmetrix DMX-3

Также EMC поставляет NAS-системы – EMC Celerra, а также система, предназначенная для хранения неизменяемых данных (CAS) EMC Centera. В настоящее время выпускается уже седьмое поколение midrange-систем EMC CLARiiON, представленных моделями CX300/CX300i, CX500/CX500i и CX700, а также модель начального уровня с SATA-дисками – EMC Clariion AX100/AX100i. Кроме аппаратных решений, у компании ЕМС существует множество программных продуктов для управления как самими системами хранения, так и сетями хранения данных, а также ПО для защиты данных, перемещения данных между различными системами и прочее. Компания ЕМС является седьмой в мире компанией по выпуску программного обеспечения. Также системы хранения данных EMC поставляют под своей торговой маркой несколько известных сторонних компаний – Dell, Fujitsu-Siemens, Bull.

Президент EMC Joseph M. Tucci (слева) представляет EMC Symmetrix DMX-3


Итак, старшие модели систем хранения от IBM являются разработкой самой компании IBM – это линейки Total Storage серий DS6000 и DS8000. Уровень entry-level и midrange – это OEM-продукция компаний Adaptec и Engenio, сюда входят IBM Total Storage DS300/DS400, DS4100, DS4300, DS4500 и DS4800.



IBM Total Storage серии DS8000

Ну и кратко упомянем некоторые другие значимые компании.

Как мы уже говорили, DELL поставляет в качестве своих систем хранения решения EMC, а также простые решения без интеллектуальной начинки, как упомянутая в первой части статьи дисковая полка DELL PowerVault 220s. Известная узкому кругу Network Appliance разделяет свои продукты на четыре неравнофункциональные линейки – это системы NetApp FAS (серии FAS900, FAS3000 и FAS200), а также ещё три группы аппаратных решений – V-Series, NearStore и NetCache. Отпрыск LSI, компания Engenio выпускает свои продукты под бесхитростными цифровыми обозначениями – это модели Engenio Storage System 2822, 2882, 5884, 6498 и 6998. К примеру, модель Engenio 6998 поставляется по OEM-контракту компанией IBM как IBM DS4800. Компания DotHill предлагает системы хранения старшего уровня DotHill SANnet II (с дисками SATA или FibreChannel), а также системы среднего и нижнего уровня DotHill RIVA и DotHill StratisRAID (это системы компании Chaparral, не так давно купленной компанией DotHill). Системы всем известной своими контроллерами Adaptec представлены старшими системами с интерфейсом FibreChannel – Adaptec FS4500/FS4100 и Adaptec SANbloc, а также SCSI DAS-системами (например Adaptec SC4100), iSCSI-хранилищами (Adaptec iSA1500 Storage Array) и NAS-системами Adaptec Snap Server. Компания Raidtec, в данный момент приобретённая компанией Plasmon, поставляет несколько линеек продукции – Raidtec FS/CS 3102 с интерфейсами FC и SCSI, соответственно, Raidtec FibreArray (FC-FC), а также NAS-системы Raidtec SNAZ. Дисковые системы хранения от Overland на рынке представлены линейками Overland REO 1000, 4000 и 9000 (отличающиеся возможностью эмуляции ленточных накопителей) и серией более производительных и надёжных массивов Overland ULTAMUS.


Упомяну ещё распространённые у нас системы начального уровня от AXUS – серии Yotta и Yotta Mini, которые заменили собой AXUS DemonRAID, уже снятые с производства.

Конечно, этот маленький обзор является далеко не полным – как по производителям, так и по перечисленным продуктам и по взаимоотношениям различных вендоров – в основном это касается OEM-партнёрства. Мы перечислили лишь самые популярные решения и самые известные компании.

Естественно, аппаратная мощь систем хранения должна как-то управляться, а сами СХД просто обязаны предоставлять уровень сервиса и функциональность, недоступную в обычных схемах «сервер-клиент». Самое первое, что мы уже рассмотрели, – это возможность подключать к СХД несколько хостов (вплоть до сотен, в теории). Второе – система хранения, обычно она обеспечивает 100%-ное дублирование всех своих компонент – нет элементов, выход из строя которых способен вызвать аварийную остановку системы хранения. Также дублированы каналы доступа (пути доступа) к стойке от сервера – в сервер устанавливается несколько HBA (так называемый режим «multipathing»), который позволяют решить сразу несколько проблем:

Обеспечивается резервирование путей доступа (failover) – при аварийной ситуации с одним каналом (повреждение кабеля, поломка адаптера HBA) все данные благополучно транслируются по второму пути.

Балансировка нагрузки (load balancing) – несколько каналов используются, как один общий, увеличивая пропускную способность и одновременно распределяя нагрузку равномерно по всем путям.

Если рассмотреть рисунок «Структурная схема системы хранения данных», становится понятно, что при прямом подключении сервера к стойке двумя путями они должны быть подключены к FC-портам различных процессорных модулей, для того чтобы сервер продолжал работать при выходе из строя сразу всего процессорного модуля. Естественно, для использования multipathing должна быть обеспечена поддержка этой функциональности аппаратными и программными средствами всех уровней, участвующих в передаче данных.


Конечно же, полное резервирование без средств мониторинга и оповещения не имеет смысла – поэтому все серьёзные системы хранения имеют такие возможности. К примеру, оповещение о каких-либо критических событиях может происходить различными средствами – это оповещение по e-mail, автоматический модемный звонок в центр техподдержки, сообщение на пейджер (сейчас актуальнее SMS), SNMP-механизмы и прочее. О защите целостности данных средствами RAID мы уже говорили – это неотъемлемая часть любой системы хранения. При этом используется механизм дисков HotSpare – когда на группу дисков (RAID) или на всю систему целиком (global HotSpare) логически «выделяются» жёсткие диски, которые не участвуют в работе, а просто находятся в «незадействованном» состоянии. При выходе из строя рабочих дисков HotSpare-диски сразу подменяют их – система автоматически отключает сбойный диск и перестраивает RAID-группу, используя свободный диск HotSpare. Такой механизм необходим для снижения времени восстановления RAID’а, ведь если у нас RAID уровня 5, в котором из строя вышел один-единственный жёсткий диск, все данные находятся под угрозой: отказ ещё одного диска – это безвозвратная потеря данных, что недопустимо. Альтернатива этому – замена вышедшего из строя диска системным администратором вручную – это может занять часы и даже дни, а ведь данные в это время находятся под угрозой! Следующая особенность, характерная именно для систем хранения, – это возможность модернизации (апгрейда) оборудования и ПО без остановки системы. Например, при правильном подключении серверов и использовании multipathing ничто не мешает нам на работающей системе менять один из процессорных модулей. Или блоков питания. Или модернизировать внутреннее ПО стойки… Конечно, СХД должна поддерживать такую возможность – обычно это прерогатива систем хранения среднего и высшего уровня. Но вся концепция высоконадёжного хранилища и состоит в круглосуточной и круглогодичной работе – в идеале от запуска системы в работу и до остановки и списания в утиль, через годы, центральное хранилище данных должно функционировать всегда!



Ну и как мы уже упоминали, существуют мощные средства управления всем этим великолепием. Обычно это web-интерфейс, консоль, возможность писать скрипты и встраивать управление во внешние программные пакеты. Про механизмы, обеспечивающие высокую производительность СХД, упомянем лишь вкратце – неблокируемая архитектура с несколькими внутренними шинами и большим количеством жёстких дисков, мощные центральные процессоры, специализированная система управления (ОС), большой объём кэш-памяти, множество внешних интерфейсов ввода-вывода.

Сервисы, предоставляемые системами хранения, обычно определяются программным обеспечением, функционирующим на самой дисковой стойке. Практически всегда это сложные программные пакеты, приобретаемые по отдельным лицензиям, не входящим в стоимость самой СХД. Сразу упомянем уже знакомое вам ПО для обеспечения multipathing – вот оно как раз функционирует на хостах, а не на самой стойке.

Следующее по популярности решение – ПО для создания мгновенных и полных копий данных. Различные производители по-разному называют свои программные продукты и механизмы создания этих копий. Мы для обобщения можем манипулировать словами снапшот (snapshot) и клон (clone). К примеру, для уже упоминавшихся систем хранения EMC программное обеспечение для создания клонов и снапшотов называется EMC SnapView.



Увеличить

Создание копий с помощью EMC SnapView (web-интерфейс)

Клон делается средствами дисковой стойки внутри самой стойки – это полная внутренняя копия данных. Сфера применения довольно широка – от бэкапа (backup) до создания «тестовой версии» исходных данных, к примеру, для рискованных модернизаций, в которых нет уверенности и применять которые на актуальных данных небезопасно. Тот, кто внимательно следил за всеми прелестями СХД, которые мы тут разбирали, спросит – для чего же нужен бэкап данных внутри стойки, если она обладает такой высокой надёжностью? Ответ на этот вопрос на поверхности – никто не застрахован от человеческих ошибок. Данные сохранены надёжно, но если сам оператор сделал что-то не так, к примеру, удалил нужную таблицу в базе данных, от этого не спасут никакие аппаратные ухищрения.


Клонирование данных обычно выполняется на уровне LUN. Более интересная функциональность обеспечивается механизмом снапшотов. В какой-то мере мы получаем все прелести полной внутренней копии данных (клона), при этом не занимая 100% объёма копируемых данных внутри самой стойки, ведь такой объём нам не всегда доступен. По сути снапшот – мгновенный «снимок» данных, который не занимает времени и процессорных ресурсов СХД. Объём же дискового пространства для хранения снапшота определяется объёмом модернизированных данных, которые появились с момента создания снапшота. К примеру, если в 8 часов утра мы создали снапшот с LUN объёмом 1Tбайт, при этом к 18 часам вечера в исходных данных поменялось 20% информации, наш снапшот станет занимать 200 Гбайт, что, конечно же, значительно меньший объём, чем при создании клона. Оба механизма (снапшот и клон) позволяют восстановить исходные данные, т.е. сделать rollback. Если, к примеру, обнаружилось, что после создания нашего снапшота в 12.30 система дала сбой и все вновь накапливаемые данные оказались повреждены, нам ничего не стоит сделать rollback с нашего снапшота, и все данные на исходном LUN будут возвращены в состояние на момент точки создания снапшота – то есть на момент 8 часов утра. При этом корректные данные, которые были накоплены с 8 утра до 12.30, будут потеряны. Если же делать снапшот каждый час рабочего дня, мы сможем «откатить» назад изменения до нужного момента, то есть мы бы могли откатиться до точки создания снапшота в 12.00 – тогда бы мы потеряли данные только за промежуток 12.00-12.30, то есть за полчаса.



Rollback: восстановление состояния LUN

На самом деле вышеприведённые механизмы очень гибкие, они позволяют манипулировать данными с широкими возможностями. Клон и снапшот имеют как свои достоинства, так и недостатки – углубляться в этот вопрос мы не будем, однако я упомяну самый популярный механизм использования снапшотов – вопрос создания резервных копий. К примеру, если нам необходимо стандартными средствами создать бакап базы данных (БД), мы проделываем следующие действия – останавливаем БД, после чего запускаем сам механизм создания резервных копий, к примеру, на стримерную ленту.


Это может занять много часов, в этот момент с базой работать нельзя. Часто такой механизм неприемлем, система не должна так долго простаивать. В этом случае очень просто обходиться созданием снапшотов, если БД хранится на СХД – база останавливается, с неё делается мгновенный снимок (снапшот), после чего работа с базой возобновляется. При автоматизации такой процесс может занимать всего лишь минуты. Полученный на системе хранения снапшот может быть подключён к любому серверу, который и будет осуществлять резервное копирование базы на ленту сколь угодно долго – при этом основная БД будет находиться в рабочем состоянии. Однако тут следует учесть следующее – хотя логически исходная БД и снапшот – это два разных LUN (подключённых к двум или более серверам), физически все те данные, которые не успели измениться в исходном LUN с момента создания снапшота, так и находятся на исходном LUN, и доступ к ним уже будут осуществлять не только серверы СУБД, но и сервер, осуществляющий backup – что может в какой-то мере снизить производительность.

Конечно нельзя не упомянуть ПО для репликации (replication) данных, которое часто называют зеркалированием (mirroring). Это механизм синхронного или асинхронного реплицирования (дублирования) информации с одной системы хранения на одну или несколько удалённых систем хранения. Репликация возможна по различных каналам – к примеру, стойки с интерфейсами FibreChannel могут асинхронно, через Интернет и на большие расстояния, реплицироваться на другую СХД. Такое решение обеспечивает надёжность хранения информации и защиту от катастроф. Все мы помним 11 сентября в США, когда были полностью разрушены два здания Всемирной Торговой Организации (WTC) – при этом были безвозвратно утеряны огромные объёмы данных. Реплицирование на удалённые площадки, создание резервных ВЦ позволяет избежать потери данных при катастрофах, они ведь не так редки, как кажется – обычный пожар может уничтожить все данные в любой самой совершенной системе хранения. Ну конечно, не стоит забывать и про обычное резервное копирование, даже реплицирование – не панацея от всех бед.



Кроме всех перечисленных механизмов, существует большое число других возможностей манипуляций данными, которые зачастую невозможно осуществить вне дисковой стойки. К примеру, миграция данных с одной LUN на другой без остановки системы и без прерывания работы. Например, администратора перестала устраивать скорость работы LUN, находящегося на RAID уровня 5, и он решил переместить все данные на RAID 10, состоящий из большего числа дисков. Задача в обычных условиях нетривиальная, однако некоторое оборудование позволяет осуществить такую операцию незаметно для хостов – постепенно, с заданным приоритетом, данные внутри системы хранения копируются (мигрируют) с одного LUN на другой (с RAID5 на RAID10), после полной синхронизации и незаметно для пользователей сама система переключает все хосты, работающие с первым LUN на второй, то есть самостоятельно производит нужную переконфигурацию системы. Администратору остаётся только перераспределить место, занимаемое первым LUN – теперь он неактуален. Также хочется упомянуть о возможности динамического изменения размера LUN без остановки системы – тут уже всё упирается в операционную систему хост-машины, которая должна правильно отработать такое событие.

Кратко хочется упомянуть о средствах коммутации в среде FibreChannel – о коммутаторах (switches). Основные игроки на этом рынке Cisco, McData, Brocade, QLogic. Практически все коммутаторы, поставляемые крупнейшими производителями СХД под своей торговой маркой – это OEM от Cisco, McData или Brocade.



Коммутаторы Cisco для SAN

Коммутаторы, обладающие большим числом портов, внутренним резервированием управляющих модулей и шин, часто называют «директор» (director). Обычно надёжность директоров составляет т.н. «пять девяток» – 99,999%, они предназначены для работы в качестве ядра (core) сетевой инфраструктуры FibreChannel (или FICON, к примеру) и зачастую строятся по модульному принципу, позволяя создавать нужные конфигурации портов с требуемыми возможностями. К примеру, это может быть большое количество неблокируемых портов, когда все порты могут одновременно функционировать на полной заявленной скорости – в данный момент это 2 Gb и полным ходом идем переход на 4 Gb, таких устройств уже немало.


Скорости выше, вплоть до 10 Gb, используются обычно для организации связей между самими коммутаторами (ISL). Коммутаторы для сетей SAN обладают широкими возможностями, позволяя выстраивать подключение устройств по разным схемам, без изменения физической топологии. Управление осуществляется, как и у СХД – web-интерфейс, командная строка, также широки возможности оповещения о критических событиях. Некоторые устройства позволяют обновлять внутреннее программное обеспечение (firmware) без остановки работы, что также немаловажно – например, фирменная технология HotCAT от McData. Одна из основных функций коммутаторов – организация зонного разделения устройств SAN, так называемый zoning (зонирование). Зонирование позволяет создавать зоны, которые ограничивают возможность взаимодействия FC-устройств в SAN – ведь абсолютно не нужно (за редким исключением), чтобы два сервера сети «видели» друг друга – это некорректно с точки зрения безопасности и излишне нагружает сеть. Коммутаторы в единой фабрике функционируют как единое целое, позволяя также управлять безопасностью сети – возможно ограничивать подключение новых устройств в конкретный коммутатор или в фабрику в целом, а также ограничивать подключение неавторизованных устройств в активные порты (контролируется по WWN) и так далее. Коммутатор сетей SAN – это сложное и недешёвое устройство, которое требует конфигурирования специалистом и является ядром коммутации всей сети, при нарушении конфигурации вся работа может в мгновение остановиться. Чтобы избежать таких проблем и повысить надежность, в SAN используют несколько коммутаторов в различных фабриках (что будет рассмотрено ниже).

После знакомства с самими системами хранения данных, принципами их построения, предоставляемыми ими возможностями и протоколами функционирования самое время попробовать объединить полученные знания в работающую схему. Попробуем рассмотреть типы систем хранения и топологии их подключения в единую работающую инфраструктуру.

Устройства DAS (Direct Attached Storage) – системы хранения, подключаемые напрямую к серверу.


Сюда относятся как самые простые SCSI-системы, подключаемые к SCSI/RAID-контроллеру сервера, так и устройства FibreChannel, подключенные прямо к серверу, хотя и предназначены они для сетей SAN. В этом случае топология DAS является вырожденной SAN (сетью хранения данных):



В этой схеме один из серверов имеет доступ к данным, хранящимся на СХД. Клиенты получают доступ к данным, обращаясь к этому серверу через сеть. То есть сервер имеет блочный доступ к данным на СХД, а уже клиенты пользуются файловым доступом – эта концепция очень важна для понимания. Минусы такой топологии очевидны:

Низкая надежность – при проблемах сети или аварии сервера данные становятся недоступны всем сразу.

Высокая латентность, обусловленная обработкой всех запросов одним сервером и использующимся транспортом (чаще всего – IP).

Высокая загрузка сети, часто определяющая пределы масштабируемости путём добавления клиентов.

Плохая управляемость – вся ёмкость доступна одному серверу, что снижает гибкость распределения данных.

Низкая утилизация ресурсов – трудно предсказать требуемые объёмы данных, у одних устройств DAS в организации может быть избыток ёмкости (дисков), у других её может не хватать – перераспределение часто невозможно или трудоёмко.

Устройства NAS (Network Attached Storage) – устройства хранения, подключённые напрямую в сеть. В отличие от других систем NAS обеспечивает файловый доступ к данным и никак иначе. NAS-устройства представляют из себя комбинацию системы хранения данных и сервера, к которому она подключена. В простейшем варианте обычный сетевой сервер, предоставляющий файловые ресурсы, является устройством NAS:



Все минусы такой схемы аналогичны DAS-топологии, за некоторым исключением. Из добавившихся минусов отметим возросшую, и часто значительно, стоимость – правда, стоимость пропорциональна функциональности, а тут уже часто «есть за что платить». NAS-устройства могут быть простейшими «коробочками» с одним портом ethernet и двумя жёсткими дисками в RAID1, позволяющими доступ к файлам по лишь одному протоколу CIFS (Common Internet File System) до огромных систем в которых могут быть установлены сотни жёстких дисков, а файловый доступ обеспечивается десятком специализированных серверов внутри NAS-системы.


Число внешних Ethernet- портов может достигать многих десятков, а ёмкость хранимых данных – несколько сотен терабайт (например EMC Celerra CNS). Такие модели по надёжности и производительности могут далеко обходить многие midrange-устройства SAN. Что интересно, NAS-устройства могут быть частью SAN-сети и не иметь собственных накопителей, а лишь предоставлять файловый доступ к данным, находящимся на блочных устройствах хранения. В таком случае NAS берёт на себя функцию мощного специализированного сервера, а SAN – устройства хранения данных, то есть мы получаем топологию DAS, скомпонованную из NAS- и SAN-компонентов.

NAS-устройства очень хороши в гетерогенной среде, где необходим быстрый файловый доступ к данным для многих клиентов одновременно. Также обеспечивается отличная надёжность хранения и гибкость управления системой вкупе с простотой обслуживания. На надёжности особо останавливаться не будем – этот аспект СХД рассмотрен выше. Что касается гетерогенной среды, доступ к файлам в рамках единой NAS-системы может быть получен по протоколам TCP/IP, CIFS, NFS, FTP, TFTP и другим, включая возможность работы NAS, как iSCSI-target, что обеспечивает функционирование с различным ОС, установленными на хостах. Что касается лёгкости обслуживания и гибкости управления, то эти возможности обеспечиваются специализированной ОС, которую трудно вывести из строя и не нужно обслуживать, а также простотой разграничения прав доступа к файлам. К примеру, возможна работа в среде Windows Active Directory с поддержкой требуемой функциональности – это может быть LDAP, Kerberos Authentication, Dynamic DNS, ACLs, назначение квот (quotas), Group Policy Objects и SID-истории. Так как доступ обеспечивается к файлам, а их имена могут содержать символы различных языков, многие NAS обеспечивают поддержку кодировок UTF-8, Unicode. К выбору NAS стоит подходить даже тщательнее, чем к DAS-устройствам, ведь такое оборудование может не поддерживать необходимые вам сервисы, например, Encrypting File Systems (EFS) от Microsoft и IPSec.


К слову можно заметить, что NAS распространены намного меньше, чем устройства SAN, но процент таких систем всё же постоянно, хотя и медленно, растёт – в основном за счёт вытеснения DAS.

Устройства для подключения в SAN (Storage Area Network) – устройства для подключения в сеть хранения данных. Сеть хранения данных (SAN) не стОит путать с локальной сетью – это различные сети. Чаще всего SAN основывается на стеке протоколов FibreChannel и в простейшем случае состоит из СХД, коммутаторов и серверов, объединённых оптическими каналами связи. На рисунке мы видим высоконадёжную инфраструктуру, в которой серверы включены одновременно в локальную сеть (слева) и в сеть хранения данных (справа):



После довольно детального рассмотрения устройств и принципов их функционирования нам будет довольно легко понять топологию SAN. На рисунке мы видим единую для всей инфраструктуры СХД, к которой подключены два сервера. Серверы имеют резервированные пути доступа – в каждом установлено по два HBA (или один двухпортовый, что снижает отказоустойчивость). Устройство хранения имеет 4 порта, которыми оно подключено в 2 коммутатора. Предполагая, что внутри имеется два резервируемых процессорных модуля, легко догадаться, что лучшая схема подключения – когда каждый коммутатор подключён и в первый, и во второй процессорный модуль. Такая схема обеспечивает доступ к любым данным, находящимся на СХД, при выходе из строя любого процессорного модуля, коммутатора или пути доступа. Надёжность СХД нами уже изучена, два коммутатора и две фабрики ещё более увеличивают доступность топологии, так что если из-за сбоя или ошибки администратора один из коммутационных блоков вдруг отказал, второй будет функционировать нормально, ведь эти два устройства не связаны между собой.

Показанное подключение серверов называется подключением с высокой доступностью (high availability), хотя в сервере при необходимости может быть установлено ещё большее число HBA. Физически каждый сервер имеет только два подключения в SAN, однако логически система хранения доступна через четыре пути – каждая HBA предоставляет доступ к двум точкам подключения на СХД, к каждому процессорному модулю раздельно (эту возможность обеспечивает двойное подключение коммутатора к СХД).


На данной схеме самое ненадежной устройство – это сервер. Два коммутатора обеспечивают надежность порядка 99,99%, а вот сервер может отказать по разным причинам. Если необходима высоконадёжная работа всей системы, серверы объединяются в кластер, приведённая схема не требует никакого аппаратного дополнения для организации такой работы и считается эталонной схемой организации SAN. Простейший же случай – серверы, подключённые единственным путем через один свитч к системе хранения. Однако система хранения при наличии двух процессорных модулей должна подключаться в коммутатор как минимум одним каналом на каждый модуль – остальные порты могут быть использованы для прямого подключения серверов к СХД, что иногда необходимо. И не стоит забывать, что SAN возможно построить не только на базе FibreChannel, но и на базе протокола iSCSI – при этом можно использовать только стандартные ethernet-устройства для коммутации, что удешевляет систему, но имеет ряд дополнительных минусов (оговоренных в разделе, рассматривающем iSCSI). Также интересна возможность загрузки серверов с системы хранения – не обязательно даже наличие внутренних жёстких дисков в сервере. Таким образом, с серверов окончательно снимается задача хранения каких-либо данных. В теории специализированный сервер может быть превращён в обычную числодробилку без каких-либо накопителей, определяющими блоками которого являются центральные процессоры, память, а так же интерфейсы взаимодействия с внешним миром, например порты Ethernet и FibreChannel. Какое-то подобие таких устройств являют собой современные blade-серверы.

Хочется отметить, что устройства, которые возможно подключить в SAN, не ограничены только дисковыми СХД – это могут быть дисковые библиотеки, ленточные библиотеки (стримеры), устройства для хранения данных на оптических дисках (CD/DVD и прочие) и многие другие.

Из минусов SAN отметим лишь высокую стоимость её компонент, однако плюсы неоспоримы:

Высокая надёжность доступа к данным, находящимся на внешних системах хранения.


Независимость топологии SAN от используемых СХД и серверов.

Централизованное хранение данных (надёжность, безопасность).

Удобное централизованное управление коммутацией и данными.

Перенос интенсивного трафика ввода-вывода в отдельную сеть, разгружая LAN.

Высокое быстродействие и низкая латентность.

Масштабируемость и гибкость логической структуры SAN

Географически размеры SAN, в отличие от классических DAS, практически не ограничены.

Возможность оперативно распределять ресурсы между серверами.

Возможность строить отказоустойчивые кластерные решения без дополнительных затрат на базе имеющейся SAN.

Простая схема резервного копирования – все данные находятся в одном месте.

Наличие дополнительных возможностей и сервисов (снапшоты, удаленная репликация).

Высокая степень безопасности SAN.

Думаю, мы достаточно полно осветили основной круг вопросов, связанных с современными системами хранения. Будем надеяться, что такие устройства будут ещё стремительнее развиваться функционально, а число механизмов управления данными будет только расти.

В заключение можно сказать, что NAS и SAN-решения в данный момент переживают настоящий бум. Число производителей и разнообразие решений увеличивается, техническая грамотность потребителей растёт. Смело можно предполагать, что в ближайшем будущем практически в каждой вычислительной среде появятся те или иные системы хранения данных.

По оценкам IDC за 2004 год рынок дисковых систем хранения составил почти $21 млрд., из которых более $14 млрд. составляют именно внешние дисковые системы хранения. Если учитывать, что рост рынка в денежном выражении прогнозируется порядка 10% в год, а оборудование и особенно носители постоянно дешевеют – несложно предположить, как стремительно развивается сектор индустрии, ориентированный именно на работу с данными. Любые данные предстают перед нами в виде информации. Смысл работы любых вычислительных устройств – обработка информации. В последнее время объёмы её роста порой пугают, поэтому системы хранения данных и специализированное программное обеспечение, несомненно, будут самым востребованными продуктами IT-рыка в ближайшие годы

Оригинал статьи на

www.ferra.ru"


Часть 2Часть 1

Уровни защиты


Нужно понимать, что в основе всех систем хранения данных лежит практика защиты информации на базе технологии RAID – без этого любая технически продвинутая СХД будет бесполезна, потому что жёсткие диски в этой системе являются самым ненадёжным компонентом. Организация дисков в RAID – это «нижнее звено», первый эшелон защиты информации и повышения скорости обработки.

Однако, кроме схем RAID, существует и более низкоуровневая защита данных, реализованная «поверх» технологий и решений, внедрённых в сам жёсткий диск его производителем. К примеру, у одного из ведущих производителей СХД – компании ЕМС – существует методика дополнительного анализа целостности данных на уровне секторов накопителя. Секторы на жёстких дисках, установленных в системы хранения данных ЕМС, имеют размер не 512 байт (стандарт), а 520 байт – лишние 8 байт на каждый сектор играют роль своеобразной базы данных, куда СХД записывает информацию о «здоровье» каждого сектора (данная методика, насколько известно, не применяется больше ни у одного производителя).

Как известно, у жёстких дисков с интерфейсом IDE существует технология SMART, призванная предсказывать возможные проблемы в работе диска, которая зачастую работает очень неточно, что сводит её ценность практически к нулю. У дисков же, использующихся в серьёзных СХД (диски SCSI и FibreChannel), изначально не было технологии SMART – поэтому оценка целостности и верификация данных каждого конкретного сектора – большой плюс, позволяющий дополнительно защитить данные и уведомить администратора системы о возможных проблемах задолго до момента их реального наступления.

Жёсткий диск может быть и исправен, но обладать так называемыми проблемами «мягких ошибок» («soft errors») – когда данные в секторе записаны корректно, но чтение их может давать различный результат. Такой вариант неприемлем, но «remap» (подмена) такого сектора средствами самого жёсткого диска не происходит – в этом случае и спасает технология анализа каждого сектора, применяемая у EMC.



«Перпендикулярный» моментус


Евгений Патий

"Экспресс Электроника"

Окончательно утвердившись во второй раз на рынке жестких дисков для портативных компьютеров, компания Seagate столкнулась с типичным для этого класса устройств парадоксом: емкость накопителей для ноутбуков существенно отстает от емкости дисков для настольных ПК и серверов. «Виновником» здесь выступает целый ряд причин, важнейшая из которых обусловлена миниатюрным форм-фактором жестких дисков — если в лагере 3,5-дюймовых накопителей еще худо-бедно можно было «размахнуться», то 2,5-дюймовые винчестеры для ноутбуков приблизились к технологическому пределу, ограничившему емкость этих дисков на отметке 100-120 Гбайт. Далее двигаться по проторенной дорожке нельзя — законы физики незыблемы.

Жесткий диск для ноутбука вообще представляет собой достаточно специфическое устройство. Пользователю требуется и достойный объем, и как можно меньшее энергопотребление, и приемлемая производительность, и низкий уровень шума. Компании-производителю не остается ничего иного, как искать удовлетворяющий всем этим требованиям компромисс, параллельно наращивая объемы производства, выходя на новые рынки и внедряя инновационные технологии. Казалось бы, все перипетии «устаканились» — скорость дисков позволяет не краснеть перед пользователями, расслышать звук работающего винчестера уже трудно, а энергопотребление накопителя позволяет ноутбуку уверенно продержаться в автономном режиме весьма продолжительное время. Остается первый в списке и первый по значимости фактор — объем. Тем более, последние веяния в IТ-индустрии ставят пользователя перед фактом: жесткий диск должен быть емким, ведь иначе негде хранить документы, оцифрованные аудио- и видеозаписи, фото с цифровых камер.

Но Seagate не была бы Seagate, если бы первой не осуществила заход с фланга. Если уж нельзя наращивать объем винчестера «в лоб», опираясь на отлаженные годами технологии, следует кое-что принципиально изменить. Этот маневр стал успешным благодаря новой разработке, технологии перпендикулярной записи (Perpendicular Magnetic Recording — PMR), о которой компания распространяла различные сведения уже достаточно давно.
А некоторое время назад стало известно, что разведка боем пройдет именно в сегменте жестких дисков для портативных ПК — и в настоящей статье мы знакомимся с дебютным продуктом, накопителем Seagate Momentus 5400.3 емкостью 160 Гбайт.

Наш обзор был бы неполным без краткого рассказа о технологии перпендикулярной записи. Жесткий диск похож на музыкальный проигрыватель грампластинок: внутри корпуса расположены стопкой несколько дисков, покрытых слоем вещества с магнитными свойствами, над которыми «летают» головки чтения-записи. На каждый диск приходится две головки, сверху и снизу. Магнитный слой состоит из множества так называемых зерен, способных принимать два состояния, «0» и «1», — это происходит под влиянием магнитного поля, которое создает головка чтения-записи.

Нетрудно догадаться, что объем накопителя обусловлен количеством зерен, которое разработчики уместили на поверхности диска.

При неизменном форм-факторе путь к увеличению объема прост и понятен: разместить как можно больше зерен, что достигается уменьшением их линейных размеров. Однако на определенном этапе, когда размер зерна достигает некоторого предельного значения, возникает довольно неприятный эффект, приводящий к потере стабильности всей электромагнитной конструкции: отдельное зерно может внезапно сменить состояние на противоположное — под влиянием слишком близко расположенных зерен-соседей. Как только одно зерно «сбивается с курса», по цепочке начинают менять состояние соседние зерна, а это приводит к непредсказуемым последствиям с полной порчей записанной на диске информации.

Этот момент еще некоторое время можно было оттянуть в сегменте настольных и серверных накопителей, но на рынке жестких дисков для ноутбуков потребовалось кардинальное решение. Seagate поступила довольно интересно: на поверхность отдельно взятого диска нанесено несколько слоев магнитного вещества, а головка чтения-записи в каждый момент времени работает лишь с одним конкретным слоем. Такая многоэтажная организация получила название технологии перпендикулярной записи.



Будем справедливы, такой метод изобрела не компания Seagate, но она стала первой, кто добился положительных результатов на практике.

Сегодня Seagate представляет полный спектр «перпендикулярных» дисков Momentus со скоростью вращения шпинделя 4200, 5400 и 7200 об/мин и емкостью от 40 до 160 Гбайт. В перспективе компания не видит технологических трудностей для производства мобильных накопителей объемом до 1 Тбайт.

Побывавший у нас на тестировании жесткий диск Seagate ST9160821A оснащен кэш-буфером объемом 8 Мбайт и подключается к контроллеру UltraATA-100 (SATA-версия должна появиться в июне 2006 года). Внутри корпуса заключено два «блина» с четырьмя головками, при этом в каждом секторе диска размещено 512 байт информации. Компания заявляет о времени задержки 5,6 мс и времени поиска на уровне 12,5 мс.



Seagate Momentus 5400.3 ST9160821A

Плюсы:
Большая емкость (160 Гбайт) Высокая производительность

Минусы:
Не выявлено

Для определения производительности накопителя использовался стенд следующей конфигурации:

процессор Intel Pentium 4 3,0 ГГц (533 МГц FSB);

системная плата Albatron P845PEV Pro (чипсет i845);

оперативная память Hynix PC3200 512 Мбайт;

жесткий диск IBM 40 Гбайт UltraATA-100;

операционная система Windows XP Professional SP2 (Eng);

тестовый пакет WinBench’99.

Все замеры производились при условии форматирования Seagate Momentus 5400.3 под файловую систему NTFS. Сравнение проходило на фоне ближайших родственников Momentus 5400.3 — дисков Seagate Momentus 5400.2 (ST9120821A, 120 Гбайт, кэш-буфер 8 Мбайт, 5400 об/мин) и Seagate Momentus 7200.1 (ST910021A, 100 Гбайт, кэш-буфер 8 Мбайт, 7200 об/мин).

Как и ожидалось, Seagate осталась верна своим принципам: новый диск весьма ровно ведет себя во всех тестах. Не так давно это обстоятельство подтвердили и представители компании на CeBIT ‘2006 — нет особых трудностей для достижения рекорда по одному отдельно взятому показателю, но это неизбежно повлечет за собой ухудшение прочих. Тем более это актуально для сегмента мобильных жестких дисков.



Жесткий диск Seagate ST9160821A Seagate ST9120821A Seagate ST910021A
Business Disk WinMark, кбайт/с 30 400 33 400 31 100
High-End Disk WinMark, кбайт/с 13 500 13 500 12 800
Data Transfer (Beginning), байт/с 24 300 20 000 28 400
Data Transfer (End), кбайт/с 44 800 36 500 47 700
Disk Access Time, мс 17 16,6 15,1
Таблица Результаты тестов

Momentus 5400.3 прежде всего интересен своим объемом, но при этом и его производительность находится на высоком уровне. Кроме того, «перпендикулярный» Momentus — это начало новой эпохи, когда сдерживать емкость жестких дисков не придется очень долгое время.

За предоставленное оборудование редакция журнала "Экспресс Электроника" благодарит агентство East Side Consulting GmbH.


и открывается каталог, который содержит


В этом тесте находится и открывается каталог, который содержит 155 файлов формата JPG. Затем все файлы конвертируются в формат PCX. Процедура повторяется несколько раз, причем каждый раз меняется тип формата, в который преобразуются JPG-файлы: GIF, BMP, TIFF, TGA, PNG.

Для винчестера производства Seagate прирост производительности в этом приложении при использовании RAID-массива составил около 5%. Причем показатели всех RAID’ов почти не отличаются — вне зависимости от значения strip size.

Совсем другая картина наблюдается с представителем WD. Во-первых, отчетливо видна разница в производительности у RAID-массивов с разными значениями strip size. Худший результат у массива с размером блока 128 Кб. При переходе на 64 Кб производительность возрастает на 2%, а для блока размером 16 Кб прирост равен почти 5%.

Что же касается сравнения одиночного диска с RAID-массивом, то здесь разница еще более существенна: дисковая подсистема с 16-килобайтным блоком обогнала безрэйдовый вариант более чем на 10% — а это уже можно назвать хорошим приростом.


В ходе тестирования открывается демонстрационный


В ходе тестирования открывается демонстрационный проект Z-TOUR, который содержит аудиоклип и различные видеоклипы. Выполняется рендеринг проекта. Затем проект экспортируется в форматы DVAVI, FLC и FLM, после чего пролистывается приблизительно на 500 кадров вперед, а затем назад. Последняя операция (пролистывание) выполняется дважды. Наконец, проект с измененными настройками (широкий экран) экспортируется в формат DVAVI.

Среди RAID-массивов лучшее время показала система с размером блока 16 Кб. В этом тесте преимущество системы с RAID’ом над системой с одиночным диском оказалось не таким значительным, как в предыдущем тестировании. Для винчестеров Seagate прирост составил чуть меньше 3%, а для накопителей производства WD производительность возросла на 3,5%.


В ходе данного теста создается


В ходе данного теста создается проект, состоящий из файлов общим объемом около 538 Мб, и записывается восемь изображений (image) этого проекта в формате ISO.

Вот это уже действительно похоже на реальный прирост производительности. У систем, построенных на винчестерах производства WD, разница составила почти 16%. Зато RAID-массив, составленный из накопителей Seagate, обогнал одиночный винчестер того же производителя почти на 22%, что, согласитесь, довольно солидно.


Что такое RAID?


Сразу стоит заметить, что RAID это не средство от насекомых (как кто-то мог подумать), которое "убивает тараканов насмерть". На самом деле эта аббревиатура расшифровывается как Redundant Array of Independent Disks — избыточный массив независимых дисков. Изначально RAID расшифровывался как Redundant Array of Inexpensive Disks — избыточный массив недорогих дисков. Под недорогими подразумевались диски, предназначенные для использования в ПК,— в противовес дорогим дискам для мэйнфреймов. Но так как в RAID-массивах стали использовать SCSI-винчестеры, которые были существенно дороже применяемых в большинстве компьютеров дисков IDE, слово "недорогой" было заменено на "независимый".

Принцип функционирования RAID-системы заключается в следующем: из набора дисковых накопителей создается массив, который управляется специальным контроллером и определяется компьютером как единый логический диск большой емкости. За счет параллельного выполнения операций ввода-вывода обеспечивается высокое быстродействие системы, а повышенная надежность хранения информации достигается дублированием данных или вычислением контрольных сумм. Следует отметить, что применение RAID-массивов защищает от потерь данных только в случае физического отказа жестких дисков.

Различают несколько основных уровней RAID-массивов: RAID 0, 1, 2, 3, 4, 5, 6, 7. Также существуют комбинированные уровни, такие как RAID 10, 0+1, 30, 50, 53 и т.п. Рассмотрим вкратце принципы функционирования, достоинства и недостатки основных уровней.



Intel Storage Utility


Подготовка к созданию массива и настройка параметров производится с помощью понятного "визарда" и проходит в шесть шагов.

Шаг 1

Приветствие. Описание того места, куда вы попали, и того, что вам здесь предлагают сделать. Указывается, что на превращение ваших дисков в RAID-массив понадобится до двух часов — в зависимости от размера винчестеров. Пользователь также извещается о том, что процесс будет проходить в фоновом режиме, то есть во время превращения можно продолжать работать с компьютером.

Шаг 2

Здесь нужно указать имя тома (как именно RAID-массив будет отображаться в системе). Выбор уровня — 0 или 1. Для "нулевого" уровня выбирается размер блока (strip size). На этот этап нужно обратить особое внимание, поскольку производительность RAID 0 сильно зависит от выбранного размера блока. Для выбора оптимального показателя, мы тестировали массив с разными значениями strip size.

Шаг 3

Выбор источника данных, то есть винчестера, на котором установлена система. С этого накопителя информация будет дублироваться (RAID 1) или частично копироваться (распределятся между HDD — для RAID 0).

Шаг 4

Выбор второго участника массива. На этот HDD будет копироваться информация с источника. (Предупреждение! все данные на выбранном винчестере будут удалены.)

Шаг 5

Выбор размера массива. При создании двух RAID'ов на двух дисках (0 и 1) первым обязательно должен быть "нулевой" уровень — и никак не наоборот: при установке сначала RAID 1 используется сразу все дисковое пространство и на RAID 0 ничего не остается. Размер массива "нулевого" уровня должен составлять не менее 50% общего дискового пространства.

Шаг 6

Завершение подготовки и начало миграции данных с источника на второй диск.

После выполнение всех шести шагов на экране появляется окно состояния прогресса. Во время преобразования действительно можно работать с другими приложениями — процесс создания массива практически не сказывается на работе системы.



Как видно из результатов, прирост


Как видно из результатов, прирост производительности в реальных приложениях оказался не столь значительным, как в теоретических тестах. Понятно, что мы протестировали лишь некоторые программы из широчайшего спектра ПО. Можно предположить, что существенный прирост производительности будет наблюдаться, например, при использовании RAID-массива для обработки больших объемов аудио- или видеофайлов.
Не будем забывать также, что мы тестировали не просто RAID, а дисковый массив, построенный при помощи технологии Intel Matrix Storage Technology. При использовании этой технологии, помимо прироста производительности, мы получаем еще и другие преимущества. Во-первых, дешевый (почти даровой) RAID-контроллер, встроенный в материнскую плату. Во-вторых, возможность построения на двух HDD двух массивов: RAID 0 для повышения производительности системы и RAID 1 для надежности хранения информации. В-третьих, имеем утилиту Intel Storage Utility, с помощью которой можно легко и просто создать RAID-массив на основе уже работающего винчестера, не потеряв при этом существующие данные.
И в заключение отметим, что Intel Matrix Storage Technology — это интересная и перспективная технология, которая найдет свое применение как в домашних рабочих станциях, так и в серверах начального уровня.
Редакция благодарит за предоставленное для тестирования оборудование компании:
ELKO (www.elko.kiev.ua) EAST SIDE Consulting (www.east-side-consulting.de) представительство Intel (www.intel.ua)

<


<


<




This Web server launched on February 24, 1997

Copyright © 1997-2000 CIT, © 2001-2009 CIT Forum


Внимание! Любой из материалов, опубликованных на этом сервере, не может быть воспроизведен в какой бы то ни было форме и какими бы то ни было средствами без письменного разрешения владельцев авторских прав. Подробнее...


Предлагаем инфракрасные потолочные обогреватели по ценам производителя.


Striped Disk Array without Fault


Дисковый массив без отказоустойчивости ( Striped Disk Array without Fault Tolerance)

Дисковый массив без избыточного хранения данных. Информация разбивается на блоки, которые одновременно записываются на отдельные диски, что обеспечивает повышение производительности. Такой способ хранения информации ненадежен, поскольку поломка одного диска приводит к потере всей информации, поэтому уровнем RAID как таковым не является.




RAID 0 – дешевый и производительный, но ненадежный

За счет возможности одновременного ввода/вывода с нескольких дисков массива RAID 0 обеспечивает максимальную скорость передачи данных и максимальную эффективность использования дискового пространства, так как не требуется места для хранения контрольных сумм. Реализация этого уровня очень проста. RAID 0, как правило, применяется в тех областях, где требуется быстрая передача большого объема данных. Для реализации массива требуется не меньше двух винчестеров.

Преимущества:

наивысшая производительность в приложениях, требующих интенсивной обработки запросов ввода/вывода и данных большого объема; простота реализации; низкая стоимость; максимальная эффективность использования дискового пространства — 100%.

Недостатки:

не является "настоящим" RAID'ом, поскольку не поддерживает отказоустойчивость; отказ одного диска влечет за собой потерю всех данных массива.


В простейшем случае два накопителя


Дисковый массив с зеркалированием (Mirroring & Duplexing) Дисковый массив с дублированием информации (зеркалированием данных). В простейшем случае два накопителя содержат одинаковую информацию и являются одним логическим диском. При выходе из строя одного диска его функции выполняет другой. Для реализации массива требуется не меньше двух винчестеров.

RAID 1 – простейший отказоустойчивый массив Преимущества:



простота реализации; простота восстановления массива в случае отказа (копирование).

Недостатки:

высокая стоимость — 100-процентная избыточность; невысокая скорость передачи данных.


Hamming code) для коррекции ошибок.


Отказоустойчивый дисковый массив с использованием кода Хемминга (Hamming Code ECC)

Схема резервирования данных с использованием кода Хэмминга ( Hamming code) для коррекции ошибок. Поток данных разбивается на слова — причем размер слова соответствует количеству дисков для записи данных. Для каждого слова вычисляется код коррекции ошибок, который записывается на диски, выделенные для хранения контрольной информации. Их число равно количеству бит в слове контрольной суммы.


RAID 2 не получил коммерческого применения

Если слово состоит из четырех бит, то под контрольную информацию отводится три диска. RAID 2 — один из немногих уровней, позволяющих обнаруживать двойные ошибки и исправлять "на лету" одиночные. При этом он является самым избыточным среди всех уровней с контролем четности. Эта схема хранения данных не получила коммерческого применения, поскольку плохо справляется с большим количеством запросов.

Преимущества:

достаточно простая реализация; коррекция ошибок "на лету"; очень высокая скорость передачи данных; при увеличении количества дисков накладные расходы уменьшаются.

Недостатки:

низкая скорость обработки запросов; высокая стоимость; большая избыточность.


и диском контроля четности. Поток


Отказоустойчивый дисковый массив с параллельной передачей данных и четностью (Parallel Transfer Disks with Parity) Отказоустойчивый массив с параллельным вводом/выводом данных и диском контроля четности. Поток данных разбивается на порции на уровне байт (хотя возможно и на уровне бит) и записывается одновременно на все диски массива, кроме одного. Один диск предназначен для хранения контрольных сумм, вычисляемых при записи данных. Поломка любого из дисков массива не приведет к потере информации.

В RAID 3 информация разбивается на порции одинакового размера
Этот уровень имеет намного меньшую избыточность, чем RAID 2. Во втором рэйде большинство дисков, хранящих контрольную информацию, нужны для определения неисправного разряда. Как правило, RAID-контроллеры могут получить данные об ошибке с помощью механизмов отслеживания случайных сбоев. За счет разбиения данных на порции RAID 3 имеет высокую производительность. Поскольку при каждой операции ввода/вывода производится обращение практически ко всем дискам массива, то одновременная обработка нескольких запросов невозможна. Этот уровень подходит для приложений с файлами большого объема и малой частотой обращений (в основном это сфера мультимедиа). Использование только одного диска для хранения контрольной информации объясняет тот факт, что коэффициент использования дискового пространства достаточно высок (как следствие этого — относительно низкая стоимость). Для реализации массива требуется не меньше трех винчестеров. Преимущества:



отказ диска мало влияет на скорость работы массива; высокая скорость передачи данных; высокий коэффициент использования дискового пространства.

Недостатки:

сложность реализации; низкая производительность при большой интенсивности запросов данных небольшого объема.


Independent Data Disks with Shared


Отказоустойчивый массив независимых дисков с общим диском четности ( Independent Data Disks with Shared Parity Disk) Этот массив очень похож на уровень RAID 3. Поток данных разделяется не на уровне байтов, а на уровне блоков информации, каждый из которых записывается на отдельный диск. После записи группы блоков вычисляется контрольная сумма, которая записывается на выделенный для этого диск. 

В RAID 4 поток данных разделяется на блоки
У RAID 4 возможно одновременное выполнение нескольких операций чтения. Этот массив повышает производительность передачи файлов малого объема (за счет распараллеливания операции считывания). Но поскольку при записи должна изменяться контрольная сумма на выделенном диске, одновременное выполнение операций невозможно (налицо асимметричность операций ввода и вывода). Этот уровень имеет почти все недостатки RAID 3 и не обеспечивает преимущества в скорости при передаче данных большого объема. Схема хранения разрабатывалась для приложений, в которых данные изначально разбиты на небольшие блоки, поэтому нет необходимости разбивать их дополнительно. Эта схема хранения данных имеет невысокую стоимость, но ее реализация достаточно сложна, как и восстановление данных при сбое. Преимущества:



высокая скорость передачи данных; отказ диска мало влияет на скорость работы массива; высокий коэффициент использования дискового пространства.

Недостатки:

достаточно сложная реализация; очень низкая производительность при записи данных; сложное восстановление данных.

Продолжение


<


<


<


/p>


This Web server launched on February 24, 1997

Copyright © 1997-2000 CIT, © 2001-2009 CIT Forum
Внимание! Любой из материалов, опубликованных на этом сервере, не может быть воспроизведен в какой бы то ни было форме и какими бы то ни было средствами без письменного разрешения владельцев авторских прав. Подробнее...
Лучшее предложение: ифнс 13 юридический адрес приобрести по специальной цене.


Independent Data Disks with Distributed


Отказоустойчивый массив независимых дисков с распределенной четностью ( Independent Data Disks with Distributed Parity Blocks) Самый распространенный уровень. Блоки данных и контрольные суммы циклически записываются на все диски массива, отсутствует выделенный диск для хранения информации о четности, нет асимметричности конфигурации дисков. В случае RAID 5 все диски массива имеют одинаковый размер — но один из них невидим для операционной системы. Например, если массив состоит из пяти дисков емкостью 10 Гб каждый, то фактически размер массива будет равен 40 Гб — 10 Гб отводится на контрольные суммы. В общем случае полезная емкость массива из N дисков равна суммарной емкости N–1 диска.

В RAID 5 отсутствует выделенный диск для хранения информации о четности Самый большой недостаток уровней RAID от 2-го до 4-го — это наличие отдельного диска (или дисков), хранящего информацию о четности. Скорость выполнения операций считывания достаточно высока, так как не требует обращения к этому диску. Но при каждой операции записи на нем изменяется информация, поэтому схемы RAID 2-4 не позволяют проводить параллельные операции записи. RAID 5 не имеет этого недостатка, так как контрольные суммы записываются на все диски массива, что делает возможным выполнение нескольких операций чтения или записи одновременно. RAID 5 имеет достаточно высокую скорость записи/чтения и малую избыточность. Преимущества:

высокая скорость записи данных; достаточно высокая скорость чтения данных; высокая производительность при большой интенсивности запросов чтения/записи данных; высокий коэффициент использования дискового пространства.

Недостатки:



низкая скорость чтения/записи данных малого объема при единичных запросах; достаточно сложная реализация; сложное восстановление данных.


с двумя независимыми распределенными схемами




Отказоустойчивый массив независимых дисков с двумя независимыми распределенными схемами четности (Independent Data Disks with Two Independent Distributed Parity Schemes)

RAID 6 — это отказоустойчивый массив независимых дисков с распределением контрольных сумм, вычисленных двумя независимыми способами. Этот уровень во многом схож с RAID 5. Только в нем используется не одна, а две независимые схемы контроля четности, что позволяет сохранять работоспособность системы при одновременном выходе из строя двух накопителей. Для вычисления контрольных сумм в RAID 6 используется алгоритм, построенный на основе кода Рида-Соломона (Reed-Solomon).



RAID 6 использует две независимые схемы контроля четности

Этот уровень имеет очень высокую отказоустойчивость, большую скорость считывания (данные хранятся блоками, нет выделенных дисков для хранения контрольных сумм). В то же время из-за большого объема контрольной информации RAID 6 имеет низкую скорость записи. Он очень сложен в реализации, характеризуется низким коэффициентом использования дискового пространства: для массива из пяти дисков он составляет всего 60%, но с ростом числа дисков ситуация исправляется.

RAID 6 по многим характеристикам проигрывает другим уровням, поэтому на сегодня не получил коммерческого применения.

Преимущества:

высокая отказоустойчивость; достаточно высокая скорость обработки запросов;

Недостатки:

низкая скорость чтения/записи данных малого объема при единичных запросах; очень сложная реализация; сложное восстановление данных; низкая скорость записи данных.




Отказоустойчивый массив, оптимизированный для повышения


Отказоустойчивый массив, оптимизированный для повышения производительности (Optimized Asynchrony for High I/O Rates as well as High Data Transfer Rates)

В отличие от других уровней, RAID 7 не является открытым индустриальным стандартом — это зарегистрированная торговая марка компании Storage Computer Corporation. Массив основывается на концепциях, использованных в третьем и четвертом уровнях. Добавилась возможность кэширования данных. В состав RAID 7 входит контроллер со встроенным микропроцессором под управлением операционной системы реального времени (real-time OS). Она позволяет обрабатывать все запросы на передачу данных асинхронно и независимо.


RAID 7 – зарегистрированная торговая марка компании Storage Computer Corporation

Блок вычисления контрольных сумм интегрирован с блоком буферизации; для хранения информации о четности используется отдельный диск, который может быть размещен на любом канале. RAID 7 имеет высокую скорость передачи данных и обработки запросов, хорошую масштабируемость. Самым большим недостатком этого уровня является стоимость его реализации.

Преимущества:

очень высокая скорость передачи данных и высокая скорость обработки запросов (в 1,5…6 раз выше других стандартных уровней RAID); хорошая масштабируемость; значительно возросшая (благодаря наличию кэша) скорость чтения данных небольшого объема; отсутствие необходимости в дополнительной передаче данных для вычисления четности.

Недостатки:

собственность одной компании; сложность реализации; очень высокая стоимость на единицу объема; не может обслуживаться пользователем; необходимость использования блока бесперебойного питания для предотвращения потери данных из кэш-памяти; короткий гарантийный срок.


RAID-массивы начального уровня


Владимир Барановский. Компьютеры+Программы

Продолжение

Содержание


Владимир Барановский. Компьютеры+Программы

Содержание:

Что такое RAID?

RAID 0

RAID 1

RAID 2

RAID 3

RAID 4

RAID 5

RAID 6

RAID 7

Тестирование

Intel Storage Utility

Результаты тестирования

Итоги

Существует несколько различных способов по увеличению производительности компьютера. Можно, например, "разогнать" центральный процессор или видеокарту. А можно построить систему на базе RAID-массива.

Что нужно для построения RAID-массива? Прежде всего, RAID-контроллер и, как минимум, два жестких диска (в зависимости от уровня — например, для массива RAID 5 требуется не менее трех HDD).

До недавнего времени RAID-технологии были прерогативой серверного сегмента рынка. Но ситуация начала потихоньку меняться после того как производители стали интегрировать RAID-контроллеры на несерверные материнские платы. А ведь и правда — почему бы не использовать то, что достается практически даром.

И вот пользователь уже практически созрел, уже почти решился на то, чтобы установить-таки на своем родном ПК этот манящий "шаровой" RAID. И тут же натыкается на проблему выбора. При малых затратах, то есть при использовании двух жестких дисков, нужно выбирать между производительностью и надежностью хранения информации — использовать RAID 0 или RAID 1. А если пользователь хочет получить и скорость и надежность, придется раскошеливаться на четыре накопителя. Мало кто согласится на такие расходы для домашней системы, да и не каждый корпус сможет разместить четыре винчестера.

Эту проблему попыталась решить компания Intel в своих чипсетах нового поколения — i915 и i925. В южный мост ICH6R встроена уникальная технология Intel Matrix Storage Technology, которая позволяет на базе двух жестких дисков построить два разных RAID-массива ("нулевого" и "первого" уровней).

Впрочем, не будем слишком углубляться в технологии. Начнем лучше с азов — проведем небольшой ликбез по RAID.



Результаты тестирования


Сначала измерялись теоретические параметры системы — как построенной на одиночном винчестере, так и на RAID-массиве "нулевого" уровня. Как и предполагалось, RAID почти вдвое превосходит "простой" накопитель.

Протестировав системы программой Aida32, мы получили вполне логичные результаты. Скорость чтения у винчестера производства WD равна приблизительно 50 Мб/с, а у "нулевого" RAID-массива, построенного на двух таких накопителях, этот параметр составляет около 97 Мб/с. Похожие результаты показал и представитель Seagate: 46 Мб/с для одиночного варианта и 90 Мб/с в случае с RAID’ом.

Но это все теория, а как оно будет на практике? Для реального тестирования мы использовали пакет WorldBench 5, в состав которого входит множество популярных приложений. Однако, хотя программ в состав пакета входит действительно много, не у всех быстродействие реально зависит от дисковой системы.



Тестирование


С теорией немного разобрались — перейдем к практике.

В качестве основы тестовой системы мы использовали материнскую плату Intel D925XCV, в южный мост которой встроена поддержка Intel Matrix Storage Technology.

Конфигурация стенда включала также:

процессор Intel P4 3,6 ГГц; оперативную память Micron DDR2-533 512 Мб; видеоадаптер ATI Radeon X300 128 Мб.

Эффективность RAID-массива тестировали на двух разных парах винчестеров:

Seagate Barracuda 7200.7 SATA NCQ емкостью 160 Гб (ST3160827AS); WD Caviar SE Serial ATA емкостью 120 Гб (WD1200JD).

Тестирование проводилось под операционной системой MS Windows XP Professional ENG SP1.

Как уже упоминалось выше, встроенная технология Intel Matrix Storage Technology позволяет создавать RAID-массивы "нулевого" и "первого" уровней. Причем всего на двух винчестерах можно построить RAID 0 и RAID 1. Для этого на обоих накопителях симметрично выделяется часть пространства под один массив, а часть — под другой.

Понятно, что для измерения производительности мы тестировали системы, построенные на основе RAID-массива "нулевого" уровня. Но также создавали и два массива. На таких конструкциях проводились испытания отказоустойчивости RAID 1, построенного с использованием технологии Intel Matrix Storage Technology. Испытания прошли успешно. При имитации выхода из строя одного HDD (винчестер просто отключался от системы) информация сохранялась на "уцелевшем" накопителе. А после подсоединения другого исправного винчестера можно легко восстановить исходное состояние RAID-массива "первого" уровня.

Но сейчас нас больше интересует RAID 0. Для установки и настройки этого RAID'а существует два пути.

Первый: создать массив с помощью RAID BIOS'а и установить ОС на него. При этом важно не пропустить при инсталляции системы момент, когда со специальной дискеты нужно установить драйвер RAID-контроллера, без которого установщик Windows просто не увидит винчестеры.

Для пользователей, которые привыкли к более удобному "дружественному" графическому интерфейсу, больше подойдет второй способ. Система устанавливается как обычно. Потом в BIOS'е включается поддержка RAID, после чего под Windows устанавливается специальная утилита Intel Storage Utility. С ее помощью можно легко и просто создать RAID-массив, не потеряв при этом существующие данные.



В этом тесте создается пять


В этом тесте создается пять ZIP-архивов (приблизительно по 538 Мб каждый). Здесь мы наблюдаем, хотя и не столь значительный, как предыдущем тестировании, но все же вполне ощутимый прирост производительности. Для систем построенных на винчестерах WD разница составила почти 6%. У RAID-массива на основе накопителей Seagate прирост равен 8,5%.



См. таблицы с результатами тестирования.