Big Data в России: оцениваем возможности и риски
Бизнес все чаще оперирует огромными объемами неструктурированных данных – именно здесь мы встречаем термин Big Data. Сегодняшнее положение дел ставит компании на перепутье – начать использовать специальные решения из этой области прямо сейчас или, опасаясь рисков, отложить на перспективу. О том, в чем плюсы и минусы обоих вариантов, а также о существующем ПО и успешных проектах говорили участники круглого стола "Big Data: возможность или необходимость", организованного CNews Analytics и CNews Conferences.
Андрей Сапронов: Хранилищами становятся не традиционные СХД, а стандартизованные под задачи серверы
Андрей Сапронов, технический директор компании ETegro Technologies, рассказал, как парадигма Big Data влияет на серверную составляющую ИТ-инфраструктуры.
CNews: Как изменяются требования к ИТ-инфраструктуре в эпоху Big Data?
Андрей Сапронов: Развитие новых подходов к обработке и хранению больших объемов данных действительно изменяет требования и идеологию аппаратной части – на первый план выходят стандартизация и универсальность. В проектах Big Data речь идет о нескольких десятках серверов или стоек. Клиентам нужны универсальные строительные блоки для инфраструктуры.
Серверы в таких проектах часто делят на вычислительные и серверы хранения. В каждом случае необходимо соблюсти баланс между стоимостью, надежностью, гибкостью и распределением вычислительных ресурсов, и при этом унифицировать парк оборудования.
Мы выпускаем серию вычислительных серверов размера 1U, которая включает модель ETegro Hyperion RS125 G4 для облачных решений и универсальные серверы ETegro Hyperion RS130 G4, ETegro Hyperion RS160 G4p. Применяя собственную технологию дочерних плат расширения, мы реализовали гибкость выбора внешних и внутренних интерфейсов при общей стандартизации архитектуры серверов четверного поколения.
Для серверов хранения в Big Data важен баланс между вычислительной мощностью и количеством дисков, так как в подобных проектах предполагается обработка данных непосредственно в месте хранения. Так, в одном проекте необходимо 12 дисков на два процессора, в другом – уже до 36 дисков.
CNews: Какие новые решения и технологии актуальны для работы с большими данными?
Андрей Сапронов: Новые подходы наиболее заметны в построении узлов хранения. Смена парадигмы заключается в том, что хранилищами выступают не традиционные СХД, а стандартизованные под задачи серверы.
Мы сделали ставку на серверы 2U с максимальной плотностью размещения дисков (до 35 дисков 3.5”). Они построены на единой платформе и поддерживают те же дочерние платы и технологии, что и вычислительные серверы.
Отдельно хочется выделить две модели, которые разработаны для проектов Big Data. Это 2U-сервер ETegro Hyperion RS220 G4 с 18 дисками 3.5” и двумя внутренними 2.5” и система максимальной плотности в корпусе 4U – ETegro Hyperion RS430 G4. В ней размещено 2 отдельных двухпроцессорных узла с поддержкой до 35 дисков 3.5” и двух дисков 2.5”. В полной комплектации получаем 74 диска с горячей заменой и доступом к каждому диску.
Если рассматривать инфраструктуру на уровне датацентров, то строительными блоками будут являться готовые стойки – ETegro Therascale. Для коммуникации внутри ЦОД мы выпускаем маршрутизирующие коммутаторы: ETegro Aegis RS200 (1/10Gbps top-on-rack решение) и ETegro Aegis RS200 10G (магистральное 10Gbps-решение) и в ближайшее время представим решения для 40Gbps.
CNews: Насколько восприимчив к таким решениям отечественный рынок?
Андрей Сапронов: Рынок Big Data в России пока только формируется, но наши решения уже доступны, и мы ведем их апробацию у стратегических клиентов.