Big Data в России: оцениваем возможности и риски

Бизнес все чаще оперирует огромными объемами неструктурированных данных – именно здесь мы встречаем термин Big Data. Сегодняшнее положение дел ставит компании на перепутье – начать использовать специальные решения из этой области прямо сейчас или, опасаясь рисков, отложить на перспективу. О том, в чем плюсы и минусы обоих вариантов, а также о существующем ПО и успешных проектах говорили участники круглого стола "Big Data: возможность или необходимость", организованного CNews Analytics и CNews Conferences.

страницы:

Андрей Сапронов: Хранилищами становятся не традиционные СХД, а стандартизованные под задачи серверы

Андрей Сапронов, технический директор компании ETegro Technologies, рассказал, как парадигма Big Data влияет на серверную составляющую ИТ-инфраструктуры.

CNews: Как изменяются требования к ИТ-инфраструктуре в эпоху Big Data?

Андрей Сапронов: Развитие новых подходов к обработке и хранению больших объемов данных действительно изменяет требования и идеологию аппаратной части – на первый план выходят стандартизация и универсальность. В проектах Big Data речь идет о нескольких десятках серверов или стоек. Клиентам нужны универсальные строительные блоки для инфраструктуры.

Серверы в таких проектах часто делят на вычислительные и серверы хранения. В каждом случае необходимо соблюсти баланс между стоимостью, надежностью, гибкостью и распределением вычислительных ресурсов, и при этом унифицировать парк оборудования.

Мы выпускаем серию вычислительных серверов размера 1U, которая включает модель ETegro Hyperion RS125 G4 для облачных решений и универсальные серверы ETegro Hyperion RS130 G4, ETegro Hyperion RS160 G4p. Применяя собственную технологию дочерних плат расширения, мы реализовали гибкость выбора внешних и внутренних интерфейсов при общей стандартизации архитектуры серверов четверного поколения.

Для серверов хранения в Big Data важен баланс между вычислительной мощностью и количеством дисков, так как в подобных проектах предполагается обработка данных непосредственно в месте хранения. Так, в одном проекте необходимо 12 дисков на два процессора, в другом – уже до 36 дисков.

CNews: Какие новые решения и технологии актуальны для работы с большими данными?

Андрей Сапронов: Новые подходы наиболее заметны в построении узлов хранения. Смена парадигмы заключается в том, что хранилищами выступают не традиционные СХД, а стандартизованные под задачи серверы.

Мы сделали ставку на серверы 2U с максимальной плотностью размещения дисков (до 35 дисков 3.5”). Они построены на единой платформе и поддерживают те же дочерние платы и технологии, что и вычислительные серверы.

Отдельно хочется выделить две модели, которые разработаны для проектов Big Data. Это 2U-сервер ETegro Hyperion RS220 G4 с 18 дисками 3.5” и двумя внутренними 2.5” и система максимальной плотности в корпусе 4U – ETegro Hyperion RS430 G4. В ней размещено 2 отдельных двухпроцессорных узла с поддержкой до 35 дисков 3.5” и двух дисков 2.5”. В полной комплектации получаем 74 диска с горячей заменой и доступом к каждому диску.

Если рассматривать инфраструктуру на уровне датацентров, то строительными блоками будут являться готовые стойки – ETegro Therascale. Для коммуникации внутри ЦОД мы выпускаем маршрутизирующие коммутаторы: ETegro Aegis RS200 (1/10Gbps top-on-rack решение) и ETegro Aegis RS200 10G (магистральное 10Gbps-решение) и в ближайшее время представим решения для 40Gbps.

CNews: Насколько восприимчив к таким решениям отечественный рынок?

Андрей Сапронов: Рынок Big Data в России пока только формируется, но наши решения уже доступны, и мы ведем их апробацию у стратегических клиентов.

страницы: