Hitachi Data Systems анонсировала платформу для обработки больших данных на базе технологий Pentaho
Корпорация Hitachi Data Systems (HDS), дочернее предприятие Hitachi, Ltd., анонсировала выход высокомасштабируемой платформы нового поколения Hitachi Hyper Scale-Out Platform (HSP). Новое решение предусматривает естественную интеграцию с решением Pentaho Enterprise Platform и предлагает заказчикам создать комплексную программно-определяемую конвергентную платформу для работы с большими данными (Big Data), сообщили CNews в HDS. Опираясь как на мощный вычислительный функционал, так и на возможности хранения данных и виртуализации, платформа HSP серии 400 обеспечивает единую инфраструктуру для поддержки интегрирования больших данных, встроенной бизнес-аналитики и упрощенного управления потоками информации.
HSP предлагает программно-определяемую архитектуру с централизованным хранением и возможностью обработки большого объема данных. Решение также обеспечивает высокую доступность и простоту управления ИТ-системами и предусматривает оплату по мере расширения информационной инфраструктуры (pay-as-you-grow). По словам разработчиков, платформа HSP предоставляется заказчикам в виде полностью сконфигурированного и готового к использованию аппаратно-программного решения: его установка и настройка требует всего нескольких часов. Технология упрощает создание гибкого «Озера» данных (Data Lake), благодаря которому заказчики могут легко интегрировать разрозненные наборы информации и решать сложные аналитические задачи.
Горизонтально масштабируемая архитектура HSP позволяет создать простую наращиваемую инфраструктуру для больших данных, готовую к работе в корпоративной среде. Эта архитектура также включает единый и удобный пользовательский интерфейс, обеспечивающий автоматизацию развертывания и управления виртуализированными средами. Данный интерфейс подходит как для наиболее распространенных открытых платформ работы с большими данными, в том числе Apache Hadoop и Apache Spark, так и для коммерческих стеков решений с открытым исходным кодом, таких как Hortonworks Data Platform (HDP), указали в HDS.
Как уже упоминалось выше, система HSP нового поколения разработана для естественной интеграции с решением Pentaho Enterprise Platform. Объединение технологических ресурсов обеспечивает заказчикам полноценный функционал корпоративного класса, включающий контроль над потоками аналитической информации, отслеживание происхождения и управление жизненным циклом больших данных, а также оптимизированные механизмы обеспечения безопасности информации. Сочетание технологий в рамках аппаратно-программного решения HSP нового поколения призвано ускорить получение ценных аналитических данных для развития бизнеса и обеспечить быструю окупаемость инвестиций (ROI), упростив при этом интеграцию информационных и операционных технологий, подчеркнули в компании.
«Чтобы повысить ценность инвестиций, современным компаниям следует объединять свои информационные (ИТ) и операционные (ОТ) среды. HSP — оптимальное решение для того, чтобы упростить интеграцию ИТ и OT и ускорить получение ценной аналитики и преимуществ для бизнеса от внедрения систем, работающих с большими данными, — отметил Джеймс Диксон (James Dixon), директор по технологиям компании Pentaho. — Программно-аппаратное решение HSP-Pentaho предлагает заказчикам доступные по цене возможности корпоративного класса для унификации всех своих разрозненных наборов данных и рабочих нагрузок, включая устаревшие приложения и хранилища данных. Решение HSP разработано на базе масштабируемой сверхконвергентной платформы, позволяющей снизить сложность информационной среды. Мы рады совместно с HDS работать над созданием упрощенной универсальной технологии, объединяющей вычислительные возможности с функциями аналитики и соответствующей требованиям завтрашнего дня. Платформа Hitachi Hyper Scale-Out Platform 400 — это первый важный шаг к упрощению всего процесса анализа данных».
Как отмечается, выпуск HSP продолжает собой реализацию стратегии Hitachi по созданию программно-определяемого центра обработки данных для упрощения предоставления ИТ-услуг. Подобное упрощение станет возможным за счет дополнительного абстрагирования от инфраструктуры, расширения возможностей доступа к данным и автоматизации. Изначально решение было ориентировано исключительно на аналитику больших данных. Однако в перспективе развитие HSP будет направлено на достижение оптимальных показателей совокупной стоимости владения (TCO) для самых разных ИТ-нагрузок, рассказали в компании. Hitachi предложит заказчикам два варианта конфигурации HSP, поддерживающих широкий ряд корпоративных приложений с различными требованиями к производительности: первый, с дисками Serial Attached SCSI (SAS), доступными уже сейчас, и второй, целиком построенный на базе флэш-памяти, поставки которой планируется начать в середине 2016 г.
«Мы часто слышим от наших корпоративных заказчиков, что их главные проблемы — разрозненность массивов данных и сложность инфраструктур — только увеличиваются при внедрении масштабируемых решений и систем для анализа больших данных. Мы решали задачи заказчиков в течение многих лет, и сегодня накопленный опыт наконец позволил нам создать новую архитектуру, реализованную на платформе Hitachi Hyper Scale-Out Platform, — рассказал Шон Моузер (Sean Moser), старший вице-президент по управлению глобальным ассортиментом решений и продуктами Hitachi Data Systems. — Наше аппаратно-программное решение HSP обеспечивает облачную инфраструктуру для внедрения систем анализа больших данных, готовую к работе с “Интернетом вещей”. Кроме того, решение предусматривает оплату по фактическому использованию и может быть масштабировано по мере роста бизнеса. Естественная интеграция с платформой Pentaho позволит заказчикам быстрее заставить работать свои данные из ИТ- и ОТ-систем. Это лишь первое в ряду множества синергетических решений, которые планируют совместно выпустить Hitachi и Pentaho. Общими усилиями мы помогаем заказчикам реализовать ценность их инвестиций в ИТ и ОТ и ускорить преобразование бизнеса в цифровую форму».