Гибкость или масштаб данных
На протяжении десятилетий стратегия управления данными определялась в условиях выбора: централизовать – децентрализовать, консолидировать – распределять, управление основными данными – аналитические песочницы, дата-центры – облачные хранилища. Каждое колебание – это длительная дорогостоящая миграция. Предприятиям нужны гибкие данные для реагирования на меняющиеся возможности и угрозы и масштабность данных для передачи автоматизированным системам и бизнес-группам безопасной, последовательной и качественной информации. Традиционные решения для маневренности или масштабирования очень различаются. Так что эти ориентиры стратегий управления данными рассматривались как дилемма.
Гибкость достигалась с помощью интегрированных сред самообслуживания, настроенных на конечных пользователей данных. Департаменты в процессе управления данными распоряжались своими собственными активами данных, инструментами обработки данных, могли в короткие сроки строить аналитические модели и генерировать быстрые идеи. Бизнес-подразделения, пока им не нужно было масштабироваться, любили независимость, преследовали свои приоритеты, уходя от накладных расходов на стандарты корпоративных данных и другую бюрократию. Масштаб был результатом тщательного анализа, проектирования, стандартизации и преобразования. В итоге конструкция могла быть надежной, но весьма непроворной. Задержка при доставке данных в масштабе лишала ценности обеспечение их безопасности и согласованности. В эпоху управления большими данными дихотомия сохраняется. Тем не менее, технология управления большими данными способна создавать сводный каталог данных, поддерживающий всех потребителей данных от ученых-экспертов до аналитиков через доступ к готовым бизнес-данным по требованию. Объединенные платформы самообслуживания обеспечивают защиту данных, а скорость и простота поиска данных в каталоге приводят к повторному использованию лучших источников данных, ускоряя бизнес-аналитику.