Статья опубликована в № 4365 от 18.07.2017 под заголовком: Советы консультанта: Как бизнесу извлекать пользу из больших данных

Как бизнесу извлекать пользу из больших данных

Сначала нужно определить типы полезных данных, а потом правильно поставить задачу
Денис Афанасьев, генеральный директор компании CleverData (ГК «Ланит»)

Растущий объем информации и одновременное удешевление вычислений и хранения данных породили понятие больших данных (big data). Речь идет не только о крупных массивах данных, но и о данных, которые обрабатываются с высокой скоростью либо обладают сильной вариативностью. Ваши бизнес-процессы обслуживает какая-либо информационная система, например CRM. Или же у вас есть сайт, работает приложение для смартфонов, а через электронную почту, мессенджеры, телефон в вашу службу поддержки поступают обращения от клиентов. Это означает, что у вас уже есть данные, которые, накопив в достаточном объеме, можно анализировать. Какие же данные могут принести бизнесу пользу?

Транзакционные данные – те данные, которые исторически хранятся в учетных системах и реляционных классических базах данных. Это данные о транзакциях, продажах, складских остатках, изменениях финансового состояния компании. Они наиболее уязвимы к угрозам безопасности и требуют соблюдения конфиденциальности. Изначально IT-индустрия была нацелена на работу именно с этим типом данных, решая вопросы целостности, сохранности, копирования и защиты. Объем данных может быть не очень велик, но из-за того, что эти данные скопились в процессе развития бизнеса и отражают всю хозяйственную деятельность, они в первую очередь используются в аналитических задачах.

 Журналы действий пользователя (веб-логи). Это данные, генерируемые различными сенсорами, датчиками IT-систем, серверами, а также системами статистики веб-сайтов и мобильных приложений. Генерация веб-логов происходит быстро, и таких данных много. Исторически эти данные не обрабатывались, но сейчас благодаря проникновению цифровых технологий они повсеместно используются в аналитических задачах.

 Различные данные из соцсетей, чатов, цифровых каналов коммуникаций, интернета вещей (т. е. данные с различных датчиков).

 Аудио- и видеоданные. Как правило, они слабо структурированы и потому с трудом поддаются анализу, однако обладают большой ценностью. Например, видео с камер в аэропорту можно использовать для предотвращения террористических актов и других чрезвычайных ситуаций, можно также проанализировать поведение пассажиров для улучшения эргономики крупных транспортных узлов.

Методы анализа больших данных основаны на построении автоматизированных аналитических моделей – машинном обучении. С его помощью формируются алгоритмы, которые находят скрытые взаимосвязи, обучаются, помогают строить прогнозы, оптимизируют различные бизнес-процессы. Таким образом можно отработать гораздо большее количество гипотез, чем в состоянии сделать человек.

Модель анализа данных зависит от области применения. Вот примеры.

 Сеть Walmart, насчитывающая более 11 000 магазинов, имеет аналитическую систему Data Café, обрабатывающую около 24 000 запросов в час от 1000 специалистов ритейлера. Их задача – отслеживать ситуацию в магазинах в режиме реального времени и быстро влиять на нее, в частности, оперативно корректировать цены в соответствии с меняющимся поведением клиентов. Кроме того, компания Walmart одной из первых оснастила датчиками машины, перевозящие грузы, и в результате стала получать всю информацию о движении автопарка в режиме реального времени. Это позволило ритейлеру оптимизировать поставки и всю логистику.

 Гипермаркет мебели и товаров для дома Hoff собирает данные о покупателе: о его покупках, действиях на сайте и др. Эта информация используется для формирования персональных предложений клиенту, начиная от акций ко дню рождения до таргетированных предложений на основе анализа покупок и поведения на сайте.

В логистике анализ поступающих от автопарка данных помогает оптимизировать процессы доставки, в медицине большие данные применяют для определения оптимального состава и дозировки лекарств, в авиаперевозках – для профилактики оборудования и предупреждения технических сбоев, в производстве – для моделирования условий эксплуатации и тестирования новых продуктов, в маркетинге – для персонализированных рекламных коммуникаций.

В промышленности технологии анализа больших данных позволяют лучше отслеживать показатели оборудования (на основе информации с датчиков). Многие компании прогнозируют поломку промышленного оборудования или определяют время техосмотра, проанализировав синхронные данные с разных датчиков.

Но как правильно поставить бизнес-задачу для анализа больших данных? Возможны два подхода.

 Сверху вниз. В первую очередь формируется задача: например, организации нужно выявить клиентов, собирающихся уйти, и постараться их удержать. Тогда задача для аналитика заключается в том, чтобы построить прогноз оттока клиентов. Аналитик строит различные гипотезы, изучает источники и отбирает нужные. Правда, обычно аналитику приходится использовать те данные, которые есть, и изучать, насколько они помогают решить конкретную задачу.

 Снизу вверх. Альтернативный подход, при котором вначале изучаются все данные источника (например, сайта), после чего строятся гипотезы для последующей проверки. Например, данные об активности посетителей на сайте легко применить для анализа оттока клиентов и выявления общих черт аудитории, склонной покинуть компанию. Далее можно обратить внимание на продукты, которые посетитель смотрит на сайте, чтобы выявить его потребительскую корзину для последующей работы с перекрестными продажами.

Универсальных алгоритмов изучения данных не существует. Классифицировать все данные и составить список, какие данные какой цели соответствуют, пока невозможно. Анализ данных – поле для фантазии, нужно думать, строить и проверять гипотезы с учетом специфики отрасли и компании.

Автор – генеральный директор компании CleverData (группа «Ланит»)

Пока никто не прокомментировал этот материал. Вы можете стать первым и начать дискуссию.
Комментировать