Стремительная цифровая трансформация российской экономики, в рамках которой технологии работы с большими данными (Big Data) перешли из категории экспериментальных инструментов в разряд критически важных активов для обеспечения конкурентоспособности, требует от компаний оперативно собирать, обрабатывать и интерпретировать колоссальные объемы информации. Перед российским бизнесом встает задача не просто накапливать данные, но и разрабатывать эффективные модели их монетизации.
Для российского бизнеса осмысление Big Data смещается от «хранения всего» к «анализу полезного»: статистика использования технологий сбора и анализа больших данных говорит от том, что 8,6% организаций в 2024 г. уже применяли данную технологию, в том числе, для анализа ситуации и прогнозирования результатов своей хозяйственной деятельности. Это привело к тому, что компании, использующие аналитику больших данных, показывают на 17% выше рентабельность, чем те, кто не использует данную технологию.
Монетизация больших данных может осуществляться по двум основным направлениям: прямому и косвенному. Прямая монетизация подразумевает продажу очищенных и агрегированных данных или аналитических отчетов сторонним организациям. Косвенная монетизация, более характерная для большинства отраслей российского бизнеса, заключается в оптимизации внутренних процессов, снижении издержек и увеличении выручки за счет более точного таргетирования и прогнозирования спроса. Эффект от внедрения Big Data проявляется через сокращение операционного цикла, минимизацию ошибок «человеческого фактора» и персонализацию рыночного предложения.
Российский рынок больших данных демонстрирует устойчивый рост: основными драйверами выступают финансовый сектор, телекоммуникации и ритейл. Согласно статистическим данным, крупные и средние организации активно наращивают затраты на внедрение цифровых технологий. Важной особенностью является высокая концентрация технологий в компаниях с численностью работников более 250 человек, что объясняется высокой стоимостью входа в технологический стек. В последние годы наблюдается смещение интереса от простого сбора данных к использованию облачных сервисов для их обработки, что позволяет компаниям снижать капитальные затраты (CAPEX) в пользу операционных (OPEX).
Анализ структуры затрат показывает, что значительная доля средств направляется на приобретение отечественного программного обеспечения и аренду мощностей в центрах обработки данных (ЦОД). Это связано с трендом на импортозамещение и необходимостью соблюдения законодательства о хранении персональных данных. При этом использование интернета вещей (IoT) как источника первичных данных также демонстрирует положительную динамику, особенно в промышленности и энергетике, где датчики позволяют собирать информацию о состоянии оборудования в режиме реального времени.
В банковском секторе анализ больших данных применяется для скоринга заемщиков, выявления мошеннических операций и формирования персональных предложений. В ритейле Big Data помогает оптимизировать логистические цепочки и управлять товарными запасами, минимизируя объемы нераспроданной продукции на складах. Промышленный сектор России начинает активно использовать предиктивный ремонт: на основе данных с датчиков станков и агрегатов системы аналитики предсказывают вероятность поломки до ее фактического наступления. Это позволяет избежать дорогостоящих простоев производства.
Лидеры цифровизации значительно повышают эффективность своих бизнес-процессов: 14,9% компаний в оптовой торговле уже используют технологии больших данных, в добыче полезных ископаемых этот процент составляет 6,8 пунктов.
По мнению к.э.н., доцента Кафедры бизнес-информатики Финансового университета при Правительстве РФ Башкировой О.В., для повышения эффективности использования технологии необходимо внедрение культуры Data Governance (управление данными как активом), что подразумевает назначение ответственных за качество данных в каждом бизнес-подразделении и внедрение автоматизированных систем очистки информации на входе. Компаниям рекомендуется переходить от разрозненных «озер данных» (Data Lakes) к структурированным хранилищам, где данные проходят предварительную валидацию. Это позволит сократить время работы аналитиков на подготовку данных, которое сегодня занимает до 80% их рабочего времени.