Почему интернет-маркетинг часто несправедлив

Алгоритмы нередко предвзяты к определенным категориям клиентов. Как так получается?
Варвара Гранкова для Ведомостей

Подобрав средства коммуникации, рекомендации и рекламные акции с учетом индивидуальных предпочтений каждого клиента, можно найти подход к любому покупателю. С развитием машинного обучения и аналитики больших данных персонализация приобретает все большее значение и становится менее навязчивой и раздражающей для потребителей. Однако автоматизированные системы могут закреплять вредные предрассудки.

В нашем новом исследовании мы изучили использование динамического ценообразования и таргетированных скидок и попытались выяснить, могут ли (и как) возникать ложные предубеждения, если цены, устанавливаемые для потребителей, определяются алгоритмом. Поучительная история персонализированного маркетинга такого рода случилась с Princeton Review. В 2015 г. выяснилось, что эта компания, предлагающая услуги по подготовке к экзаменам, назначала для клиентов из разных регионов разные цены, причем расхождения в некоторых случаях достигали сотен долларов, несмотря на то что все занятия проводились посредством телеконференций. В краткосрочной перспективе такой тип динамического ценообразования мог показаться легким способом увеличения доходов. Но исследования неоднократно показывали, что потребители считают такой подход заведомо несправедливым, что он подрывает доверие и не вызывает желания снова обращаться к компании. Более того, предвзятость Princeton Review носила и расовый характер: последовавшее резонансное расследование, проведенное журналистами редакции ProPublica, показало, что для азиатских семей цены систематически оказывались более высокими, чем для остальных клиентов.

Даже крупнейшие технологические компании признают, что предоставлять персонализированные услуги, избегая при этом дискриминации, непросто. Несколько исследований показали, что объявления о высокооплачиваемых вакансиях на таких платформах, как Facebook и Google, гораздо чаще демонстрируются мужчинам. В прошлом году против Facebook был подан иск, и в результате было установлено, что компания нарушает закон о запрещении дискриминации при продаже и аренде жилья, так как позволила рекламодателям недвижимости таргетировать рекламу в зависимости от расы, пола, возраста и т. д.

Как работают алгоритмы персонализации? Предположим, что вашей компании нужно идентифицировать наиболее восприимчивых к скидкам клиентов. А для обучения алгоритма планируется использовать накопленную статистику за прошлые периоды. Если среди характеристик клиентов, используемых для машинного обучения, есть демографические параметры, в конечном итоге алгоритм с высокой вероятностью выдаст разные рекомендации для разных демографических групп. Нередко города и районы делятся по этническим и социальным признакам, а данные об истории просмотров пользователя соотносятся с его географическим положением (например, через IP-адрес или историю поиска). Возможно, пользователи из районов с высоким уровнем дохода или из районов, заселенных преимущественно представителями одной национальности или расы, были наиболее чувствительны к скидкам. Клиенты с высокими доходами могут позволить себе приобрести что-то за полную стоимость, но они в принципе чаще делают покупки через интернет и знают, когда можно ожидать снижения цен. Алгоритм, обученный на таких статистических данных, научится предлагать больше скидок белым состоятельным клиентам.

Мы просмотрели результаты десятков масштабных экспериментов в сфере ценообразования в электронной торговле. Используя IP-адрес клиента в качестве приблизительного признака его местоположения, мы смогли сопоставить каждого пользователя с его районом согласно переписи населения США и, чтобы получить представление о среднем доходе в соответствующем регионе, использовали общедоступные данные. Анализируя результаты миллионов посещений веб-сайтов, мы нашли подтверждение, что, как и в приведенном выше гипотетическом примере, люди из богатых районов более активно реагировали на скидки при покупках через интернет, чем люди из более бедных районов. А поскольку алгоритмы динамического ценообразования предназначены для предложения сделок тем пользователям, которые с большей вероятностью на них отреагируют, маркетинговые кампании в будущем, очевидно, будут систематически предлагать более низкие цены лицам с более высоким доходом.

Чтобы минимизировать подобные социально нежелательные результаты, компаниям придется проводить аудиты искусственного интеллекта, включающие оценку точности, справедливости, интерпретируемости и надежности всех значимых алгоритмических решений в организации.

Хотя на первом этапе можно ожидать немалые расходы, в долгосрочной перспективе это может оказаться выгодным для многих компаний. Учитывая социальные, технические и юридические сложности, связанные со справедливостью алгоритмов, понадобится команда обученных внутренних или внешних экспертов, которые в любых бизнес-процессах, подразумевающих автоматизированное принятие решений, будут пытаться найти слепые зоны и уязвимые места.

Тема социального неравенства весьма болезненна, и руководителям компаний, как никогда, важно подумать о том, не ущемляют ли каким-либо образом автоматизированные маркетинговые кампании интересы тех или иных социальных или этнических групп. Это необходимо для успеха компании в длительной перспективе.

Об авторах: Алекс Миллер – докторант в области информационных систем и технологий в Уортонской школе бизнеса Пенсильванского университета. Картик Хосанагар – профессор кафедры технологий и цифрового бизнеса в Уортонской школе бизнеса Пенсильванского университета.

Оригинал статьи здесь.