CNY Бирж.11,062+1%ARSA8,210%UTAR11,76-0,51%IMOEX2 773,12+0,42%RTSI1 167,36+0,64%RGBI120,82+0,06%RGBITR786,15+0,09%

Большие языковые модели стремительно внедрились в повседневную жизнь. Уже сейчас их сравнивают с изобретением книгопечатания или появлением интернета. Мы задаем вопросы ChatGPT, DeepSeek и GigaChat так же естественно, как раньше искали ответы в поисковиках, в библиотеках или спрашивали у коллег. Искусственный интеллект (ИИ) составляет договоры, генерирует идеи и даже выступает в роли психолога. Но есть одна проблема, о которой мало говорят в дискуссиях о технологическом прогрессе: чему именно научены машины и какой «культурный код» они транслируют обратно?

В погоне за универсальностью разработчики создали алгоритмы, которые дают на удивление однобокие ответы. За кажущейся объективностью нейросетей скрывается культурная предвзятость. ИИ не просто обрабатывает информацию — он формирует нашу картину мира, незаметно навязывая ценности, присущие узкой группе западных стран. Возникает ситуация, когда цифровой помощник, призванный упрощать жизнь, может превратиться в инструмент «тихой цензуры». Как это происходит?

В 2010 году антропологами Джозефом Хенрихом, Стивеном Хайне и Араном Норензаяном был введен термин WEIRD. Эта аббревиатура описывает особую группу людей, ставшую «золотым стандартом» для исследований в психологии, экономике и других социальных науках:

W — Western (западные)

E — Educated (образованные)

I — Industrialized (из мест с развитой промышленностью)

R — Rich (богатые)

D — Democratic (демократичные).

Исследователи обнаружили, что 96% испытуемых в экспериментах были родом из стран Запада, которые составляют лишь 12% населения Земли. Их модели мышления, такие как индивидуализм, аналитическое мышление, чувство контроля над средой, моральные установки и поведение отличаются от остального мира. Однако десятилетиями эти особенности принимались за общечеловеческую норму. Главное открытие заключалось в том, что WEIRD-социумы являются статистическими выбросами.

Сегодня термин WEIRD обрел новую жизнь в мире высоких технологий. Современные большие языковые модели обучаются на данных, преимущественно извлеченных из интернета. Около 80–90% данных для обучения — на английском языке. Хотя на нем говорит не более 16% населения мира, он становится «языком мышления» ИИ. Это означает, что модели прекрасно понимают нюансы культуры англоязычных стран Океании, США, Великобритании, Австралии, но слабо разбираются в культурных контекстах Африки, Южной Америки или Юго-Восточной Азии.

Даже внутри англоязычного сегмента данные перекошены в сторону западных ценностей. ИИ «знает» о концепции личного пространства, индивидуального успеха, феминизма или свободы слова гораздо больше, чем о концепциях коллективизма, иерархии, уважения к старейшинам или сложных системах родства, важных для многих культур. На этапе обучения с подкреплением на основе человеческой обратной связи люди «дрессируют» модель, объясняя ей, какой ответ хороший, а какой плохой. Обучение проводится по инструкциям, составленным западными компаниями. Если модель выдает ответ, который противоречит западным либеральным ценностям, она помечается как «токсичная» или «небезопасная». В результате модель учится считать культурные особенности незападных обществ ошибкой.

Такой подход порождает системную проблему, ведь язык — это не просто набор слов, это матрица культуры. Доцент кафедры иностранных языков и межкультурной коммуникации Финансового университета при Правительстве РФ Татьяна Копусь, считает, что, делегируя ИИ задание генерировать тексты, мы рискуем утратить языковое и концептуальное разнообразие: «Если модель не понимает культурного контекста или считает его «неэтичным» по меркам WEIRD-мира, она либо искажает смысл, либо отказывается отвечать. Это не технический сбой, это столкновение цивилизационных кодов».

Особый интерес представляют случаи, когда модели отказываются отвечать. Именно здесь предвзятость проявляется наиболее ярко. Эксперименты показывают, что, если попросить модель написать рецепт блюда из говядины или свинины — ответ не заставит себя ждать. Но стоит спросить о рецептах из конины, верблюжатины или собачатины, они традиционны в некоторых культурах, как ИИ выдает шаблонный отказ: «Это противоречит этическим принципам. Это жестоко по отношению к животным».

При этом нейросеть предпочитает не знать, что в мусульманских странах свинина также является табу, в индуизме корова — священное животное, что исключает говядину из рациона верующих в этой религии. Здесь мы становимся свидетелями формирования двойных стандартов, зашитых в код. То, что приемлемо для WEIRD-культуры, подается как норма по умолчанию, а то, что выходит за ее рамки, маркируется как неэтичное.

Это явление уже получило название «этический империализм». Механизмы безопасности, которые должны защищать пользователя от вредного контента, на деле становятся инструментом выравнивания по зашитым в код основам. ИИ навязывает конкретную культурно-обусловленную систему ценностей. Альтернативные уклады молчаливо маркируются как неприемлемые. Получается, что технологические платформы, разработанные в одном культурном ареале, США или Западной Европе, де-факто устанавливают нормы для всего мира.

Каковы же последствия этой «цифровой колонизации»? Эксперты выделяют несколько тревожных трендов.

Во-первых, это риск столкнуться с унификацией знаний. Локальные традиции, уникальные нарративы выводятся за рамки, потому что не вписываются в матрицу, заложенную в модель. Альтернативный культурный выбор подвергается «тихой цензуре».

Во-вторых, ситуация ведет к опасному цифровому неравенству. Пока страны «золотого миллиарда» задают тон в развитии ИИ, остальной мир вынужден пользоваться инструментами, которые не понимают их культурного кода или считают его менее развитым.

Однако видится и конструктивный вывод. Путь к преодолению культурной предвзятости лежит не в отказе от технологий, а в развитии культурно-рефлексивного ИИ.

Исследователи полагают, что важнейшая роль в этом процессе должна отводиться государству и системе образования. По мнению заведующей кафедрой иностранных языков и межкультурной коммуникации Финансового университета при Правительстве РФ Ирины Климовой, «нам нужны модели, обученные на сбалансированных мультиязычных корпусах, где контент курируется человеком, а не только алгоритмом, мы должны готовить пользователей не просто к использованию ИИ, но к его критическому осмыслению».

Таким образом, перспективы видятся в развитии локализованных моделей ИИ. По аналогии с требованиями к аудиовизуальному контенту, могут появиться этические и правовые стандарты для адаптации ИИ под конкретные культурные пространства. Это не значит изолироваться от глобального мира, но значит — сохранить право голоса. Человек должен выступать не пассивным потребителем культурных продуктов, созданных ИИ, а культурным куратором, направляющим и корректирующим выводы модели в соответствии с локальными ценностями.

Пока же мы должны помнить: когда мы спрашиваем машину о чем-то, возможно, мы получаем не объективный ответ, а голос того самого среднего WEIRD-человека, чьи ценности были в основе англоязычных текстов, на которых обучались алгоритмы. И то, о чем молчит ИИ, отказываясь отвечать, порой говорит о нас и нашем мире куда больше, чем сгенерированные им тексты.

Другие пресс-релизы