Проблемы урегулирования правоотношений, связанных с применением искусственного интеллекта, сегодня в целом вызывают большие споры и среди ученых, и в бизнес-сообществе, т.к. данные технологии могут использоваться практически в любой сфере деятельности. Наиболее остро стоит вопрос: является ли искусственный интеллект объектом права или субъектом? Этот вопрос является важным при оценивании последствий, в том числе негативных, совершения действий самим юнитом (объектом, носителем ПО с ИИ), а также привлечения к ответственности.
В нашей стране в настоящее время по действующим нормам законодательства, однозначно, объект права, следовательно, ни о каком авторстве и правообладании со стороны самого ИИ речь не может идти. Хотя в некоторых странах, например, в Китае уже есть преценденты, когда авторство официально было признано за искусственным интеллектом. Другой вопрос, что созданный с помощью нейросети контент или иной объект интеллектуальной собственности должен быть промаркирован, т.е. конечный пользователь, для которого был создан этот объект, должен знать об использовании ИИ для создания данного объекта, прежде всего, текста, музыки, изображения и т.д. К этой проблеме можно отнести вопросы, относящиеся к несанкционированному использованию и раскрытию информации (текста, изображения, музыки), которую ИИ использует для создания того или иного объекта интеллектуальной собственности, т.к. есть мнение, что ИИ не занимается созданием, а осуществляет компиляцию элементов, объединяя их для получение результата.
Кроме этого, по мнению Баракиной Елены Юрьевны, кандидата юридических наук, доцента кафедры международного и публичного права Юридического факультета Финансового университета при Правительстве Российской Федерации, есть ещё этические проблемы, связанные с объемом и общей направленностью информации, используемую для обучения нейросети, не секрет, что чат-боты, основанные на технологиях ИИ, для общего пользования, например, GPT, отвечают пользователям в определенном контексте, заложенным разработчиком с помощью подключения, отобранной им информации. С одной стороны, это вопрос этический, т.е. должен быть включен в Этический кодекс, как документ саморегулирования, с другой стороны, в отношении информации, поступающей к отдельным категориям населения, например, детям и подросткам, уже входит в круг вопросом, подлежащих урегулированию, т.к. формирует личность.
Ещё один вопрос необходимости урегулирования применения ИИ является «камнем преткновения» между разработчиками и регуляторами, т.е. государственными органами, осуществляющими надзор и контроль за их деятельностью. С одной стороны, регулятор, например, Банк России, чтобы осуществить свои функции должен понимать какие критерии, факторы и др. для анализа использует поднадзорная организация, с другой стороны, раскрытие этой информации является исходным кодом, т.е. частью интеллектуальной собственности разработчика, которой не каждый разработчик захочет раскрыть исходный код. Поэтому степень раскрытия информации, ответственность для несанкционированное раскрытие такой информации – это вопросы, которые можно решить только с помощью закрепления норм в законодательстве.
Тем не менее, по мнению Баракиной Елены Юрьевны, кандидата юридических наук, доцента кафедры международного и публичного права Юридического факультета Финансового университета при Правительстве Российской Федерации, правовое регулирование технологий ИИ должно развиваться в парадигме сочетания инструментов саморегулирования, т.к. разработчики должны иметь некоторую свободу действий для дальнейшего совершенствования технологических решений, и нормативного регулирования с целью снижения вероятности рисков, связанных с некорректной работой алгоритмов ИИ, нанесения ущерба или причинения вреда имуществу или жизни, здоровья человека. Кроме этого, правовое регулирование должно будет четко разграничить права и обязанности всех субъектов, участвующих как в разработке, так и использовании технологий ИИ.