РБК узнал о планах Совфеда вписать в закон кодекс этики в сфере ИИ

undefined

Совет Федерации планирует рекомендовать закрепить в законодательстве кодекс этики в сфере искусственного интеллекта, сообщил РБК со ссылкой на два источника в Совфеде. Один из них рассказал, что такое предложение представят 22 декабря на выездном заседании Совета по цифровой экономике при Совфеде. 

Собеседник издания сообщил, что Совфед хочет предложить запретить включать в состав технологий ИИ алгоритмы и параметры, которые дискриминируют людей по различным признакам. Также сенаторы планируют рекомендовать Минэкономразвития создать механизм предварительной оценки последствий внедрения ИИ, чтобы исключить негативное влияние на права человека.

Второй источник издания рассказал, что базовые положения о функционировании ИИ можно закрепить в отдельном федеральном законе или в законе «Об информации, информационных технологиях и о защите информации». Положения об оценке рисков для прав человека и соответствующие механизмы можно прописать в законе «Об обязательных требованиях в России», вопросы о применении ИИ при решении юридически значимых проблем — в законе «Об организации предоставления государственных и муниципальных услуг».

Кодекс этики в сфере искусственного интеллекта разработан в рамках нацпрограммы «Цифровая экономика». В октябре его подписали члены Альянса в сфере искусственного интеллекта, в который входят Сбербанк, «Газпром нефть», «Яндекс», VK, МТС, Российский фонд прямых инвестиций, «Сколково» и т. д. Согласно кодексу, разработчики ИИ должны проверять, что применяемые алгоритмы и наборы данных не приведут к умышленной дискриминации людей. Также в документе говорится, что человека нужно предупреждать о том, что он общается с ИИ, а персональные данные нужно защищать. Ответственность за последствия использования ИИ должен нести человек.

Накануне глава комитета Совфеда по экономической политике Андрей Кутепов сообщил о разработке законопроекта о регулировании применения и оборота роботов в России. Сенатор дал определение понятия «робот», предложил разделить роботов на две категории — гражданские и служебные — и на четыре класса по степени опасности, писал ТАСС.