Top.Mail.Ru

Известия. Человек, ИИ, закон: как в России будут регулировать искусственный интеллект

В Совфеде обсудили законодательное регулирование искусственного интеллекта в России. Вопрос, как относиться к ИИ, что именно загонять в законодательные рамки и насколько жесткие нормы принимать в отношении искусственного интеллекта, пока не изведан и требует новых решений. Поэтому законодатели призывают одновременно вносить главные принципы работы с ИИ в Цифровой кодекс и постепенно регулировать особенно чувствительные моменты, связанные с нейросетями. А разработчики призывают использовать возможности саморегулирования отрасли. Подробности — в материале «Известий».

Какие опасности несет ИИ

Председатель Комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков на заседании в Совфеде подчеркнул, что не совсем правильно говорить о «законодательном регулировании искусственного интеллекта». Скорее речь идет о регулировании применения ИИ и его последствиях.

Говоря о рисках использования ИИ, Алексей Пушков указал на различные противоправные действия на нейросетевой технологической основе, например телефонное мошенничество. Кроме того, искусственный интеллект становится идеологическим инструментом — с его помощью искажается информация, в том числе историческая правда, продолжает сенатор.

— Надо понимать, что ИИ работает в рамках запроса, который делается человеком, на основе заложенных в него данных и реагирует в первую очередь на общественный запрос, — подчеркнул он. — Поэтому, например, недавно Gemini 1.5 от Google в ответ на поиск изображения Людовика XIV продемонстрировал короля Франции чернокожим — просто потому, что такова сейчас повестка в западном обществе.

По его словам, в генеративные модели западных компаний заложено мировоззрение, которое отличается от российского.

Третий большой блок, который выделяет Алексей Пушков, — это тема соблюдения прав человека: наблюдение за ним, распознавание лица, причем следят за человеком те, кто на это вовсе не уполномочен.

Как регулируют ИИ в других странах

Алексей Пушков призвал изучить опыт других стран по регулированию нейросетевых технологий, в том числе ЕС, где недавно вышел акт об использовании искусственного интеллекта.

Первый зампред комитета Совета Федерации по конституционному законодательству и государственному строительству Ирина Рукавишникова на заседании отметила, что ЕС продемонстрировал жесткий подход к регулированию ИИ: фактически это централизованный контроль всех стадий разработки и применения генеративных нейросетей с тщательным их тестированием перед использованием.

В США, Великобритании и Японии, напротив, предусмотрен минимальный контроль ИИ, говорит она. Нейтральное регулирование, когда законодатель находит баланс между развитием и безопасностью с точечным характером ограничений, использует Китай. Ирина Рукавишникова считает, что именно этот вариант будет лучшим для России.

Как предлагают регулировать ИИ в России

Ирина Рукавишникова призывает к применению риск-ориентированного подхода к генерированию искусственного интеллекта. Для этого все сферы, в которых нейросети могут применяться, предлагается разделить на четыре группы.

Первая группа — с недопустимым риском применения ИИ: например, невозможно выставление искусственным интеллектом окончательных медицинских диагнозов, вынесение судебных решений и т.д. Вторая группа — с высоким риском. Сюда отнесены образование, инфраструктура транспорта и т.д. Третья группа — сферы с ограниченным риском, где использование ИИ возможно при условии, что люди будут знать, что они взаимодействуют с нейросетью. И четвертая группа — это минимальный риск и свободное использование ИИ: например, в видеоиграх, в программах для фильтрации спама и т.д.

При этом Рукавишникова подчеркивает, что одновременно необходимо стимулировать отечественных разработчиков систем ИИ.

Юридический консультант, создатель LegalTech-решений Виктор Наумов на заседании подчеркнул, что важно отразить возможность отказа человека от цифровых технологий — например, чтобы на портале «Госуслуг» можно было воспользоваться не роботом, а услугами живого специалиста.

— Нам нужно право на коммуникацию человека с человеком, — заметил он. — Мы же сейчас привыкаем к тому, что человек человеку не нужен.

Отрасль — за саморегулирование

В отрасли настороженно относятся к вопросу законодательного ограничения сферы искусственного интеллекта. Роман Душкин в разговоре с «Известиями» признался, что является сторонником мягкого подхода в регулировании.

— На разработку такого мощного нормативного документа, как Цифровой кодекс, уйдут годы, а за это время технологии шагнут далеко вперед, — сказал он. — Либо кодекс станет документом с совершенно общими формулировками, но пустым с точки зрения правоприменительной практики. Он должен будет обрастать огромным количеством подзаконных актов. В то же время добропорядочным гражданам закон, по сути, и так не нужен, а злоумышленникам на него плевать. Запрещать же или сильно ограничивать сам инструмент ИИ при этом нельзя: это будет выстрел себе в ногу.

В «Яндексе» также заявили «Известиям», что в законодательном регулировании ИИ важно «не опережать действительность и отвечать на реальные риски, а не на фобии».

— Как и в любой другой сфере, нужно опираться на практику применения технологий, которая только начинает накапливаться, — отметили в пресс-службе компании. — Основные вопросы, которые сейчас предъявляются к ИИ, касаются этики и ответственного использования технологий — как разработчиками, так и пользователями. Бизнес осознает это и предлагает меры саморегулирования — инициирует кодексы, декларации и отраслевые стандарты.

В компании рассказали, что недавно «Яндекс» вместе с другими участниками Альянса в сфере искусственного интеллекта подписал декларацию об ответственной разработке и использовании сервисов на основе генеративного ИИ. Такой подход, уверены в компании, позволит продолжать развивать технологии в благоприятной и безопасной среде, а пользователям — получать максимально полезные сервисы.

Президент ассоциации разработчиков программного обеспечения «Руссофт» Валентин Макаров также предостерегает от чрезмерного регулирования этой технологической отрасли.

— Опыт ЕС показывает, что принятие сейчас строгого нормативного регулирования ИИ, когда мы еще не знаем, как и куда он развивается, не будет правильным, — сказал он «Известиям». — Думать о вопросах безопасности при применении ИИ, конечно, нужно. И нужно запускать процесс саморегулирования. Важно эффективно работать над техническим регулированием, формируя стандарты, а этот процесс поневоле будет приводить к соответствующему нормативному регулированию.

В то же время технический директор DIS Group Олег Гиацинтов поддерживает мнение о том, что оптимальный подход заключается в сочетании рамочного закона с точечными мерами. Он считает, что в законодательстве должно появиться четкое и универсальное определение искусственного интеллекта, а также основные принципы его использования, обеспечивающие ответственное и безопасное использование ИИ с учетом этических и правовых норм: прозрачности, отчетности, недискриминации, защиты конфиденциальности и т.д.

Читать полную версию статьи: Известия



Поделиться
{{ responsive_img( url='/../../static/upload/news/detail-image.jpg',lazy=true, img_attrs={ class: "img-fluid lazy" }, formats=['webp'] ) }}

Рассылка новостей

    Продолжая пользоваться сайтом, вы даёте Согласие на автоматический сбор и анализ ваших данных, необходимых для работы сайта и его улучшения, использование файлов cookie.