Top.Mail.Ru
рынки

Горе от искусственного ума: в России введут страхование ущерба от ИИ

Фото: 123rf / Legion-Media Фото: 123rf / Legion-Media

Госдума в феврале планирует обсудить законопроект о страховании ответственности за ущерб, связанный с применением искусственного интеллекта. Авторы инициативы предлагают внести соответствующие изменения в действующий с 2020 года закон «Об экспериментальных правовых режимах в сфере цифровых инноваций» (ЭПР). Подробнее о возможных изменениях правил «цифровой песочницы» — в материале «Компании». 

Законопроект, меняющий правила для действующих в рамках ЭПР разработчиков ИИ, подготовлен Минэкономразвития. В декабре 2023 года документ под номером 512628-8 зарегистрирован в информационной системе «Законотворчество». Отзывы, предложения и замечания к нему комитет Госдумы по экономической политике принимает до 13 февраля.

Суть инициативы

Если закон будет принят, то разработчики ИИ будут обязаны страховать ответственность за возможный вред жизни, здоровью или имуществу, возникающий в результате применения новых технологий. По замыслу авторов законопроекта, устанавливать обстоятельства инцидентов с участием искусственного интеллекта предстоит неким специальным комиссиям. В них будут входить «представители уполномоченного и регулирующего органов, организации предпринимательского сообщества» и иные лица.

Согласно сопроводительной документации к законопроекту, «предлагается конструкция, которая позволит в рамках реализации ЭПР иметь в доступе информацию о лицах, ответственных за причинение вреда в результате применения технологий, созданных с применением искусственного интеллекта, а также осуществлять учет таких технологий».

еще по теме:
Пятое лето ИИ
Под конец 2023 года о революции искусственного интеллекта как-то немного подзабыли. Что же происходит?
ИИ

«Оценить риск невозможно»

«Нет уверенности в том, что такое страхование в принципе реализуемо», — отметил в интервью «Компании» генеральный директор Национальной страховой информационной системы Николай Галушин. Он считает, что оценить подобный риск невозможно.

В системах искусственного интеллекта, как и в любой компьютерной программе, могут быть «баги, фичи и ошибки», ответственность за которые может быть возложена на разработчиков. Однако в случае ИИ ситуация сложней, поскольку появляется еще одна сторона — самообучающийся машинный код.

«ИИ — это программа. Соответственно, возникает вопрос: кто должен страховать ответственность? Тот, кто создал ее, или сама программа, которая обладает определенной самостоятельностью и саморазвитием?» — рассуждает эксперт. 

По мнению Галушина, должны быть правила и ограничения сфер, в которых применение ИИ возможно, в том числе по этическим соображениям.

«Если будет принят закон, то хотелось бы, чтобы в нем был зафиксировано: кто, за что, в каком объеме и при наступлении каких событий отвечает. На наш взгляд, сделать это очень непросто. Потому что нейросеть по своей сути должна “жить” и работать, развиваясь уже вне сферы воздействия со стороны своего разработчика. И как оценить, где здесь деяния самого разработчика, а где продукт развития самого ИИ без участия своего автора?» — задаются вопросом представители отрасли.

При этом ранее эксперты предлагали страховать риски ИИ наряду с инцидентами, связанными с природными катаклизмами, в том числе цунами или землетрясениями.

Страховые компании пока не ответили на просьбу «Компании» прокомментировать ситуацию.

еще по теме:
Искусственный интеллект: развивать или ограничивать?
Как власти пытаются регулировать развитие ИИ, балансируя между страхом общества и желанием заработать
ИИ

«Регуляторные песочницы»

Установление экспериментальных правовых режимов осуществляется в РФ с марта 2022 года. ЭПР позволяет ограниченному числу компаний «на определенной территории и на определенное время» соблюдать действующее законодательство с рядом оговорок.

Подобные регуляторные «песочницы» возможны в медицине и транспорте, сельском хозяйстве, дистанционной продаже товаров и услуг, финансовой деятельности, строительстве и других направлениях. По состоянию на декабрь 2023-го в России действовало 12 ЭПР.

Как пояснили в пресс-службе Минэконмразвития, использование ЭПР направлено на безопасную и последовательную апробацию «даже такого сложного инструмента, как ИИ», чтобы в процессе «можно было зафиксировать, в каких отраслях, в каких бизнес-процессах его можно применять эффективно и какие при этом правовые механизмы могут это обеспечить».

Еще по теме