Top.Mail.Ru
мнения

ИИ вне закона: почему важно контролировать искусственный интеллект, но никто не решается это сделать

Фото: Picvario Фото: Picvario

Искусственный интеллект развивается быстрее, чем правовая база для его применения. При этом существует риск, что слишком строгое регулирование помешает дальнейшему росту отрасли. Возможно ли найти баланс, который устроит всех, и какими последствиями могут обернуться различные сценарии контроля ИИ — размышляет юрист WMT Group Владимир Глебовец. 

ИИ сегодня — сам себе господин

Проблема регулирования искусственного интеллекта становится острее с каждым днем. Без сомнений полезная технология, которая потенциально может спасать жизни, несет в себе и множество рисков, о которых говорят все громче. Что же такого «творит» ИИ, что это вызывает такое количество вопросов?

Одна из самых главных проблем, привлекающих внимание экспертов, связана с безопасностью: искусственный интеллект нуждается в данных для обучения, которые нужно откуда-то достать. Обычно их берут из открытого доступа, а некоторые компании используют контент, созданный их собственными пользователями. Такой массовый сбор и анализ информации может вызывать проблемы с приватностью, нарушает право на частную жизнь и грозит утечками информации. Кроме того, нейросети обучаются на произведениях, которые принадлежат другим авторам, что поднимает вопрос об интеллектуальной собственности — получается не очень этично.

Еще одна резонная претензия к ИИ-продуктам — это вопрос ответственности за принимаемые ими решения. Например, кто в ответе за аварию с использованием автономного транспорта — искусственный интеллект, водитель или может вообще производитель машины? Виноватых в данном случае и вовсе могут не найти — слишком сложная с правовой точки зрения складывается ситуация.

И наконец проблема, преследующая человечество со времен фантастических фильмов про будущее и роботов, — ИИ становится умнее человека. Если в начале века над этим можно было разве что посмеяться, то сейчас проблема стоит довольно серьезно. Над разработкой общего искусственного интеллекта (AGI) активно работают сразу несколько мировых лидеров сферы, а цели их довольно амбициозны — создать автономный ИИ, способный самообучаться и превосходящий по способностям даже самых гениальных людей планеты. Чем это обернется и стоит ли вообще допускать разработку подобных решений? А если запретить, то как? 

Получается, надо контролировать?

Очевидно, что бесконтрольное использование ИИ в современных условиях уже просто недопустимо — правовые регуляторы по всему миру уже озаботились этим вопросом.

Например, в Евросоюзе был принят закон AI Act, устанавливающий строгие правила для использования алгоритмов в чувствительных сферах. ОЭСР разработала принципы для ответственной разработки ИИ, а ЮНЕСКО выпустила рекомендации, призванные предотвратить дискриминацию и нарушения прав человека.

В отдельных странах также разрабатываются собственные меры контроля за искусственным интеллектом, например в США, в Китае и даже в Бразилии.

Россия не отстает — регулирование ИИ в нашей стране осуществляется через государственные программы и ведомства. Основные направления развития технологий до 2030 года определяет Национальная стратегия развития ИИ. Также к середине 2025 года в России планируют представить первую версию Цифрового кодекса, который объединит все основные положения о цифровой среде, данных и искусственном интеллекте в единый документ. Более того, в декабре 2024 года Российский фонд прямых инвестиций совместно с 20 компаниями из России, Бразилии, Индии, Китая, Ирана и ОАЭ объявил о создании Альянса БРИКС по развитию ИИ. 

Ну и почему тогда проблема все еще не решена?

Если так много мировых ведомств занимается проблемой регулирования ИИ и уже даже выработана законодательная база, то почему вопрос контроля искусственного интеллекта до сих пор стоит так остро? Дело в том, что составить закон — это одно, а обеспечить его грамотное реальное применение — совсем другое. 

Перед правительствами встает дилемма: с одной стороны, контролировать ИИ действительно необходимо и начать это делать стоит как можно скорее, а с другой стороны — искусственный интеллект сегодня является инструментом привлечения огромного количества инвестиций и может даже стать рычагом экономического или политического давления для отдельных стран. В итоге строго регулировать ИИ крупным компаниям и странам становится невыгодно, и все инициативы откатываются в исходную точку. 

Именно поэтому громкие новости, связанные с новыми законодательными актами в этой сфере, не следует воспринимать с полной серьезностью. Обычно после них следуют призывы к смягчению или упрощению уже принятых принципов от бизнесменов и даже политиков, как это произошло с AI Act от ЕС.

Компании-лидеры в сфере ИИ также задумываются о вопросах правового регулирования. Некоторые пытаются ввести некое подобие саморегулирования и призывают к этому остальных игроков рынка. Например, OpenAI и Google декларируют этические принципы, ограничивают функциональность своих моделей и вводят механизмы защиты от злоупотреблений.

Однако подобные меры все же остаются добровольными. К тому же они с легкостью разбиваются об «азарт» на фоне мировой гонки ИИ, которая развернулась сейчас преимущественно между США и Китаем. Винить бизнес в данном случае тяжело — устоять перед возможностями этой технологии и выгодой, которую она приносит не только самим компаниям, но и экономикам целых стран, действительно практически нереально.

Можно ли найти компромисс?

Среди возможных направлений регулирования ИИ можно рассмотреть три основных сценария:

  • Путь 1. Мягкий. Один из наиболее щадящих вариантов — упрощение или смягчение контроля ИИ. Таким образом базовые нормы правового регулирования будут действовать, но не препятствовать развитию технологии — своеобразный компромисс. К сожалению, в реальности его достигнуть невозможно — чаша весов всегда будет склонена в ту или иную сторону. Более доступный вариант — отложить введение норм на определенный срок, чтобы позволить ИИ развиться до достаточно высокого уровня. Так, например, сделали в Правительстве РФ — там планируют подождать еще около 2 лет прежде, чем вводить какие-либо строгие нормы. Этого времени должно хватить на разработку эффективных мер регулирования, а также на масштабный рост российского рынка ИИ.

  • Путь 2. Выборочный. Еще один вариант — ввести нормы регулирования ИИ только для отдельных сфер, например, чувствительных — связанных с КИИ, а также медициной, логистикой и другими отраслями. Либо решить только самые критические моменты — вопросы, связанные с использованием интеллектуальной собственности и ответственности за решения, принимаемые ИИ. Однако, даже несмотря на кажущуюся «мягкость» такого подхода, введение даже частичных норм серьезно отразится на рынке ИИ. Многие компании однозначно потерпят убытки, а локальное развитие технологии затормозится. 

  • Путь 3. Ва-банк. Самый радикальный вариант — прислушаться к противникам ИИ и поставить во главу угла абсолютный контроль: запретить ИИ использовать для обучения чужую информацию и контент, либо обязать разработчиков платить за них. Кроме того, выставить строгие правила использования нейросетей в различных сферах бизнеса. В качестве финальной меры ограничить темпы развития ИИ — поставить блок на обучение моделей производительностью выше определенного уровня, чтобы избежать преждевременного создания AGI (общего искусственного интеллекта) и затормозить технологическую гонку.

Готово: ИИ запрещен, частично или полностью. Однако непонятно насколько полезным это окажется для рынка, ведь последствия регулирования оказываются неоднозначными во всех трех случаях. ИИ уже успел проникнуть практически во все сферы жизни человека — строгие правила нанесут удар даже по бизнесу, который на первый взгляд не имеет никакой связи с нейросетями, а также создадут препятствия для таких важных научных областей как генная инженерия, фармакология, астрономия и так далее. 

Все осложняется и другими факторами, например, перегретым рынком, развернувшейся мировой гонкой ИИ, а также собственными интересами стран. Как уже упоминалось выше, искусственный интеллект сейчас является важным инструментом привлечения инвестиций. Например, в Китае модель DeepSeek признали национальным достоянием, а для защиты ее коммерческой тайны даже ограничили выезд некоторых разработчиков — искусственный интеллект уже играет настолько серьезную роль.

Выходит, что потерь при регулировании ИИ в любом случае не удастся избежать. Универсального действующего свода правил для искусственного интеллекта в ближайшем будущем также не стоит ожидать — вопрос контроля нейросетей сначала будет решаться на уровне отдельных стран. Для этого правительствам предстоит рассмотреть не только приоритеты собственных государств и учесть ситуацию на мировом рынке, но и понять, что им важнее на данный момент — стимулирование развития технологии или правовой «порядок». Вероятно, на эти размышления потребуется еще как минимум 1–2 года.