ИИ вне закона: почему важно контролировать искусственный интеллект, но никто не решается это сделать

Искусственный интеллект развивается быстрее, чем правовая база для его применения. При этом существует риск, что слишком строгое регулирование помешает дальнейшему росту отрасли. Возможно ли найти баланс, который устроит всех, и какими последствиями могут обернуться различные сценарии контроля ИИ — размышляет юрист WMT Group Владимир Глебовец.
ИИ сегодня — сам себе господин
Проблема регулирования искусственного интеллекта становится острее с каждым днем. Без сомнений полезная технология, которая потенциально может спасать жизни, несет в себе и множество рисков, о которых говорят все громче. Что же такого «творит» ИИ, что это вызывает такое количество вопросов?
Одна из самых главных проблем, привлекающих внимание экспертов, связана с безопасностью: искусственный интеллект нуждается в данных для обучения, которые нужно откуда-то достать. Обычно их берут из открытого доступа, а некоторые компании используют контент, созданный их собственными пользователями. Такой массовый сбор и анализ информации может вызывать проблемы с приватностью, нарушает право на частную жизнь и грозит утечками информации. Кроме того, нейросети обучаются на произведениях, которые принадлежат другим авторам, что поднимает вопрос об интеллектуальной собственности — получается не очень этично.
Еще одна резонная претензия к ИИ-продуктам — это вопрос ответственности за принимаемые ими решения. Например, кто в ответе за аварию с использованием автономного транспорта — искусственный интеллект, водитель или может вообще производитель машины? Виноватых в данном случае и вовсе могут не найти — слишком сложная с правовой точки зрения складывается ситуация.
И наконец проблема, преследующая человечество со времен фантастических фильмов про будущее и роботов, — ИИ становится умнее человека. Если в начале века над этим можно было разве что посмеяться, то сейчас проблема стоит довольно серьезно. Над разработкой общего искусственного интеллекта (AGI) активно работают сразу несколько мировых лидеров сферы, а цели их довольно амбициозны — создать автономный ИИ, способный самообучаться и превосходящий по способностям даже самых гениальных людей планеты. Чем это обернется и стоит ли вообще допускать разработку подобных решений? А если запретить, то как?
Получается, надо контролировать?
Очевидно, что бесконтрольное использование ИИ в современных условиях уже просто недопустимо — правовые регуляторы по всему миру уже озаботились этим вопросом.
Например, в Евросоюзе был принят закон AI Act, устанавливающий строгие правила для использования алгоритмов в чувствительных сферах. ОЭСР разработала принципы для ответственной разработки ИИ, а ЮНЕСКО выпустила рекомендации, призванные предотвратить дискриминацию и нарушения прав человека.
В отдельных странах также разрабатываются собственные меры контроля за искусственным интеллектом, например в США, в Китае и даже в Бразилии.
Россия не отстает — регулирование ИИ в нашей стране осуществляется через государственные программы и ведомства. Основные направления развития технологий до 2030 года определяет Национальная стратегия развития ИИ. Также к середине 2025 года в России планируют представить первую версию Цифрового кодекса, который объединит все основные положения о цифровой среде, данных и искусственном интеллекте в единый документ. Более того, в декабре 2024 года Российский фонд прямых инвестиций совместно с 20 компаниями из России, Бразилии, Индии, Китая, Ирана и ОАЭ объявил о создании Альянса БРИКС по развитию ИИ.
Ну и почему тогда проблема все еще не решена?
Если так много мировых ведомств занимается проблемой регулирования ИИ и уже даже выработана законодательная база, то почему вопрос контроля искусственного интеллекта до сих пор стоит так остро? Дело в том, что составить закон — это одно, а обеспечить его грамотное реальное применение — совсем другое.
Перед правительствами встает дилемма: с одной стороны, контролировать ИИ действительно необходимо и начать это делать стоит как можно скорее, а с другой стороны — искусственный интеллект сегодня является инструментом привлечения огромного количества инвестиций и может даже стать рычагом экономического или политического давления для отдельных стран. В итоге строго регулировать ИИ крупным компаниям и странам становится невыгодно, и все инициативы откатываются в исходную точку.
Именно поэтому громкие новости, связанные с новыми законодательными актами в этой сфере, не следует воспринимать с полной серьезностью. Обычно после них следуют призывы к смягчению или упрощению уже принятых принципов от бизнесменов и даже политиков, как это произошло с AI Act от ЕС.
Компании-лидеры в сфере ИИ также задумываются о вопросах правового регулирования. Некоторые пытаются ввести некое подобие саморегулирования и призывают к этому остальных игроков рынка. Например, OpenAI и Google декларируют этические принципы, ограничивают функциональность своих моделей и вводят механизмы защиты от злоупотреблений.
Однако подобные меры все же остаются добровольными. К тому же они с легкостью разбиваются об «азарт» на фоне мировой гонки ИИ, которая развернулась сейчас преимущественно между США и Китаем. Винить бизнес в данном случае тяжело — устоять перед возможностями этой технологии и выгодой, которую она приносит не только самим компаниям, но и экономикам целых стран, действительно практически нереально.
Можно ли найти компромисс?
Среди возможных направлений регулирования ИИ можно рассмотреть три основных сценария:
Путь 1. Мягкий. Один из наиболее щадящих вариантов — упрощение или смягчение контроля ИИ. Таким образом базовые нормы правового регулирования будут действовать, но не препятствовать развитию технологии — своеобразный компромисс. К сожалению, в реальности его достигнуть невозможно — чаша весов всегда будет склонена в ту или иную сторону. Более доступный вариант — отложить введение норм на определенный срок, чтобы позволить ИИ развиться до достаточно высокого уровня. Так, например, сделали в Правительстве РФ — там планируют подождать еще около 2 лет прежде, чем вводить какие-либо строгие нормы. Этого времени должно хватить на разработку эффективных мер регулирования, а также на масштабный рост российского рынка ИИ.
Путь 2. Выборочный. Еще один вариант — ввести нормы регулирования ИИ только для отдельных сфер, например, чувствительных — связанных с КИИ, а также медициной, логистикой и другими отраслями. Либо решить только самые критические моменты — вопросы, связанные с использованием интеллектуальной собственности и ответственности за решения, принимаемые ИИ. Однако, даже несмотря на кажущуюся «мягкость» такого подхода, введение даже частичных норм серьезно отразится на рынке ИИ. Многие компании однозначно потерпят убытки, а локальное развитие технологии затормозится.
Путь 3. Ва-банк. Самый радикальный вариант — прислушаться к противникам ИИ и поставить во главу угла абсолютный контроль: запретить ИИ использовать для обучения чужую информацию и контент, либо обязать разработчиков платить за них. Кроме того, выставить строгие правила использования нейросетей в различных сферах бизнеса. В качестве финальной меры ограничить темпы развития ИИ — поставить блок на обучение моделей производительностью выше определенного уровня, чтобы избежать преждевременного создания AGI (общего искусственного интеллекта) и затормозить технологическую гонку.
Готово: ИИ запрещен, частично или полностью. Однако непонятно насколько полезным это окажется для рынка, ведь последствия регулирования оказываются неоднозначными во всех трех случаях. ИИ уже успел проникнуть практически во все сферы жизни человека — строгие правила нанесут удар даже по бизнесу, который на первый взгляд не имеет никакой связи с нейросетями, а также создадут препятствия для таких важных научных областей как генная инженерия, фармакология, астрономия и так далее.
Все осложняется и другими факторами, например, перегретым рынком, развернувшейся мировой гонкой ИИ, а также собственными интересами стран. Как уже упоминалось выше, искусственный интеллект сейчас является важным инструментом привлечения инвестиций. Например, в Китае модель DeepSeek признали национальным достоянием, а для защиты ее коммерческой тайны даже ограничили выезд некоторых разработчиков — искусственный интеллект уже играет настолько серьезную роль.
Выходит, что потерь при регулировании ИИ в любом случае не удастся избежать. Универсального действующего свода правил для искусственного интеллекта в ближайшем будущем также не стоит ожидать — вопрос контроля нейросетей сначала будет решаться на уровне отдельных стран. Для этого правительствам предстоит рассмотреть не только приоритеты собственных государств и учесть ситуацию на мировом рынке, но и понять, что им важнее на данный момент — стимулирование развития технологии или правовой «порядок». Вероятно, на эти размышления потребуется еще как минимум 1–2 года.
Еще по теме





