Мифологизация ИИ: участники ВЭФ оценили риски нейросетевых технологий
Фото: Валентин Егоршин / Росконгресс
Доступ к условно бесплатным нейросетевым инструментам, которыми все активнее пользуются россияне, заставляет задуматься, кому это на самом деле выгодно. Ответ на этот вопрос искали участники сессии «Измерение социального воздействия ИИ: прогресс, риски, пути развития», прошедшей в рамках ВЭФ-2025.
«Адский симулятор»
Официальный представитель МИД России, директор департамента информации и печати МИД России Мария Захарова призвала не пугать друг друга и не стопориться в технологическом развитии, но четко обозначать риски. По ее мнению, основная проблема сводится к качеству информации и скорости ее распространения.
«С нашего ракурса куда более заметна трансформация способов создания, трансляции и потребления информации, которая способна оказать далеко идущие последствия, в первую очередь на саму способность человека к практическому анализу, к самостоятельному мышлению», — подчеркнула Мария Захарова.
Она отметила, что бесконтрольное, всеохватное внедрение самообучающихся алгоритмов еще не изучено: эффекты мало заметны сейчас, но в длительной перспективе могут стать серьезными и не всегда позитивными факторами формирования личности, которые к тому же будут передаваться по наследству.
«Это может привести к генеральной деградации когнитивного аппарата людей по мере роста зависимости от подсказок искусственного интеллекта, — отметила Мария Захарова. — Мы можем ощутить себя людьми, самовольно отдавшими собственную свободу: есть же кто-то, кто подсказывает, выдает решение».
В творческих сферах ИИ может спровоцировать появление, по словам Захаровой, «адского симулятора»: авторы будут ограничены чужими фантазиями, уже реализованными проектами и заготовками.
Еще одна угроза, по мнению Марии Захаровой, — риск эрозии культурного многообразия человечества из-за вытеснения уникальных национальных культур усредненными мировоззренческими моделями, обученными на глобальных данных неизвестного происхождения.
«Еще страшнее себе представить, что будет, когда такие данные для обучения будут специально препарировать, чтобы сконструировать, в перспективе, по заданным параметрам нужный тип общества», — отметила Мария Захарова.
Она подчеркнула, что искусственный интеллект уже используется для нового неоколониального управления миром. Раньше для этого нужны были флот, армия, миссионеры. Сейчас экспансия происходит за секунду через доставку соответствующего контента и установки онлайн-приложений.
Массовое производство цифрового мусора не так безобидно, как кажется на первый взгляд. Первые дипфейки начали появляться несколько лет назад, и еще не все поняли, что мы, по мнению Захаровой, попали в антиутопию — когда до уровня неразличимости подделывают голоса и внешность различных людей. По статистике АНО «Диалог Регион» 2025 года, в российском информационном поле зафиксирован 231 уникальный дипфейк и 29 тысяч копий дипфейков — это в три раза больше аналогичных показателей за весь 2024-й год. Это только то, что было зафиксировано. По мере роста доступности технологий, эти показатели будут расти в геометрической прогрессии.
По мнению Марии Захаровой, требует изучения психологический аспект влияния искусственного интеллекта, связанного с человеческой склонностью одушевлять алгоритм под впечатлением от машинной мимикрии. Если взрослые, являющиеся носителями традиционных ценностей, не позволяют унести себя в квазиреальность, то молодые люди и дети вполне могут формировать привязанности с чат-ботами.
Безопасность — в голове
Как заметил Александр Крутиков, генеральный директор Фонда «Кристалл роста», пришло время заботиться об особой безопасности человека: наступает момент, когда надо защищать то, что раньше считали неуловимым — мысли, чувства и нервные импульсы. Все это требует новых законов и свежего подхода от государства. Первое — никаких компромиссов: права человека прежде всего, даже если речь идет об отношениях с умными машинами. Человек должен быть уверен, что его когнитивная неприкосновенность защищена, и все манипуляции с нашим сознанием через нейроинтерфейсы возможны только добровольно и с полным пониманием.
Особое внимание — запуск «критических» AI-систем. Подобные решения должны подтверждать не один, а сразу два независимых участника, особенно если дело касается военной инфраструктуры. А еще любой контент, созданный искусственным интеллектом, обязательно должен быть промаркирован.
Все это может работать только при условии, что появятся настоящие регуляторы безопасности в сфере AI — те, кто смогут не только лицензировать, но и вовремя остановить тот софт или проект, который реально опасен. Сейчас такой структуры просто нет, а спрос назрел. По словам Александра Крутикова, доктрина в области ИИ уже подготовлена для обсуждения экспертами и бизнесом.
Мифы вокруг ИИ
Управление рисками ИИ — вопрос международный. Одна из действующих в рамках «Гражданской двадцатки» (структура, созданная при G20) целевых групп посвящена ИИ. Российская делегация активно принимает участие в ее работе — и это еще раз подчеркивает, что никакой изолированности нашей страны на международной арене не наблюдается. В ноябре ожидается подписание меморандума по развитию нейросетевых технологий — этот шаг необходим для согласования стандартов, общего понимания и регуляторных подходов к использованию ИИ. Об этом на сессии рассказал Дмитрий Стасюлис, президент Международной организации Евразийского сотрудничества, шерп России в «Гражданской двадцатке».
Он подчеркнул, что ИИ слишком мифологизирован. Часть общества полагает, что именно эта технология решит все проблемы. Другая — что он символизирует конец времен. И в одном, и в другом случае мы имеем дело с проявлением новой технологической религии, достаточно тоталитарной.
«С точки зрения общественного контроля, очень важно не передать эти силы в руки бизнесменов или технарей. Так получилось, что сейчас главным актором и защитником простого человека является государство. И поэтому нам нужно обеспечить контроль со стороны государства за технологическими корпорациями», — отметил Дмитрий Стасюлис.
Гендиректор АНО «Белый интернет», член Совета при Президенте Российской Федерации по развитию гражданского общества и правам человека Элина Сидоренко отметила, что вопросы безопасности, связанные с внедрением ИИ, переносятся в экономическую сферу.
США демонстрируют заинтересованность в развитии искусственного интеллекта и готовы убеждать всех в пользе свободы интернета. Европа идет по обратному пути. России только предстоит выработать стандарты для чувствительных сфер деятельности, в том числе в образовании.
Первый зампред комиссии Общественной палаты города Москвы по развитию гражданского общества и общественному контролю Александр Асафов подчеркивает, что многие люди уже используют ИИ для повышения собственной эффективности, ведь сервисы воспринимаются как бесплатные или почти бесплатные инструменты. Чаще всего предложенные нейросетевые решения не идеальные, что называется, с допустимым качеством — и это не всегда в интересах человека. Подростковые самоубийства, неправильные медицинские диагнозы, распавшиеся браки — обратная сторона использования того самого всемогущего помощника. При поиске ответов на сложнейшие экзистенциальные темы, типа обсуждения суицидальных тенденций, 80% ответов нейросети могут привести к суициду, приводит Асафов статистические данные.
«Мы считаем, что искусственный интеллект — это дружелюбная разработка, удобная для человечества. Это, мягко говоря, не так: технологии не находятся в вакууме, у них есть и коммерческие, и государственные хозяева, и они действуют исключительно в своих, а не в наших, и тем более не во всеобщих интересах», — напоминает Асафов.
Еще по теме
