Top.Mail.Ru
мнения

Идентификация спорна: как защитить себя в эпоху дипфейков

Фото: 123rf / Legion-Media Фото: 123rf / Legion-Media

В СМИ и Telegram-каналах прокатилась волна новостей о том, как мошенники подделывают голоса людей при помощи нейросетей, чтобы вымогать деньги у их знакомых и родственников. При этом злоумышленники используют профили в соцсетях, чтобы воссоздать точный «цифровой портрет» для большей убедительности. Как нам всем теперь жить в новой реальности, где нельзя верить даже тому, что видишь? Рассуждает Сергей Лукашкин, директор научно-образовательного центра “Цифровые технологии в образовании” ВШМ СПбГУ. 

Кто страдает от дипфейков

От дипфейков достается не только блогерам — мошенничество уже достигает колоссальных масштабов. В январе этого года злоумышленники убедили сотрудника международной корпорации в Гонконге перевести им $25 млн при помощи видео дипфейка с его начальником и коллегами. А в 2020-м менеджер банка в ОАЭ не распознал фальшивый голос начальника и совершил переводы на сумму $35 млн.

Кроме того, страдает индустрия профессионального озвучивания. Яркий пример — недавний кейс, когда актриса дубляжа подала в суд на «Тинькофф» за то, что ее голос использовали в аудиорекламе. Якобы она давала согласие лишь на то, чтобы голосом пользовались для внутренних нужд и обучения ассистента «Олега». А в итоге обнаружила его в базе сервиса Tinkoff VoiceKit и других площадках для продажи телеканалам и стриминговым сервисам.

Фейки давно уже вышли на самый высокий уровень. Как это было в 2018-м с видео, где Дональд Трамп якобы призывал бельгийцев выйти из Парижского соглашения по климату. Тогда ролик разместила Фламандская социалистическая партия, чтобы привлечь внимание к проблеме. Осенью 2023-го фейковое видео опять использовалось в попытке дискредитировать Трампа на старте президентской гонки. О том, к чему могут привести подобные методы, высказались члены Конгресса в открытом письме директору национальной разведки...

Наконец, дипфейки все чаще стали использовать для создания интимных видео с реальными людьми без их согласия. И тут под угрозой может оказаться любой, кому захотят отомстить бывшие партнеры или коллеги.

Может, просто все запретить?

В даркнете, по данным СМИ, можно заказать видео-дипфейк с любым человеком за $20 тыс. Чаще всего это схемы с переводом криптовалют или фальшивыми розыгрышами. Следом идут порнографические видео, которые используют для шантажа. Все это — «слепая» зона, которая никак не контролируется, пока не наступают реальные последствия в виде вымогательства или кражи.

Но об угрозах, которые несут дипфейки уже начали задумываться на уровне государств. После недавнего скандала с фальшивым эротическим видео певицы Тейлор Свифт о проблеме заговорили даже в Белом доме. А СЕО Microsoft Сатья Наделла призвал всех представителей IT-индустрии нести ответственность за подобные технологии и разработать меры по контролю за ними.

Чтобы бороться с дипфейками руководитель OpenAI Сэм Альтман и его коллеги предлагают «прокачать» генеративные сервисы так, чтобы они автоматически маркировали весь контент, который создают. В некоторых приложениях разработчики сами вводят ограничения: например, в Veritone можно сгенерировать звук только с утвержденными голосами.

Уже есть детекторы голоса и видео, которые анализируют запись, чтобы распознать фейк. К примеру, детектор от Intel определяет подлинность видео по тому, как меняется цвет лица во время разговора и движения. Есть и другие сервисы для распознавания дипфейков: Deeptrace, Sensity, Amber Video, Truepic.

А что же в России?

Увы, сейчас никакой ответственности за создание дипфейков в России нет. Исключение — создание порнографических видео, существование которых вы можете доказать. Как только сгенерированные видео или голос попали в сеть, можно заявлять о моральном или материальном ущербе. Шансов отстоять свою идентичность больше, если с помощью фейков выманивают деньги или пытаются шантажировать. Кроме того, вы можете заставить удалить запись из сети — воспользовавшись «правом на забвение», которое закреплено в ГК.

При этом дипфейки уже называют «орудием гибридной войны»: только за первые полгода 2023-го в «Ру» сегменте появилось 1600 уникальных фейков и 5 млн их копий. Это соответственно на 10% и 42% больше, чем за тот же период 2022-го. В прошлом году впервые прозвучали призывы разрабатывать алгоритмы для распознавания дипфейков, а сам термин хотят добавить в статьях УК о мошенничестве.

На прошлогоднем ПМЭФ также была представлена система мониторинга дипфейков под названием «Зефир». Ее разработали в АНО «Диалог регионы». Система работает на базе ИИ и распознает видео и голосовые дипфейки в режиме онлайн: алгоритмы расшифровывают аудио в текст и ищут дубликаты, а также распознают съемку на хромакее и другие артефакты ИИ. Разработчики утверждают, что точность «Зефира» составляет 81%, однако для широкого пользования сервис пока недоступен.

Пока все это — лишь первые попытки сдержать волну дипфейков, которые приводят к все большим потерям, финансовым и репутационным. Что же мешает взять дипфейки под госконтроль, как это было, например, с контрафактным алкоголем?

Прежде всего то, что технология развивается и распространяется совсем по другим законам, нежели конкретный товар. И если производство и продажу алкоголя государство, в той или иной степени, контролирует столетиями, то массовому распространению генеративных сетей, от силы, 5 лет. За это время нам пока не удалось сформировать единых стандартов и механизмов для их регулирования. Самым перспективным выглядит вариант обязать разработчиков добавлять «водяные знаки», чтобы мы сразу могли отличить сгенерированное видео или голос. Но как быть с иностранными сервисами? Ответа пока нет.

Эпоха постправды

Хотя технология создания видео или голоса при помощи ИИ сравнительно молодая, остановить ее развитие вряд ли получится. Мы уже выпустили джина из бутылки, и загнать его обратно не выйдет.

Пока что распознать подделку можно по специальным маркерам. Например, нарушение пропорций, нехарактерный акцент, неуместные паузы и неправильные интонации. Часто в дипфейках заметны артефакты в виде пикселей, поплывших контуров, неестественных складок . Но с развитием технологий отличить дипфейки станет почти невозможно, да и сегодня они вводят в заблуждение большинство.

Дальнейшие сценарии могут быть разными. Негативный мы уже наблюдаем: доверие к СМИ неуклонно падает, а следом мы разучимся доверять любым видео или голосам в личной переписке. Одновременно многие начнут пользоваться этим для манипуляций общественным мнением, дезинформации и пропаганды . А что, если кто-то использует дипфейк, чтобы посадить невиновного?

Но и позитивный вывод тоже есть: ведь технологию можно использовать во благо. Генерация видео и голоса в рекламе или кино поможет многократно снизить затраты на производство и ускорить процесс. А еще — сделать то, что людям не под силу: выполнять рискованные трюки и перевоплощения, «омолодить» пожилых актеров или «оживить» умерших.

Что касается личных стратегий по борьбе с дипфейками, то их тоже две:

  1. Выключить компьютер, удалить все аккаунты и стереть свой «цифровой след».

  2. Наоборот, выкладывать как можно больше, чтобы потом было легко доказать, что на видео не вы.

Как, например, сделал американский художник Хасан Элаха, который был ошибочно внесен в список подозрительных лиц ФБР. После нескольких месяцев допросов с Элахи, наконец, сняли подозрения, но посоветовали держать ФБР в курсе его местонахождения. Что он и сделал — транслируя все подробности своей жизни онлайн. В итоге получился интерактивный арт-проект, состоящий из фото, видео, диалогов, геолокаций, перемещений, чеков и даже банковских транзакций.

Как итог — всем нам нужно принять новую реальность, где на смену цифровой экономике приходит экономика доверия. Это значит, что главным капиталом становятся доверие со стороны клиента или пользователя, основанное на репутации компании или СМИ. И, конечно же, нужно вырабатывать единые этические нормы и правовое регулирование, вводить ответственность за дипфейки, даже если они еще не причинили вреда.

Еще по теме