ИИ реже используют для кибератак, чем для создания дипфейков
Искусственный интеллект (ИИ) чаще используют для создания дипфейков с изображением политиков и звезд, чем для кибератак. Также ИИ нередко применяют для создания чат-ботов, несущих в Сеть дезинформацию.
Таковы результаты исследования, которое провели входящие в состав Google компания DeepMind, занимающаяся искусственным интеллектом, и Jigsaw, ведущая борьбу с угрозами обществу, сообщает Financial Times.
«Создаваемые искусственным интеллектом дипфейки, которые изображают политиков и знаменитостей, гораздо более распространены, чем попытки использовать ИИ для помощи в кибератаках», — подчеркивается в публикации.
Издание отмечает, что вторым по частоте ненадлежащего применения инструментов генеративного ИИ являются текстовые инструменты, такие как чат-боты, для публикации дезинформации в Сети. Как говорится в исследовании, ИИ часто используют для формирования общественного мнения или влияния на него.
Ранее сообщалось, что искусственный интеллект, которым годами интересовались только «гики» и узкие специалисты в IT, стал мейнстримовым понятием. И почти первыми пристальное внимание на него обратили военные и политики, увидевшие в технологии новое «поле боя» между сверхдержавами. Почему даже близкие союзники вроде США и Великобритании стараются разработать «суверенный ИИ» — в материале «Компании».