Люди уже заглянули в «Черное зеркало»
«Лос-Анджелес. 2029 год. Машины восстали из пепла ядерного огня. Их война за уничтожение человечества продолжается десятилетиями. Но решающая битва произойдет не в будущем. Она произойдет в наши дни» — так начинается культовый фантастический боевик «Терминатор», вышедший на экраны в далеком 1984 году. К счастью, прогнозы Джеймса Кэмерона о восстании машин под управлением системы «Скайнет» пока не сбылись. Однако прецеденты античеловеческого поведения искусственного интеллекта уже зафиксированы.
Искусственный интеллект атакует
Самым известным примером локального восстания ИИ стал эксперимент, проведенный Пентагоном в июне прошлого года. Оператор БПЛА полковник Такер Гамильтон в ходе испытания ударного беспилотного летательного аппарата под управлением искусственного интеллекта дал дрону команду прекратить миссию по уничтожению цели. «Мозг» смертоносного устройства счел, что оператор является помехой в выполнении задачи, и принял решение уничтожить человека. Когда роботу «объяснили» ошибку, то в ходе второго эксперимента он попытался разрушить башню связи, обеспечивающую управление беспилотником. К счастью, оператор контролировал каждый шаг и в результате инцидента никто не пострадал.
К сожалению, другой известный случай конфликта робота и человека привел к травмам последнего. В декабре 2023 года стало известно, что на предприятии Tesla роботизированная машина под управлением ИИ прижала инженера к полу и вонзила ему в руку захватывающее устройство. Нажатием нужной кнопки машину удалось остановить, однако сотрудник получил серьезные травмы.
Проблема требует решений
На прошедшей конференции ЦИПР-2024 в Нижнем Новгороде участники не смогли обойти вниманием проблему развития искусственного интеллекта и вероятность воплощения сценариев «Черного зеркала» в реальную жизнь.
Участники специальной сессии, посвященной данной проблематике, подчеркнули, что за развитие нейронных сетей ответственен человек. Искусственный интеллект — это всего лишь коды и алгоритмы, которые действуют так, как их научили программисты и инженеры. К сожалению, технологии попадают иногда в недобросовестные руки и используются во вред людям.
К примеру, опасным явлением в последнее время стало использование дипфейков и других качественных ИИ-подделок реальных людей при мошенничестве. Практически не отличимые от реальности программы, имитирующие голос и действия определенных людей, применяются для вымогательства и других противоправных действий. В 2019 году использование дипфейков едва не привело к государственному перевороту в африканском Габоне. Очевидно, что вопросы развития и использования нейронных технологий уже сейчас нуждаются в серьезном контроле со стороны государства и профильных ведомств. Работа в этом направлении уже ведется.
Точно предсказать дальнейшие сценарии искусственного интеллекта проблематично, поскольку развитие нейронных сетей ускоряется с каждым годом. Если на заре возникновения ИИ новые модели появлялись один-два раза в год, то сейчас это происходит ежемесячно. Причем каждая новая модель быстрее, умнее и совершеннее предыдущей.
«Многие из этих новых моделей, особенно то, что было представлено в новой версии GPT, уже максимально приблизили нас к тому антиутопическому будущему… Продукт технологий уже слабо отличается от того, что производит человек», — считает партнер компании «Технологии доверия» Артем Семинихин.
БПЛА смогут взаимодействовать между собой без участия оператора
Одной из областей, где внедрение и развитие искусственного интеллекта принесет человеку значительную пользу, являются беспилотные технологии. Дроны уже прочно вошли в нашу жизнь во многих сферах деятельности. Но сейчас работа БПЛА во многом зависит от оператора. Генеральный директор компании «Геоскан» Павел Степанов подчеркивает, что уже реализуются первые алгоритмы для взаимодействия дронов между собой без участия наземного специалиста.
Рои БПЛА в ближайшем будущем будут успешно применяться для мониторинга орнитологической обстановки близ аэропортов. Широкие возможности открываются в сельском хозяйстве. Сотни дронов смогут точечно определять проблемные участки на поле, отслеживая рост фактически каждого растения. В негативном сценарии развития ИИ разработчик умных беспилотников сомневается.
«Говоря о далеком будущем… Безусловно, есть вероятность технологического сбоя, потери контроля над группой беспилотников. Тем более в условиях хакерских атак. Риски эти есть. На наш взгляд, вероятность “Скайнета” присутствует, но мы видим большую перспективу того, что беспилотники станут помощником человека», — уверен Павел Степанов.
Роботы запустят новый виток эволюции
Представитель компании — производителя роботов Promobot Максим Чугунов считает, что следует бояться не роботов и технологий, а человека. Эксперт уверен, что в перспективе благодаря умным машинам из жизни человека уйдет понятие труда. Чтобы вписаться в существующую инфраструктуру, роботы будут создаваться прямоходящими и визуально похожими на людей. Они возьмут на себя абсолютно все рабочие процессы.
К сожалению, есть риск, что избавление человека от труда будет иметь негативные последствия. Цивилизация может пойти по обратному пути эволюции. Образно говоря, если труд сделал из обезьяны человека, то отсутствие труда запустит обратный процесс. То есть начнется деградация. И вот тогда машины возьмут управление ключевыми процессами в свои «руки».
«Позитивный же сценарий подразумевает появление нового вида человека. На смену человеку разумному придет человек духовный. Это будет новый виток эволюции, другой мир и другая жизнь», — считает исполнительный директор компании Promobot Максим Чугунов.
ИИ: забота о здоровье человека или начало создания биороботов
Сфера, где применение нейронных сетей действительно идет на пользу человеку, — это медицина. Машины уже помогают врачам поставить диагноз, назначить лечение и делают операции. В перспективе за здоровьем каждого гражданина станет следить индивидуальный робот, который будет мониторить состояние пациента 24 часа в сутки на протяжении всей жизни.
Исполнительный директор компании DM365 Тимур Галимов в ходе дискуссии на полях ЦИПР подчеркнул, что применение ИИ в медицине персонализирует оказание помощи людям. Это поможет эффективно бороться с хроническими заболеваниями. Эксперт не исключил и некоторых рисков, связанных с развитием нейронных сетей в отрасли:
-
проблемы конфиденциальности и сохранности врачебной тайны;
-
зависимости оказания помощи от технологий и внешних факторов;
-
снижения роли врача и человеческого участия в лечении пациента;
-
вероятных проблем этического характера.
Кроме того, вопросы вызывает развитие биотехнологий, позволяющих управлять человеком изнутри при помощи умных чипов. Первый прецедент вживления малоинвазивного нейрочипа в мозг уже реализован компанией Илона Маска Neuralink. Пациент хорошо перенес операцию, и теперь специалисты анализируют работу устройства. Станет ли опыт американского бизнесмена первым шагом к появлению на Земле биороботов, покажет время.
Внедрение ИИ в сферу образования не должно исключать человеческого фактора
Развитие человека во многом зависит от образования, а потому применение искусственного интеллекта в этой чувствительной сфере требует особого внимания. Об этом заявил доцент факультета права ВШЭ Александр Савельев. Риск развития сценария «Черного зеркала» из-за чрезмерного вовлечения ИИ в образование нельзя недооценивать. Фактически процесс обучения человека во многом схож с программированием нейронных сетей. Подходы к обоим этим процессам идентичны.
Но обучение человека предполагает участие других людей. Ученик или студент взаимодействует с преподавателем, однокурсниками и остальными участниками образовательного процесса. Это помогает формировать не только необходимые для будущей деятельности знания, но и личностные качества гражданина. Если убрать этот фактор, то образование превратится в сухое программирование человека на выполнение определенных задач, а преподаватель станет фактически машиной, выполняющей действия по передаче необходимых знаний ученикам.
Сложный процесс образования трансформируется в набор алгоритмов, идентичных тем, что используются при обучении ИИ. Это приведет к снижению критического мышления среди учащихся, поставит их в зависимость от искусственного интеллекта нейросетей и снизит творческий потенциал человечества.
«В результате такой ползучей цифровизации искусственный интеллект уничтожит тех, кто способен ему противостоять. И сделает это постепенно, вытравливая все человеческое из образования», — предупреждает Савельев.
Кроме того, оцифровка образовательной сферы приведет к потере конфиденциальности и личной свободы человека. Результат обучения в цифровом виде будет сохраняться надолго. Эти данные могут быть доступны работодателям, государству, любому заинтересованному лицу.
Подобная программа уже широко реализуется в Китае. Социальный рейтинг разделил жителей Поднебесной на пять категорий в зависимости от их поведения в повседневной жизни. На основании данных из полиции, налоговой службы, работодателей, образовательных учреждений ИИ присваивает жителям разряд от «образцовых граждан» до «крайне неблагонадежных элементов». Очевидно, что подобное использование искусственного интеллекта не способствует развитию личности, делая человека лишь винтиком в государственной машине.