«Не хочется, чтобы нейросети повторили фильм “Терминатор”»: Маск призвал приостановить разработку ИИ

29.03.202318:58

Более тысячи специалистов, среди которых глава SpaceX, Tesla и Twitter Илон Маск и сооснователь Apple Стив Возняк, потребовали на полгода остановить обучение систем искусственного интеллекта, чтобы найти методы их контроля. Если гонка за «мощные цифровые умы» продолжит быть неуправляемой, это грозит смещением людей с рабочих мест, предупредили они. Но большинство опрошенных «Компанией» экспертов считают, что письмо нагнетает панику для выгоды его авторов. По их словам, человечество наконец-то создало то, о чем мечтало тысячи лет, и останавливаться не имеет смысла

Эксперты подписали открытое письмо, где призвали остановить разработку ИИ мощнее, чем GPT-4 от OpenAI, чтобы независимые специалисты создали, внедрили и проверили общие протоколы безопасности. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми», — отмечено в письме, опубликованное Институтом будущего жизни.

Специалисты призывают все ИИ-лаборатории срочно приостановить не менее чем на шесть месяцев обучение систем искусственного интеллекта. Если же паузу нельзя взять быстро, то «правительства должны вмешаться и ввести мораторий».

Языковую модель с генеративным искусственным интеллектом GPT-4 разработала принадлежащая Microsoft американская OpenAI в марте 2023 года.

На базе этой модели работает многозадачный чат-бот ChatGPT, который демонстрирует производительность на уровне человека в различных профессиональных и академических тестах. Бот способен отвечать почти на любые вопросы пользователей и писать тексты по заданию.

прочитать весь текст

В открытом письме эксперты уточняют, что сегодня даже сами создатели «мощных цифровых умов» не в состоянии понимать их или надежно контролировать. А в это время системы искусственного интеллекта уже становятся конкурентоспособными в решении общих задач. В частности, они могут «наводнить информационные каналы пропагандой и неправдой» и заменить человека на важных рабочих местах. «Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — рассуждают специалисты.

При этом исполнительный директор OpenAI Сэм Альтман письмо не подписал, пишет Reuters. Сама компания заявляла, что перед началом обучения систем нужно принять соглашение об ограничении скорости вычислений, которые используются для создания новых моделей.

«Сознание не может родиться из наших алгоритмов»

Подписавший письмо профессор Нью-Йоркского университета Гэри Маркус в разговоре с Reuters отмечает, что крупные игроки на рынке искусственного интеллекта становятся все более скрытными в отношении своей деятельности и «это осложняет защиту общества от вреда, который может материализоваться».

«Думаю, что опасения специалистов рациональны. Не хочется, чтобы нейросети повторили фильм “Терминатор”, но, похоже, именно к этому и идет. Учитывая, что мы пока не знаем возможностей искусственного интеллекта, сделать паузу в этом направлении для всех разработчиков — логичное и верное решение», — говорит в беседе с «Компанией» директор Telecom Daily Денис Кусков.

По его словам, контроль нейросетей — «очень тяжелый процесс». Так, по разным сторонам любой технологии всегда стоят владельцы-разработчики и хакеры, поэтому нельзя исключать взлома нейросети и последующего мошенничества, отмечает Кусков. Именно поэтому компании, которые разрабатывают все связанное с ИИ, должны отдавать себе отчет, что может произойти при взломе, и нести за это ответственность, отмечает Кусков.

еще по теме:
Будущее наступило
Топ-5 самых «талантливых» нейросетей мира
технологии

Эксперт по искусственному интеллекту Роман Душкин называет авторов письма алармистами, у которых «есть свои мотивы» и они «что-то ловят на хайпе». Он настроен скептически к прогнозам по замене людей нейросетями. «Массовая смена людей на роботов приведет к массовой безработице. Это серьезная социальная проблема, которую никакое нормальное правительство не допустит», — уверен эксперт. Если же в силу экономических причин или по вопросам безопасности придется менять людей на системы с ИИ, то это случится плавно, в соответствии с нормативными актами правового и технического характера. Душкин утверждает, что должны пройти годы, чтобы нейросети выросли до такого уровня угрозы.

Душкин рекомендует вместо опасений использовать новые инструменты для собственной выгоды, повышения эффективности и ради интереса — все это повысит ценность человека как сотрудника. Он напомнил, что в 20-е годы прошлого века произошла волна механизации, и те работники, что предпочли трактор традиционным инструментам пахоты, получили огромное преимущество.

У Маска и других экспертов нет опасений — они всего лишь инвестируют в компании, проигрывающие в этой гонке крупным корпорациям, и пытаются воспользоваться страхами людей для сокращения своего отставания, говорит Эльдар Муртазин, ведущий аналитик Mobile Research Group.

Он сомневается, что индустрия прислушается к призыву Маска, поскольку «до искусственного интеллекта нам еще как пешком до Луны». «Запрещать или ставить на паузу технологии с ИИ — это ерунда. Сейчас нет хотя бы одного доказательства, что написанные человеком алгоритмы могут сами вдруг превратиться в нечто другое, это невозможно. Есть законы Вселенной, которые невозможно обойти», — объяснил Муртазин. Он добавил, что «сознание не может родиться из наших алгоритмов», а достичь такой эволюции вряд ли получится в ближайшие годы.

Душкин тоже считает, что мировые разработчики не последуют призыву Маска и Возняка. Они, по его словам, в первую очередь работают в Microsoft, которая вложила $10 млрд в покупку GPT-4, обладающей «интеллектом нечеловеческого уровня». «Люди наконец создали то, о чем мечтали тысячи лет. Мы находимся на пороге нового. Нужно изучать это явление, параллельно познавать и свои интеллект и разум — это откроет широчайшие возможности. Надо радоваться, а не ныть, что мы все умрем», — заключил Душкин.