Сверхумный ИИ рассорил основателей OpenAI

21.06.202412:30

Прошлогодний прорыв главного продукта OpenAI — чат-бота с генеративным искусственным интеллектом ChatGPT — превратил компанию в звезду мировой IT-индустрии. Однако на пике популярности из стартапа ушли сразу несколько ключевых сотрудников. В их числе сооснователь и главный научный руководитель Илья Суцкевер, а также Ян Лейке, отвечавший в компании за вопросы безопасности ИИ. Отставка главных лиц OpenAI вызвала дискуссии в индустрии о способности и желании компании нести ответственность за долгосрочные последствия появления сверхразумного интеллекта. 

Хаос в OpenAI не закончился

В июле 2023 года OpenAI объявил о формировании исследовательской группы, которая будет следить за развитием сверхумного ИИ-продукта компании и контролировать долгосрочные риски для безопасности. Команду возглавили Суцкевер и Лейке, их группа должна была получить 20% всех вычислительных мощностей OpenAI. Но работа исследовательской команды часто становилась причиной разногласий внутри фирмы, поскольку многие считали, что нечего расходовать важные ресурсы понапрасну.

Сооснователь компании Сэм Альтман взял курс на ее расширение и поставку на рынок новых продуктов, вместо того чтобы сосредоточиться на исследованиях. При этом позиция Альтмана в конечном счете привела к созданию прорывного чат-бота ChatGPT и положило начало волне инвестиций в ИИ. Сам стартап привлек от Microsoft более 13 миллиардов долларов. А к концу этого года выручка OpenAI может превысить два миллиарда долларов.

Акцент на коммерциализацию усилил противостояние внутри компании, которое в итоге вылилось в публичный конфликт: в ноябре 2023 года совет директоров OpenAI сместил Сэма Альтмана с поста генерального директора. Среди тех, кто голосовал за, был и Суцкевер (хотя позже он утверждал, что сожалеет об этом). На фоне последовавшего за отставкой массового восстания сотрудников компании в конфликт вмешался главный инвестор стартапа — Microsoft. Альтмана восстановили в должности спустя всего пять дней после увольнения, а состав совета директоров был обновлен.

В итоге в мае OpenAI, не объясняя причин, покинул другой сооснователь — Илья Суцкевер. Вслед за ним из компании еще один ключевой сотрудник — Ян Лейке. Он сообщил, что решение об уходе было вызвано разногласиями по поводу приоритетов OpenAI и объема ресурсов, выделяемых его исследовательской группе (на сегодняшний день команда вообще расформирована).

Лейке в соцсетях продолжил критиковать позицию Альтмана. Мол, под его руководством компания отдает предпочтение выводу на рынок «блестящих продуктов», а не безопасности. По мнению Лейке, фирма должна уделять больше времени вопросам мониторинга и долгосрочного влияния ИИ на общество. «Нам уже давно пора серьезней отнестись к последствиям ИИ», — заключил он. После своей отставки Лейке присоединился к конкуренту OpenAI — стартапу Anthropic.

Кроме того, в конфликт также вмешалась Хелен Тонер, которая входила в совет правления OpenAI и была причастна к попытке отстранить Альтмана от руководства в ноябре. Она обвинила его в том, что тот не раз вводил совет директоров компании в заблуждение относительно вопросов безопасности. По ее словам, Альтман в течение многих лет «скрывал информацию, искажал некоторые события, а иногда откровенно врал директорам». Например, он не сообщил, что владеет OpenAI Startup Fund, а утверждал, что является независимым членом совета директоров и не имеет финансовой заинтересованности в компании.

Новые вызовы для OpenAI

Хотя тревога относительно стремительного развития ИИ немного спала, необходимость в регулировании новой отрасли остается острой темой, поэтому за успехами стартапа продолжают пристально следить эксперты и пользователи по всему миру.

Особенно это актуально на фоне появления обновленной версии ChatGPT, которую одни называют очередным прорывом, а другие — новой угрозой для мира. GPT-4 стал еще «человечнее», научился общаться более естественным образом, имитировать человеческие эмоции и даже достоверно передавать интонации.

В этой связи опасения Лейке выглядят более чем оправданными, и была вынужден ответить на критику со стороны бывших лидеров компании. 

С заявлением в соцсетях выступили Альтман и президент OpenAI Грег Брокман. Они отметили, что сделать новую технологию безопасной непросто, но компания работает в этом направлении. Кроме того, они подчеркнули, что готовы сдвинуть сроки выхода новых продуктов, если это будет необходимо для достижения приемлемого уровня безопасности.

Позднее руководство OpenAI также анонсировало создание нового комитета по безопасности и защите, который будет выполнять надзор за системами искусственного интеллекта компании. Возглавлять комитет станет сам Альтман.

По мнению эксперта по цифровой трансформации Сергея Лукашкина, уход из OpenAI Ильи Суцкевера, которого многие называли «главным мозгом» компании, абсолютно логичен. А вот дальнейшее развитие стартапа остается под вопросом. «Сегодня модели OpenAI — это главный козырь для Microsoft, который позволит корпорации побороться за долю в поиске с Google, а также увеличить утилизацию [объем использования] облака Microsoft. А от утилизации облачных ресурсов зависит капитализация компании», — добавляет он. 

Уже известно, что место Суцкевера в компании займет директор по научным исследованиям Якуб Пачоцки, поэтому ждать от OpenAI застоя не стоит, считает гендиректор коммуникационного агентства «Монстарс» Илья Левинсон. «Пережить репутационный удар компании поможет прозрачность процессов. Ей стоит публично прорабатывать не только продуктовую коммуникацию, но и вопросы этики, и больше говорить о ценностях ИИ. Вопрос только в том, насколько эту деятельность вообще можно сделать прозрачной», — отмечает собеседник. По его словам, компании, которые занимаются передовыми разработками, всегда подвергаются критике, поэтому каждое обновление ChatGPT и дальше будет вызывает бурную реакцию как среди сторонников быстрого развития ИИ, так и среди тех, кто беспокоится о его вреде для человечества. 

Тем не менее скандалы вокруг OpenAI пока не утихают, и почти каждую неделю вскрываются новые подробности внутренней кухни стартапа. Другая неприятная история была связана с обвинениями со стороны актрисы Скарлетт Йоханссон, которая заявила, что компания украла ее голос для своего AI-ассистента. Из-за этого на стартап обрушилась дополнительная волна критики. Хотя OpenAI так и не признал, что использовал голос актрисы без ее разрешения, ему все-таки пришлось отказаться от спорного голоса в своем чат-боте.

Кроме того, в последнее время усиливается давление на OpenAI со стороны его главного инвестора не только в целях ускорения выхода коммерческих продуктов, но и из-за потенциального сотрудничества с конкурентами. В частности, Microsoft оказался недоволен будущим партнерством OpenAI и Apple. 

Ранее Bloomberg сообщил, что Apple вела переговоры с двумя компаниями — Google и OpenAI — об интеграции двух созданных ими чат-ботов в iOS 18 и, по всей видимости, корпорация отдала предпочтение OpenAI. Официально о сделке может быть объявлено на ежегодной конференции разработчиков Apple WWDC в июне. Известно, что одна из новых функций обновленной ОС поможет пользователям создавать собственные эмодзи на лету с помощью ИИ.

Несмотря на успех в переговорах о сделке и ее потенциальную выгоду для OpenAI в миллиарды долларов, глава Microsoft Сатья Наделла обеспокоен тем, какое влияние это партнерство может оказать на продуктовые амбиции возглавляемой им корпорации. Помимо растущей конкуренции с Apple, есть и другая причина для беспокойства. Сейчас OpenAI во многом использует ресурсы Microsoft для разработки своих проектов, а новое партнерство может привести к перегрузке серверов корпорации.

О рисках новой технологии продолжают высказываться как нынешние, так и бывшие сотрудники OpenAI. На этой неделе они подписали коллективное письмо с призывом создать каналы для открытой критики рисков развития ИИ. К ним присоединились сотрудники других компаний-разработчиков, включая Google DeepMind и Anthropic. Авторы письма настаивают на том, что последствия от внедрения ИИ могут оказаться слишком серьезными — вплоть до полной потери контроля над автономными системами. Они подчеркивают, что, пока в индустрии отсутствует госрегулирование, призвать корпорации к ответу могут только их сотрудники. Поэтому авторы письма призывают защитить работников компаний от давления и ответных мер со стороны руководства.