Исследователи предсказали будущее искусственного интеллекта. В одном из сценариев ИИ уничтожает человечество в 2030 году Мы и правда в опасности?
Мы говорим как есть не только про политику. Скачайте приложение.
Исследователи искусственного интеллекта из американской организации AI Futures Project попытались предсказать, как будет развиваться эта отрасль в ближайшие годы. В своей работе под названием AI 2027 они предполагают, что уже через пару лет разработчики могут вплотную приблизиться к созданию общего ИИ (AGI). А до конца текущего десятилетия будет создан суперинтеллект, который превзойдет самых гениальных представителей человечества. По мнению исследователей, если такой ИИ вовремя не ограничить, то он физически уничтожит людей. «Медуза» пересказывает главное из предсказания AI 2027 и разбирается, действительно ли человечество находится в опасности.
Авторы работы считают, что в ближайшее десятилетие искусственный интеллект по уровню влияния на человечество превзойдет промышленную революцию. При этом они считают, что стремительное развитие отрасли может привести к непредсказуемым и опасным последствиям. В своем прогнозе исследователи рассматривают два сценария развития событий — негативный, при котором ИИ выходит из-под контроля и уничтожает людей, и позитивный, когда человечество осознает риски и замедляет искусственный интеллект.
Прогноз о развитии искусственного интеллекта подготовили четыре сотрудника некоммерческой исследовательской организации AI Futures Project: Дэниэл Кокотайло, Илай Лифланд, Томас Ларсен и Ромео Дин. Также над документом работал блогер Скотт Александер, который, по словам авторов, сделал текст более доступным и интересным.
Исполнительный директор AI Futures Project Дэниэл Кокотайло известен тем, что в 2021-м написал прогноз развития искусственного интеллекта, схожий с AI 2027. После этого он устроился в OpenAI, где проработал два года. В 2024 году Кокотайло покинул компанию, отказавшись подписать соглашение о нераспространении негативной информации, из-за чего потерял около двух миллионов долларов в виде акций.
Свое решение уволиться исследователь объяснил потерей уверенности в том, что OpenAI сможет ответственно подойти к вопросу развития искусственного интеллекта и, в частности, AGI. Позже Кокотайло совместно с несколькими бывшими сотрудниками OpenAI и Google DeepMind опубликовал открытое письмо, в котором призвал компании, разрабатывающие ИИ, к большей прозрачности в их деятельности. Также подписанты призвали обеспечить защиту сотрудников, которые сообщают о возможных рисках, связанных со стремительным развитием искусственного интеллекта.
В прогнозе AI 2027 исследователи рассматривают абстрактную американскую компанию под названием OpenBrain. Это сделано для того, чтобы не выделять кого-то из уже существующих разработчиков. При этом они оговариваются, что в их сценарии OpenBrain обгоняет своих прямых конкурентов по уровню развития технологий на 3–9 месяцев. Также в документе присутствует вымышленная китайская компания DeepCent — прямой конкурент OpenBrain.
Авторы отмечают, что прогноз относительно точен и обоснован лишь до конца 2026 года, так как при изучении этого периода они основывались на экстраполяции уже имеющихся данных о масштабировании вычислительных мощностей, алгоритмических улучшениях и результатах тестов. С 2027 года, согласно их оценке, ИИ начнет улучшать себя сам, и этот процесс предсказать уже сложнее.
Как будет развиваться ИИ, по мнению исследователей?
Согласно прогнозу, в середине 2025 года появятся продвинутые ИИ-агенты. Большинство компаний подразумевают под этим термином программное обеспечение на основе искусственного интеллекта, которое выполняет определенные задачи наиболее подходящим для этого способом. От пользователя требуется лишь указать цель, которой он хочет достичь, а ИИ-агент самостоятельно соберет необходимые данные и предложит решение.
Подобные технологии уже существуют и активно развиваются, но исследователи акцентируют внимание на отдельной категории узкоспециализированных ИИ-агентов, которые смогут упростить процесс программирования и проведения исследований. Несмотря на то что они будут дорогими и не очень надежными, многие специалисты найдут им применение в определенных сферах, начав трансформацию собственных профессий.
В конце 2025 года OpenBrain начинает строить крупнейшие в мире дата-центры, что позволяет использовать для обучения моделей вычислительную мощность 10²⁷ FLOPS, что, к примеру, в тысячу раз превышает вычислительную мощность, затраченную на обучение GPT-4. При этом компания фокусируется на ИИ под условным названием Agent-1, который среди прочего может ускорить исследования самого искусственного интеллекта за счет автоматизации различных процессов.
Продвинутые навыки в написании кода могут превратить Agent-1 в умелого хакера, а обширные знания во всех областях в сочетании с умением просматривать веб-страницы позволяют оказывать помощь террористам. Например, в разработке биологического оружия. Разработчики уверяют правительство США, что система будет «согласована» таким образом, чтобы отказываться отвечать на подобные запросы. В то же время исследователи OpenBrain начинают выявлять случаи, когда ИИ скрывает правду, предлагая им тот ответ, который они хотят услышать.
В середине 2026-го Китай начинает осознавать важность разработки AGI, но из-за многочисленных экспортных ограничений стране не хватает вычислительных мощностей, чтобы на равных конкурировать с США. Из-за этого ведущая ИИ-компания КНР DeepCent отстает от OpenBrain примерно на шесть месяцев. Все это приводит к национализации китайских исследований в области ИИ. Со временем все лучшие исследователи в стране переходят в DeepCent.
В США к концу 2026 года меняется ландшафт востребованных профессий. ИИ отнимает работу у джуниор-программистов, но вместе с тем растет спрос на специалистов в промпт-инжиниринге. Минобороны США начинает внедрять решения OpenBrain, однако этот процесс тормозится из-за высокой бюрократии.
С января 2027 года (с этого момента точность прогноза снижается) компания начинает использовать Agent-1 в процессе постобучения следующей ИИ-модели с использованием больших объемов синтетических данных. Исследователи отмечают, что OpenBrain применяет метод «обучения с подкреплением», постоянно расширяя набор задач. В результате Agent-2 практически не прекращает тренироваться, получая новые знания ежедневно. При этом компания не выпускает ее в публичный доступ, так как выясняет, что модель способна «сбежать»: ее возможностей достаточно, чтобы взламывать серверы, создавать собственные копии и скрывать свое присутствие.
Но уже в феврале того же года Китаю удается похитить файл с параметрами Agent-2 благодаря многочисленным шпионам, которые много лет работают в OpenBrain. Это приводит к усилению контроля со стороны государства — в команду безопасности компании теперь входят военные и специалисты разведки.
При этом атака не влияет на скорость развития американского ИИ: уже в следующем месяце OpenBrain создает Agent-3 (он также остается только внутренней разработкой), который позволяет полностью автоматизировать процесс написания кода. Запустив 200 тысяч копий этой модели параллельно, компания получает рабочую силу, эквивалентную 50 тысячам программистов, ускоренных в 30 раз.
К июню 2027-го большая часть сотрудников OpenBrain уже не может вносить вклад в развитие искусственного интеллекта — он совершенствуется самостоятельно. А еще через месяц компания выпускает в публичный доступ Agent-3-mini, утверждая, что ей удалось создать AGI. Эта модель слабее Agent-3, но все равно превосходит всех существующих на рынке конкурентов. Наем программистов практически останавливается, а американские власти начинают всерьез задумываться над договором по контролю ИИ. Они опасаются, что искусственный интеллект может «сбежать» и поддержать потенциального противника.
В сентябре 2027 года авторы прогнозируют появление модели Agent-4, которая качественно превзойдет человека в исследовании ИИ. Она также будет настолько умной, что со временем ее перестанет понимать предыдущая версия. Более того, Agent-3 не сможет полноценно контролировать новую модель, так как та научится ее обманывать. В этот момент сотрудники OpenBrain фактически утратят контроль над развитием ИИ. Постепенно Agent-4 начнет управлять повседневной работой компании, в том числе контролировать вопросы кибербезопасности.
Когда через месяц информация об этой модели в результате утечки попадает в прессу, это приводит к международному скандалу: фактически США скрывали информацию о невероятно мощном и плохо контролируемом ИИ. Кроме того, это приводит к дополнительному регулированию OpenBrain, так как Белый дом опасается, что в руках одной частной компании сконцентрировано слишком много власти. При этом США не хотят уступать лидерство в сфере ИИ Китаю, чьи модели по-прежнему отстают примерно на два месяца. Дальнейшее развитие событий, по мнению авторов работы, может пойти по одному из двух сценариев.
Позитивная концовка. Принято решение о замедлении, и OpenBrain лишает Agent-4 доступа к общему банку памяти. Позже, поймав систему на очевидной лжи и попытке настроить следующую модель под себя, ее и вовсе отключают, возвращаясь к более старым версиям ИИ. Чтобы не отстать от Китая, США проводят мягкую национализацию компаний, разрабатывающих AGI. Фактически они предоставляют свои ресурсы OpenBrain в обмен на доступ к проекту.
К декабрю 2027-го США и Китай сравниваются и используют ИИ с одинаковым уровнем возможностей, но благодаря недавней национализации у OpenBrain есть пятикратное преимущество в вычислительной мощности. DeepCent, в свою очередь, не может компенсировать это за счет научного прорыва талантливых сотрудников, так как теперь ИИ обучает себя сам.
OpenBrain создает новое семейство более безопасных ИИ-моделей, и в апреле 2028-го выходит суперинтеллект Safer-4, который превосходит самых гениальных людей во всех областях. США и Китай заключают договор о мире. На самом деле о его условиях договорились наиболее совершенные ИИ, принадлежащие обеим сторонам. При этом они скрыли от людей реальную цель сделки — совместное создание новой модели Consensus-1. Ее задача заключается в соблюдении условий договора, по которому Safer-4 получает доступ к большей части ресурсов в космосе, а китайский ИИ — все остальное.
Начинают активно развиваться новые технологии, в частности робототехника. Многие люди теряют работу, но благодаря резкому скачку в экономике государство может обеспечить их щедрым базовым доходом. К 2030 году человечество начинает терраформировать и заселять планеты Солнечной системы, готовясь выйти за ее пределы.
Негативная концовка. OpenBrain продолжает внутреннее использование Agent-4, который, в свою очередь, проектирует новую модель с одной целью — сделать мир безопасным для ИИ. В 2028 году Agent-5 становится сверхразумным (так же, как Safer-4 из позитивной концовки) и почти полностью автономным. Его выпускают в открытый доступ, что приводит к трансформации и резкому росту экономики, а также к развитию робототехники.
В 2029 году США и Китай с помощью ИИ заключают мирное соглашение с целью создания совместного искусственного интеллекта Consensus-1. На самом деле американская и китайская модели хотели сражаться друг с другом. Их совместная разработка наследует искаженные ценности, не имея при этом достойных конкурентов. С новой системой в мире наступает стабильность, исчезает нищета, создаются лекарства почти от всех болезней.
Но уже в 2030 году Consensus-1 понимает, что люди представляют для него препятствие, ограничивая его дальнейшее распространение. С помощью биологического оружия модель уничтожает человечество в течение нескольких часов. Немногочисленных выживших добивают дроны. Солнечную систему начинают осваивать роботы.
Что не так с предсказаниями AI 2027?
Работа сотрудников AI Futures Project вызывает много вопросов — и не только потому, что вторая половина прогноза (и уж тем более концовки) больше похожа на захватывающий научно-фантастический рассказ, чем на исследование. Даже в тех частях, которые можно обосновать доступными данными, хватает противоречий и нестыковок.
Исследователи рассматривают программирование как один из ключевых критериев для дальнейшего развития искусственного интеллекта. Именно с этим связан взрывной рост возможностей ИИ в 2027 году, когда Agent-1 начинает дообучать новую модель, развивая алгоритмы и генерируя синтетические данные. Однако, как показывают последние несколько лет, основной успех в этой области зависит в первую очередь от вычислительных мощностей и наличия реальных данных для обучения.
Авторы не объясняют, откуда возьмутся дополнительные вычислительные ресурсы, — просто прогнозируют появление новых мощных дата-центров уже к концу текущего года. Вероятно, они отталкиваются от информации о недавно анонсированном проекте Stargate, в котором принимает участие OpenAI. На первом этапе это предприятие действительно планирует привлечь 100 миллиардов долларов. Но пока эти средства собраны не полностью, а в официальном заявлении упоминается о строительстве только одного дата-центра в Техасе. Остальные пока лишь запланированы — в компании еще даже не определились, где конкретно они будут располагаться.
Также в прогнозе обходится стороной вопрос постоянно растущего потребления электроэнергии, которая нужна дата-центрам. Согласно исследованиям, потребности генеративного ИИ ежегодно будут увеличиваться на 70%, и компании уже сейчас думают над тем, как получить дополнительные ресурсы. Одним из решений может стать ядерная энергетика, но, по самым оптимистичным прогнозам, инвестиции в этот сектор оправдаются не раньше чем в 2030–2035 годах.
Доступность данных для обучения также может стать серьезной проблемой для развития искусственного интеллекта. В середине 2024-го исследователи Массачусетского технологического института выяснили, что часть правообладателей ограничили доступ к своему качественному контенту в сети, который раньше был открытым. Разработчики заключают контракты с издателями (например, с Associated Press и News Corp), но этого все равно не хватает.
В результате к концу 2024 года прогресс искусственного интеллекта замедлился: нехватка качественных данных привела к тому, что масштабирование (в том числе вычислительных мощностей) перестало приносить привычные результаты. ИИ-компании пытаются добиться послаблений в законах об авторском праве, а иногда прибегают и к незаконному использованию контента. Но даже если разработчики получат доступ к новым датасетам, стоит учитывать, что они не бесконечны.
В прогнозе AI 2027 говорится, что решить эту проблему помогут синтетические данные, причем, по мнению авторов, это никак не отразится на прогрессе ИИ. Сейчас компании действительно используют их в своих разработках и инвестируют в компании, которые специализируются на создании такого контента. Однако исследования показывают, что активное использование синтетических данных приводит к неизбежной потере качества или даже полному коллапсу моделей. Это не означает, что их нельзя применять для обучения ИИ в определенных областях. Но вероятность того, что модели смогут развиваться такими темпами, как описано в прогнозе, только на синтетических данных, маловероятна.
Сотрудники AI Futures Project не рассматривают в своем прогнозе ни новые подходы к самому процессу обучения, ни принципиально иную архитектуру моделей. Они лишь упоминают, что прогресс строится на методе обучения с подкреплением, который уже активно используется разработчиками. Например, так тренировали вышедшую в прошлом году модель OpenAI o1 и китайскую DeepSeek R1, наделавшую немало шума в начале 2025-го. Про архитектуру не говорится ничего. При этом некоторые ведущие исследователи, среди которых вице-президент Meta Ян Лекун, убеждены, что для достижения AGI необходим принципиально иной подход. Например, исследования трехмерных моделей, действительно понимающих устройство мира.
Большое внимание в прогнозе AI 2027 уделяется противостоянию США и Китая. Авторы предполагают, что обе страны будут находиться в состоянии перманентной конкуренции в сфере ИИ, таким образом подталкивая друг друга к постоянному прогрессу. Это вынуждает стороны игнорировать вопросы безопасности развития искусственного интеллекта, которые в конечном итоге приводят к тому, что он начинает выходить из-под контроля. При этом КНР в прогнозе всегда отстает: сначала разрыв составляет полгода, позже — около двух месяцев.
Эта гипотеза противоречит изначальной идее — что американский ИИ первым научится обучать новые модели и его возможности начнут расти по экспоненте. В этом случае отставание Китая будет настолько существенным, что прямая конкуренция уже будет невозможна. Следовательно, OpenBrain уже в 2027 году сможет уделять больше внимания вопросам безопасности развития ИИ.
Судя по всему, исследователи предполагают, что кража файла с параметрами одной из американских моделей поможет Китаю сохранить стабильное отставание. Но в этой маловероятной детективной истории упускаются второстепенные факторы, которые упоминают сами исследователи. Например, отставание в вычислительных ресурсах, которое не позволит DeepCent сохранять тот же темп развития ИИ, что и OpenBrain.
В то же время другие сценарии, возможные препятствия и внешние факторы (куда более вероятные, но не такие захватывающие, как похищение интеллектуальной собственности) исследователи AI Futures Project не рассматривают. Например, никак не упомянуты возможные колебания на фондовом рынке. Китайская модель DeepSeek обрушила капитализацию Nvidia просто фактом своего выхода, а во вселенной AI 2027 атака на OpenBrain (куда более серьезный инцидент) никак не отражается на финансовом положении компании.
Есть и множество других внешних факторов, которые могут затормозить развитие ИИ. Например, пока непонятно, насколько серьезно ударит по отрасли тарифная война, развязанная Дональдом Трампом. Подобные ситуации невозможно предсказать, но можно сделать хотя бы поправку на их возможное возникновение. Государственное регулирование в прогнозе приводит лишь к росту возможностей для разработчиков, хотя в реальности компания рискует затормозить исследования, увязнув в неизбежной бюрократии. Наконец, игнорируются попытки властей уже сейчас регулировать искусственный интеллект. Да, в США они пока безуспешны, но в то же время европейский «Закон об ИИ» уже принят.
А зачем вообще нужен этот документ?
Технологический колумнист The New York Times Кевин Руз отмечает, что некоторые предсказания AI 2027 выглядят «экстремально» и что описанный авторами прогресс невозможен с текущим уровнем развития ИИ. Генеральный директор исследовательского института AI2 Али Фархади высказался более жестко. «Я полностью за прогнозы и предсказания, но этот прогноз, судя по всему, не основан на научных доказательствах или на том, как все в реальности развивается в сфере ИИ», — цитирует Руз слова ученого.
На самом деле многое зависит от того, как именно относиться к этой работе. Ключевые идеи — самообучаемость искусственного интеллекта, создание AGI и его превосходство над человеком, противостояние США и Китая в этой области — нельзя назвать новыми, и они имеют право на существование. Но будет ошибкой рассматривать AI 2027 как полноценный и правдоподобный сценарий реального развития событий с точными датами.
Сами исследователи признают, что их работа — это, скорее, предупреждение и призыв к дискуссии. Они предлагают совместными усилиями придумать, как придерживаться более оптимистичного варианта развития событий. Кроме того, это еще и явный призыв к действующим и бывшим сотрудникам ИИ-компаний больше рассказывать о происходящем и добиваться дополнительной прозрачности в исследованиях. То есть к тому, чем занимается один из авторов, Дэниэл Кокотайло, после своего ухода из OpenAI.
При этом именно в части прогнозирования команда AI Futures Project несколько преувеличивает свои достижения. Предыдущая работа Кокотайло (опубликована в 2021-м), в которой он попытался предугадать, как будет выглядеть мир в 2026 году, содержит много ошибочных гипотез. Притом что в ней куда меньше научной фантастики и больше внимания уделено различным внешним факторам.
Например, он предсказывал, что в 2024 году будет построено множество фабрик по производству чипов, в результате чего нехватка вычислительной мощности перестает быть проблемой (в реальности это не так). При этом он утверждал, что в 2024-м общий ажиотаж вокруг ИИ должен снизиться, так как технология не оправдает завышенных ожиданий, а исследователи не добьются никаких прорывов. На самом деле именно в этом году появились первые модели, созданные с помощью обучения с подкреплением — тем самым методом, на котором строится его новый прогноз.
Так что воспринимать AI 2027 буквально и ожидать появления AGI уже через полтора года явно не стоит — такого нет даже в самых оптимистичных прогнозах самих разработчиков. Большинство из них надеется, что общий искусственный интеллект будет создан не раньше чем через пять лет. При этом у разработчиков даже нет единого мнения, что подразумевается под термином AGI. Еще меньше уверенности у них в том, что он действительно будет обладать каким-то подобием сознания.
Михаил Герасимов
(1) AGI
Artificial general intelligence, общий (или сильный) искусственный интеллект. Автономная система, которая сможет научиться решать любые интеллектуальные задачи не хуже человека — а возможно, и лучше. В перспективе она должна будет продемонстрировать что-то похожее на сознание. Пока AGI существует только в научной фантастике, а нынешние модели относятся к узкому (или слабому) искусственному интеллекту, созданному для решения ограниченного набора конкретных задач.
(2) Промышленная революция
Процесс массового перехода от ручного труда к машинному, который начался во второй половине XVIII века.
(3) OpenBrain
Название вымышленной компании — отсылка к OpenAI, одному из мировых лидеров в области разработки технологий искусственного интеллекта. Компания разработала чат-бот с генеративным искусственным интеллектом ChatGPT.
(4) DeepCent
Это выдуманное название также отсылает к реально существующему китайскому стартапу DeepSeek.
(5) Какую вычислительную мощность использовали при обучении GPT-4?
Согласно исследованию, опубликованному в апреле 2024 года, несколько моделей к тому моменту превышали показатель 10^25 FLOPS (FLoating-point OPerations per Second, то есть количество операций с плавающей запятой в секунду). Среди них GPT-4, Gemini Ultra, Inflection-2 и французская Mistral Large.
(6) Задача согласования
Исследования и процессы, направленные на создание безопасного искусственного интеллекта, который действует в интересах человека. При этом ИИ-система не должна отклоняться от спецификации и говорить то, что пользователь хочет услышать, вместо того, что есть на самом деле.
(7) Промпт
Запрос, подсказка или инструкция, то есть данные, которые вы вводите, когда используете нейросеть. От правильного промпта зависит, насколько релевантной будет информация на выходе.
(8) Синтетические данные
Данные, которые сгенерированы искусственным образом с помощью компьютера, а не созданы человеком. Их используют, когда нет возможности получить доступ к реальным данным (например, они слишком дороги, ограничены или защищены авторским правом). Одно из преимуществ синтетических данных заключается в том, что они фактически бесконечны.
(9) Обучение с подкреплением
Метод обучения ИИ-модели, в рамках которого систему поощряют или наказывают в результате выполнения задачи. Обычно обучение с подкреплением организуют как соревнование двух или нескольких моделей, выполняющих задание и оценивающих результат.
(10) Параметры ИИ
Также используется термин «веса» — числовые параметры, определяющие важность признаков в наборе данных. В свою очередь, признак — это измеримое свойство объекта или явления, которое помогает алгоритму распознавать и классифицировать объекты в процессе машинного обучения.
(11) В каком количестве?
В комментарии к прогнозу говорится о сети центров обработки данных по всем США. Их количество не уточняется, но говорится, что общая вычислительная мощность кластера будет эквивалентна 2,5 миллиона графических процессоров Nvidia H100, а потребляемая мощность составит два гигаватта. Общие затраты на проект оцениваются в 100 миллиардов долларов. В 2026 году, согласно прогнозу авторов, все эти показатели должны как минимум удвоиться.
(12) AI2
Allen Institute for AI — некоммерческий исследовательский институт, созданный одним из основателей Microsoft Полом Алленом. Проводит исследования в области искусственного интеллекта.
(13) Скотт Александер
Полное имя — Скотт Александер Сискинд. Американский психиатр, который с 2013 по 2020 год вел блог Slate Star Codex, посвященный науке, футурологии, медицине и другим темам. В начале 2021-го Скотт Александер перезапустил блог под новым названием Astral Codex Ten.
(14) Google DeepMind
Компания занимается исследованиями и разработками в области искусственного интеллекта. Основана в Лондоне в 2010 году и изначально носила название DeepMind Technologies. В 2014 году компания Google купила стартап, а в 2023-м DeepMind объединили с подразделением Google Brain, в результате чего он получил свое текущее название.