Английское слово “genesis” чаще всего переводится на русский язык как «происхождение». Например, именно оно присутствует в заглавии классического труда Чарльза Дарвина «Происхождение видов». Но есть и другой вариант перевода – «бытие», как первая книга Библии.
Исполнительный указ, подписанный президентом США Дональдом Трампом в ноябре 2025 г., громко именуется “Mission Genesis”. Учитывая масштаб амбиции, заложенной в этот документ, перевод напрашивается только один: «Миссия Бытие». Указ описывает, как Соединённым Штатам объединить национальные научные базы данных и частные вычислительные мощности, чтобы перегнать Китай в гонке ИИ. Интеграцию в единую систему такого количества научных данных и ИИ-мощностей не затевали ещё нигде.
Цель заявляемой политики неясна. Утверждается, что это «победа в гонке». Однако финишной ленточки в таком забеге нет. Ведь цель тех же китайцев – совершенствование, а не результат. Нет ни «общего приза», ни явной «победы», ни даже понятных правил состязания. Следующим этапом соревнования может оказаться что угодно – от создания робота-президента до внедрения ИИ в каждом животноводческом хозяйстве[1] или возвращения экспериментов с клонированием.
Пока нет общей цели, остаётся конкуренция доктрин и предпринимателей, создающих глобальные технологии. Документ Трампа претендует на то, чтобы продемонстрировать, чем политика Соединённых Штатов в сфере ИИ отличается от остальных. Предлагаемый курс не выглядит регулирующим, напротив, он как будто направлен на дерегуляцию и превращение научно-технической жизни в особую экспериментальную зону. Китайское намерение выработать стандарты в сфере ИИ направлено на то, чтобы стимулировать разные отрасли индустрии больше доверять этой технологии. Власти фактически подтверждают, что инициативы на местах будут поддержаны на уровне Государственного совета Китая. Планы ЕС по работе с искусственным интеллектом похожи в этом отношении на китайские: Брюссель настаивает на создании стандартов, хотя не предлагает конкретных мер[2].
Несмотря на различия в подходах, вырисовывается, по крайней мере, один общий вывод. Регулирование ИИ уже отличается от регулирования других технологий и на уровне работы с акторами, и по части задач, которые готово взять на себя государство.
Чтобы понять, в чём суть технологической политики Трампа по сравнению с действиями, предпринимаемыми в других странах, обратимся к анализу документов, а также историческому контексту их появления.
Американское поле экспериментов
В первые дни после инаугурации Дональд Трамп подписал указ № 14179, которым поручил сформировать политику «обеспечения, сохранения и укрепления доминирования США в области ИИ в мире»[3]. Документ направлен на повышение экономической конкурентоспособности, укрепление национальной безопасности и приоритет систем ИИ, свободных от «идеологической предвзятости и искусственно созданных социальных программ». Он предписывает должностным лицам Белого дома пересмотреть, изменить или отменить действующие политики и директивы, препятствующие инновациям и лидерству в области ИИ. До этого Трамп отменил указ Байдена 2023 г. о безопасном, надёжном и заслуживающем доверия ИИ[4].
В июле 2025 г. последовал AI Action Plan под лозунгом «Выиграть гонку», что подразумевает соревнование с Китаем: «Соединённые Штаты борются за глобальное доминирование в области искусственного интеллекта. Тот, кто обладает крупнейшей экосистемой ИИ, установит мировые стандарты и получит значительные преимущества в экономике и безопасности»[5]. План служит трём целям: ускорение инноваций в области ИИ, создание инфраструктуры ИИ в США и международной дипломатии, ориентированной на американский экспорт, стандарты и безопасность.
24 ноября 2025 г. Трамп анонсировал ту самую «Миссию Бытие».
Подробно описаны бюрократические процессы, необходимые для достижения поставленных целей, хотя для многих госслужащих, не разделяющих взгляды Трампа, – это скорее список рекомендаций, которые станут предметом широких дискуссий с заинтересованными сторонами. Можно предположить, что основным адресатом является именно крупный бизнес, в частности, индустриальные компании. Трамп стремится развеять недоверие промышленников к новым технологиям и призывает развивать культуру тестирования, когда критически важные предприятия могут безопасно экспериментировать с ИИ. Так, среди ключевых задач по управлению новой инициативой упоминается «…создание и распространение инструментов, позволяющих проводить автономные эксперименты и производство с использованием искусственного интеллекта в значимых областях»[6].
Данные, накопленные за десятилетия федеральными агентствами и национальными лабораториями, предполагается объединить для обучения ИИ, автоматизации экспериментов, ускорения моделирования и сокращения циклов научных открытий. По масштабу и амбициям администрация Трампа сравнивает подобную миссию с самыми крупными инициативами прошлого. «В этот решающий момент стоящие перед нами вызовы требуют исторических общенациональных усилий, сопоставимых по срочности и амбициям с Манхэттенским проектом…»[7]
Genesis призвана обеспечить прорыв сразу в трёх стратегических областях: энергетике (включая передовые ядерные технологии и термоядерный синтез), естественных науках (квантовая физика, материаловедение, биотехнологии и т.д.) и национальной безопасности, консолидируя в одной программе научный потенциал, технологическое лидерство и оборонные исследования. В институциональном плане указ объединяет национальные лаборатории, частные компании, университеты и федеральную инфраструктуру безопасности, создавая гибридную государственно-частную архитектуру. «В рамках Genesis Mission будет создана интегрированная платформа искусственного интеллекта для использования федеральных научных наборов данных»[8].
Управление наукой по платформенному принципу – не то же, что иерархическое руководство ведомственными лабораториями или распределение научных грантов и субсидий университетам, основанное на конкуренции. Научные разработки, согласно логике формирующейся политики США в области ИИ, рассматриваются в качестве не универсального общественного блага, а стратегического актива, который используется избирательно и регулируется централизованно как национальная инфраструктура. Доступ к ней будет предоставляться только участникам альянсов и привилегированным партнёрам. «Крайне важно, чтобы Соединённые Штаты использовали это преимущество для создания прочного глобального альянса, одновременно не допуская, чтобы наши противники пользовались нашими инновациями и инвестициями безвозмездно»[9], – сообщает «план действий». Таким образом, Genesis предлагает переосмыслить глобальную науку, перейдя от открытой конкуренции к структурированному сотрудничеству между доверенными сторонами[10].
«Миссия Бытие» спровоцировала дискуссию в академических изданиях. В Science опубликована программная статья Дарио Джила, заместителя по науке госсекретаря министерства энергетики, ответственного за новую политику в области ИИ. Согласно этому тексту, успех ИИ в науке зависит от решения двух задач: создания полной инфраструктуры данных и формирования политики, позволяющей учёным эффективно пользоваться этой инфраструктурой. Джил считает, что ИИ способен ускорить научно-технологическое развитие, но только при условии стандартизации данных, верифицируемости результатов, открытого доступа к кодам, репозиториям и моделям, построения гибридных моделей, которые сочетают машинное обучение и физические симуляции. В статье подчёркивается определяющая роль частного сектора, который обеспечивает более 70 процентов всех расходов на НИОКР в США. Без новых форм совместных инвестиций Genesis Mission не сможет функционировать, делает вывод автор[11].
Статья в Nature, опубликованная через два дня после объявления программы Genesis, задаёт основной политико-организационный вопрос: кто реально выиграет от расширенного доступа к данным национальных лабораторий? Авторы соглашаются, что указ создаёт беспрецедентную возможность для десятков AI-компаний работать с государственными наборами данных, обычно им недоступными. В документе перечислены более пяти десятков потенциальных корпоративных партнёров, включая Microsoft, IBM, OpenAI, Google, Anthropic, Quantinuum и др. Объём, структурированность и чувствительность данных национальных лабораторий вкупе с лоббистским потенциалом технологических корпораций создают асимметрии доступа, которые могут усугубиться, если правила доступа к платформе будут ориентированы на уже доминирующие корпорации. С точки зрения инфраструктуры ключевой вызов – интегрировать «огромный, разнородный и слабо стандартизированный массив данных» лабораторий в единую экосистему. Статья также обращает внимание на вакуум в федеральном законодательстве после отмены указов Байдена, регулирующих общие вопросы безопасности, связанные с развитием ИИ. Для части экспертов это повышает риск, что Genesis Mission станет косвенной поддержкой корпоративных разработок следующих, более продвинутых поколений ИИ, чьи ограничения не являются предметом общественного консенсуса[12].
После сокращения государственного финансирования университетов и демонтажа ряда общественно-политических институтов президент США взялся за науку. Если попробовать перенести такое на российскую реальность, пришлось бы представить себе объединение всех институтов РАН с Яндексом, Сбером или, по крайней мере, с Госуслугами.
Впрочем, назначение именно Дарио Джила показывает, что намерение главы государства не стоит трактовать однозначно. Джил десятилетиями работал в корпорации IBM. Он занимался созданием консорциума IBM и Массачусетского технологического университета. Джил не похож на молодых и рьяных выходцев из новейших IT-компаний, которые обрели влияние с приходом Трампа. В целом он – консервативный научный функционер корпоративного сектора. Но его амбиции невозможно предсказать, а задача построить новую инфраструктуру за неполный год колоссально сложна. Поэтому для того, чтобы понять, какое будущее может быть у проекта «Бытие», стоит обратиться к предыстории и разобраться, что такое регулирование искусственного интеллекта.
Государство как Джепетто: кто несёт ответственность за приключения ИИ?
Искусственный интеллект – набор технологий, которые развиваются усилиями бизнеса и научных организаций. Научные организации сегодня – преимущественно государственные или, по крайней мере, регулируются государством. Такое регулирование считается необходимым из соображений безопасности и для стратегического целеполагания. Национальный бизнес, даже активно участвуя в политической деятельности, уступает право первенства, когда дело доходит до вопросов долгосрочного планирования и суверенитета. Примеры можно найти на протяжении всей истории: от Ост-Индской компании и банков Медичи до клонирования и регулирования больших данных как инструмента манипулирования общественным мнением (Cambridge Analytics).
Поворот к государственному регулированию ИИ происходит во всех странах. ИИ-технологии отличаются, например, от интернета, который много лет оставался вне зоны государственных интересов. Интернет развивался в 1990-е гг., когда общей тенденцией являлось расширение трансграничных альянсов, что теперь поставлено под вопрос. Есть и специфика технологии ИИ, которая укоренена в уже построенных инфраструктурах. Кроме прочего, риски, связанные с искусственным интеллектом, считаются несопоставимыми со всем, что было раньше. Обычно прежде всего говорят о риске появления «общего/сильного искусственного интеллекта» (AGI). Таким словосочетанием называют сверхмощную машину, которая будет в состоянии поработить людей и в целом выйти из-под контроля[13].
Несмотря на такую пугающую перспективу, AGI (он же – сингулярность)[14] продолжает фигурировать как долгосрочная цель создания умных машин. Пока цель выглядит столь же абстрактно, как победа коммунизма, Второе пришествие или даже наступление информационного общества. Правда, появление AGI считается скорее риском, а не благом: немногочисленные утопические образы жизни при сингулярности обычно создаются миллионерами в Кремниевой долине[15] или маркетологами. Более конкретные риски предполагают потерю контроля со стороны институциональных организаторов, непредсказуемость и необратимость последствий использования ИИ в разных секторах деятельности. Вместе с утратой контроля меняется и тип ответственности за созданное: и у бизнеса, и у государственных организаций.
Однако регулирование касается не воображаемого будущего, а существующих технологий. Те, которые объединяются в понятие «искусственный интеллект», имеют несколько составляющих. Во-первых, это дата-центры, обеспечивающие выполнение вычислительных операций. Не каждая страна может позволить себе содержание такой инфраструктуры. Во-вторых, обучение нейросетей должно проходить на основе баз данных, предварительно подготовленных в машиночитаемом формате. Набор табличек в архиве – недостаточное условие для обучения нейросети. В-третьих, нужны люди, быстро и умело работающие с компьютерами и способные к алгоритмически рациональному подходу. Алгоритмическая рациональность – способность автоматизировать процессы и видеть в рутинных делах возможность передать задачу машине. Таким навыком наделяют в ходе образования программистов и инженеров машинного обучения[16].
Три составляющие ИИ зачастую расположены в разных организациях. Поместить их в один контекст – нетривиальная задача, и она оказалась исполнимой в нескольких странах мира, в первую очередь в Соединённых Штатах и Китае. И хотя ряд других государств также претендуют на создание собственных моделей, кроме этих двух, полноценное сочетание перечисленных компонентов ИИ сегодня не встречается.
Это не значит, что ИИ развивается только благодаря (или вопреки) данным составляющим. Любая технология проходит стадии апробации и внедрения, прежде чем получить поддержку[17]. Каждая из фаз имеет место не в безвоздушном пространстве, а в организациях и обществе, регулируется законами и неформальными нормами. Кроме того, важная часть работы технологии – случаи её неиспользования, ограничения и правила.
Стратегические документы Евросоюза по теме ИИ как раз прежде всего нацелены на регулирование, создание норм и стандартов. И в 2018 г., и в 2020-е гг. ЕС последовательно предлагает меры по регулированию аспектов сбора и использования данных[18]. Учёт и контроль на всех этапах, составляющих работу с ИИ, может показаться избыточным. Но у европейского подхода есть сильная сторона: он выносит алгоритмы и данные из «чёрного ящика ИИ», в котором технология неотличима от магии. Если люди понимают, как устроена работа алгоритмов, они могут её и контролировать.
Данные, необходимые для обучения ИИ, не являются общественным достоянием, а принадлежат конкретным организациям (создающим, хранящим и использующим их в своих целях). Следовательно, ключевое значение имеет доступ к данным и возможность тестировать технологии в организациях или с конечными пользователями. Поэтому закон, ограничивающий или направляющий сбор данных, формирует условия или барьеры для развития ИИ. Аналогично работает и ограничение передачи данных за пределы государственной границы. «Суверенность» технологий задаёт именно такие условия, одновременно огораживая возможность для развития своих моделей, нейросетей и сервисов[19].
Нормы могут быть частью работы самих инструментов (сейчас это свойство называют alignment), а могут регулировать их использование в разных местах. Например, создаются экспериментальные правовые и административные режимы, особые зоны, где можно увидеть все возможности и риски использования технологий[20]. Часть экспериментов по созданию правил проходит in vivo – не в исследовательских лабораториях, а в отдельных организациях, где возможна экспериментальная культура: университетах, на малых предприятиях. Часть экспериментов входит в социальную жизнь без всяких экспериментальных фаз[21].
Большинство государств, нацеленных на технологический суверенитет, пытаются вести политику «от обороны», создавая инфраструктурный контур, в котором их технологии смогут существовать вне зависимости от стран-лидеров. Практики технологического суверенитета, однако, отличаются от регулирования ИИ, хотя они невозможны друг без друга. Более того, часть норм, разработанных для предшествующих технологий, влияет на следующие. Так, Общий регламент по защите персональных данных (GDPR), закон Евросоюза, ограничивающий сбор данных, до сих пор остаётся самой крупной европейской инициативой в области регулирования технологий. Он задаёт границы в том числе с целью влияния на возможности обучения моделей для ИИ других стран.
Итак, организации, создающие компоненты ИИ (дата-центры, технологические компании, образовательные учреждения), могут принадлежать государственным юрисдикциям. Но результаты, то есть созданные технологии, не находятся в рамках государственных границ, как и другие цифровые и информационные технологии (например, интернет, цифровые валюты и блокчейн).
В некотором смысле государства оказываются в роли Джепетто (так в итальянском первоисточнике звали героя, который в русском пересказе превратился в папу Карло). Он создаёт Пиноккио, а затем может лишь наблюдать за его удивительными приключениями.
Возможно, эта метафора неверна по отношению к глобальным и неевропейским культурам. Так, китайское понимание технологий отличается от роли, которую им приписывает европейская культура и философия[22]. Организационная культура в американских компаниях также специфична. Американские ИИ-компании построены в первую очередь на основе уже состоявшейся предпринимательской среды Кремниевой долины. А она, в свою очередь, наследует опыт десятилетий, когда возникали и развивались техногиганты вроде IBM или Microsoft. Китайские ИИ-стартапы сформировались недавно, их культура была изначально централизованной, а интернет и связанные с ним технологии в КНР никогда не были частными. Аналогично и наука там не рассредоточена по самостоятельным негосударственным университетам и научным центрам, как в США. Отчасти из-за этого различия лидерство Китая в работе с ИИ может быть удивительным, ведь оно основано на других принципах.
Шесть, тринадцать и более благородных истин: стандарты Китая
В отличие от американских инициатив в области регулирования ИИ, китайские документы в гораздо большей степени предназначены для глобальной аудитории. Масштабная Инициатива глобального управления ИИ, выдвинутая МИД КНР в 2023 г.[23], План действий по глобальному управлению ИИ[24], представленный на Всемирной конференции по ИИ в Шанхае в июле 2025 г., ориентированы на создание и распространение международных стандартов. Презентуя план на Совещании высокого уровня по глобальному управлению в сфере искусственного интеллекта, премьер Госсовета КНР Ли Цян объявил о тринадцати элементах подхода Китая к многостороннему и двустороннему[25] сотрудничеству. Документ рассматривает ИИ как «новый рубеж в развитии человечества. Он является ключевой движущей силой продолжающейся научно-технической революции, а также промышленной трансформации, и представляет собой общественное благо международного масштаба, приносящее пользу человечеству»[26].
План акцентирует важность инклюзивного, суверенного и кооперативного управления ИИ, подразумевающего открытые инновации и совместное использование инфраструктуры и данных. Документ акцентирует внимание на необходимости укреплять потенциал стран Глобального Юга, добиваться многостороннего сотрудничества под эгидой ООН и «широкого участия многих заинтересованных сторон для обеспечения безопасного, справедливого и устойчивого развития ИИ». Хотя формулировки китайского плана подчёркивают ценность международной кооперации в сфере ИИ, медиа, близкие к Демократической партии США, уже успели увидеть в нём стремление «заменить нынешний основанный на правилах многосторонний международный порядок альтернативным, основанным на государственном контроле, всё больше опираясь на технологии»[27].
Однако более значимыми для китайской аудитории стали Руководящие мнения Государственного совета об углублении реализации программы «Искусственный интеллект+»[28], опубликованные 26 августа 2025 г., спустя месяц после американского Плана действий. Это директива, исходящая напрямую от высшего исполнительного и административного органа КНР – Госсовета, который реализует законы, принятые Всекитайским собранием народных представителей. Координация выполнения программы поручена Национальной комиссии по развитию и реформам, а не отдельному министерству. Всеобъемлющая инициатива охватывает будущую роль ИИ во всех ключевых сферах экономики и общественной жизни от прикладных исследований и разработок в индустрии до «методов философских исследований». Несмотря на административный характер инициативы, она является ключевым политическим документом в сфере ИИ: он «предназначен для широкого распространения среди низовых эшелонов власти по всей стране – его содержание будет тщательно анализироваться в провинциях, чтобы предсказать политические направления, выгодные Пекину. Китайский план по развитию искусственного интеллекта – это самый техно-оптимистичный документ, который Коммунистическая партия Китая (КПК) могла бы подготовить на данный момент»[29].
К 2027 г. Китай намерен добиться глубокой интеграции ИИ в шести ключевых секторах: наука и технологии, промышленность, потребление, благосостояние населения, управление и глобальное сотрудничество. Также, согласно документу, значительно возрастёт роль ИИ в государственном управлении, уровень проникновения терминалов и агентов нового поколения, использующих ИИ, достигнет 70 процентов. «К 2030 г. этот уровень должен превысить 90 процентов. К 2035 г. Китай вступит в новый этап развития интеллектуальной экономики и интеллектуального общества, оказывая мощную поддержку социалистической модернизации»[30].
Документ акцентирует внимание на интеллектуальных терминалах и агентах, через которые предоставляется доступ к ИИ[31]. В рамках концепции «Интернета всего» помимо смартфонов и компьютеров такими терминалами являются автомобили, интеллектуальные роботы, умные дома и умные носимые устройства. Объективных показателей, позволяющих оценить реализацию этих целей, не существует, что делает их скорее символическими. Однако они будут стимулировать чиновников в министерствах, провинциях и технологически развитых городах разрабатывать политические программы, демонстрирующие их приверженность столь амбициозным целям.
Китайский документ призывает к созданию технологических платформ и социальных экосистем, «открытых для мира», а также проектов и инструментов разработки, имеющих «международное влияние». Для этого правительство будет вручать академические награды студентам, исследователям и преподавателям, которые вносят вклад в проекты с открытым исходным кодом, а также создавать стимулы для государственного и частного сектора в сфере изучения и разработки приложений с открытым исходным кодом. В более широком смысле документ поощряет открытый доступ к исходному коду как часть усилий по обеспечению глобальной доступности ИИ. Именно этот урок Пекин извлёк из ситуации с DeepSeek: нынешнее преимущество Китая в области ИИ заключается в наличии сообщества разработчиков ПО с открытым исходным кодом, которое обеспечивает эффективный обмен информацией и быстрые релизы обновлённых версий модели. В отличие от американского плана, китайский документ не упоминает военные и оборонные задачи.
Китайский документ призывает все слои общества сначала опробовать ИИ, а затем получить результаты, администрация Трампа предлагает более сфокусированный подход, ориентированный на корпорации и промышленность. Эти подходы представляют разные логики того, как и чем становятся ИИ-технологии: произведены ли они на основе научных данных и выверенных моделей, или на базе открытого ПО и разнообразии данных из разных источников.
Российский курс в этой сфере выглядит как политика широких возможностей. Большие технологические компании, в первую очередь Сбер и Яндекс, работают над созданием своих нейросетей. Цифровизация разных сфер жизни проводится десятилетиями, контроль над цифровыми инфраструктурами тоже высокий. Но у России, в отличие от Китая, нет общих баз знания. В СССР предпринимались попытки сформировать нечто подобное под эгидой Академии наук. По сей день в ИНИОНе создаются базы, которые могли бы объять множество научных данных, по крайней мере, в социальных науках. Но универсальные и общие базы едва ли возможны: у разных наук свои классификации и категории. Уйти от них – значит отказаться от академической автономии, а бережная к таким правилам цифровизация пока только развивается. Инициативы, которые предлагали бы объединять данные, есть в рамках отдельных начинаний: от университетского консорциума по большим данным до Альянса цифровых гуманитарных проектов. Но эти инициативы не переходят к масштабным политикам вроде «Бытия», а общение на тему «суверенного ИИ» или этики и стандартов пока не превращается в политические действия.
Сингулярности не будет, или Как расходятся стратегии управления ИИ
Что бы ни было создано компаниями, развивающими новые технологии, ответственность за социальные последствия внедрения ложится на государство. Известна специфика работы с эффектами стабилизированных технологий (инфраструктур). Обычно государства отвечают[32] за поддержание уже действующей технологии: обслуживание канализации, обеспечение функционирования аэропортов и так далее. Соответственно, риски находятся в области недостаточной заботы об обновлении и развитии инфраструктуры. По тому же принципу работает и инфраструктура образования или науки: они должны транслировать то, что соответствует научной картине мира и объективности. Государство работает по отношению к ним как инстанция, задающая стандарты и правила.
Регулирование цифровых, а затем и ИИ-технологий лишь отчасти вписывается в такую традицию. Государственные учреждения, как и компании, не вполне представляют последствия для разных секторов индустрии.
ИИ как объект регулирования в чём-то похож на технологию: он производится в помещениях, оперирует данными, подлежащими разным юрисдикциям, его созданием занимаются специалисты, работающие по трудовым договорам. Но в то же время он представляет собой реальность не вполне технологическую и нематериальную. У него нет труб, как у канализации, которые можно перекрыть, а развитием технологий занимаются не только сотрудники, получающие зарплату, но также разработчики и пользователи в разных частях мира. Поэтому регулирование требует границ и разметки зон, где государство может действовать в привычном режиме создания правил и протоколов. И китайская, и американская доктрины, на первый взгляд парадоксально, включают в развитие ИИ-технологий ключевые отрасли: науку, энергетику и промышленность. Этим они не только расширяют возможности разработчиков, но и задают контуры контроля.
Американское «Бытие» также пытается сформировать представление о некоторой традиции государствоцентричных научных организаций в США. Правда, проект не похож на атомную бомбу и высадку на Луну хотя бы тем, что у него нет конкретной цели. «Догнать и перегнать» скорее напоминает российскому читателю о советской истории, а точнее, временах Никиты Хрущёва и, как ни странно, Михаила Горбачёва. Хрущёв в объявленной гонке с Америкой делал упор на сельскохозяйственное производство и города. И несмотря на комические ассоциации с «царицей полей» кукурузой и скепсис по отношению к хрущёвкам, его инфраструктурные преобразования во многом удались, по крайней мере, мы в них живём. Что касается Горбачёва, то в сфере компьютерных разработок он открыл возможности для развития и советского программирования, и создания микрочипов и вычислительных машин[33].
В России сейчас популярна идея «упущенного шанса»: большие технологические системы прошлого вроде Общегосударственной автоматизированной системы учёта и обработки информации (ОГАС) представляются как несостоявшийся советский интернет, а недостаточная компьютеризация как будто оказывается частью причин поражения в холодной войне[34]. Эта гипотеза оспаривается, тем более что исторические исследования показывают многообразие интересных альтернатив в области технологий, которые не развивались, потому что общая цель «догнать и перегнать» доминировала над заботой об изобретениях, которые могли бы стать частью общественной жизни.
Из 2020-х гг. видно, что разные страны формируют собственные особенности для технологического развития. Евросоюз занимается нормотворчеством, Китай – формированием стандартов и масштабированием изобретённых технологий, США – фокусировкой и централизацией технологического развития за счёт перераспределения границ между наукой и технологиями и создания новых организационных моделей.
Изучение текстов доктрин позволяет соотнести происходящее с тем, как меняются другие доктрины, в первую очередь военные[35],[36]. Аналитики в России реже видят в этой технологии предмет соревновательных отношений стран (но есть исключения[37]). Однако повестка исследований науки и технологий всё чаще пересекается не только с традиционно близкой прикладной военно-политической проблематикой, но и с вопросами мироустройства и геополитики[38].
Риторические усилия политиков направлены на то, чтобы объявить поле ИИ «своим», и это важно не только для внешних аудиторий, но и как элемент внутреннего регулирования. Американская внутренняя политика представляет собой особенно интересное явление не только из-за амбиций Дональда Трампа. В конце концов, президент США вправе объявить о победе в гонке ИИ в любой момент, так как правила соревнования не установлены. Важно, что американским компаниям и учёным придётся работать вместе. Это меняет роль государства для внутриамериканского контекста и реализует программу «революционных технооптимистов», пришедших к власти при Трампе[39]. Они нацелены сделать государство необходимой службой, а не назидательной силой. Однако контур той стабильной ситуации, в которой роль государства может быть однозначно определена, только намечается. Исторические, фантастические и сказочные примеры заменяют пока знание о реальном мире для лиц, принимающих решения в технокомпаниях, и исследования показывают, что техноромантизм и правый утопизм остаётся в США распространённой идеологией[40].
Меры Дональда Трампа приведут к ужесточению границ, если будут выполнены в соответствии с «Бытием». Чтобы соблюсти требования научных институтов и технологических компаний, разработчикам придётся принять часть правил игры учёных. Эти правила коснутся запретов на использование секретной информации, а не только научных разработок.
Китайские доктрины предлагают вариант, в котором развитие ИИ-технологий направлено на достижение «интеллектуального» состояния общества и экономики. Это вторит идеям «информационного общества» или «экономики знания», которые становились целями общественных изменений ещё в ХХ веке. Такой подход куда скромнее «сингулярности» или других риторических фигур, обещающих катастрофический и быстрый переход в новое состояние жизни. «Информационное общество» давно стало обычной метрикой вроде количества литров воды на душу населения. Претенциозный «искусственный интеллект», вероятно, ожидает та же участь. Но сами пути адаптации и развития новых технологий могут быть интересным полем для конкуренции подходов.
Вице-президент США Джей Ди Вэнс, выступая в Париже, говорил в первую очередь не о науке, а об индустриальном развитии. Ключевая роль отведена министерству энергетики[41]. Китайские доктрины показывают конкретные границы для ИИ – сферы экономики, которые будут формироваться с его участием. Государственные деятели понимают, что последствия использования новых технологий могут оказаться неподконтрольными, и прикладывают усилия, чтобы управлять необратимыми изменениями, аналогии которым обычно находят в Первой мировой войне или эпохе Просвещения, за которой последовала Французская революция. И хотя кажется, что Трамп занимается дерегулированием, открывая больше возможностей для ИИ-технологий, результат может оказаться обратным. Государственные лидеры понимают, что почти обречены на роль Джепетто, и хотят сделать Пиноккио не подмастерьем, а роботом.
Если отойти от метафор, в инициативе Трампа угадывается прочерчивание границ не для технологий, а для науки. Проект Просвещения стал одним из краеугольных камней глобализации, а безграничная и всевластная наука и техника воплощаются сегодня в пугающем и желанном образе сингулярности и Искусственного Интеллекта[42]. Политикам и руководителям компаний приходится прикладывать усилия, чтобы выстроить границы. И речь о границах не только государства, но и внутри общества и хозяйства. Меры государственного стимулирования ИИ диалектически приведут к его стабилизации и превращению в элемент секторов экономики.
В отношении границ наук проекты с ИИ могут стать более радикальным экспериментом. С помощью объединённых баз данных станет возможным моделирование и квазиэкспериментальная проверка самых разных гипотез и научных логик. Не все дисциплины и традиции потворствуют таким поворотам, но университеты и лаборатории повсеместно включены в новые способы организации знания. Эксперимент внутри этих организаций сложно регулировать и останавливать. Научный текст и задача могут быть созданы и решены с помощью нейросетей. Возможны ли университеты и научные лаборатории, где люди не решают задачи, а занимаются чем-то другим, – вопрос, предполагающий следующую главу «Бытия».
Авторы:
Полина Колозариди, кандидат социологических наук, директор, доцент Международного центра цифровых гуманитарных исследований Университета ИТМО, старший научный сотрудник Центра исследования науки и технологий (Центр STS) Европейского университета в Санкт-Петербурге
Игорь Ходачек – PhD (business), проректор по исследованиям, директор Центра исследований Евразии Европейского университета в Санкт-Петербурге
[1] Это ирония, но не шутка. В доктрине ЕС 2018 г. упоминается, что ИИ уже работает на многих фермах, что задаёт инфраструктурные возможности для дальнейшего развития технологий.
[2] Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions. Artificial Intelligence for Europe // EUR-Lex. 25.04.2018. URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM%3A2018%3A237%3AFIN (дата обращения: 21.12.2025).
[3] Removing Barriers to American Leadership in Artificial Intelligence // The White House. 23.01.2025. URL: https://www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligence/ (дата обращения: 21.12.2025).
[4] Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Executive Order 14110 of October 30, 2023 // The White House: Joe Biden. 30.10.2023. URL: https://bidenwhitehouse.archives.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/%22 (дата обращения: 21.12.2025).
[5] The US AI Action // AI.gov. URL: https://www.ai.gov/action-plan (дата обращения: 21.12.2025).
[6] Trump’s Genesis Mission (2025) // The White House. 24.11.2025. URL: https://www.whitehouse.gov/presidential-actions/2025/11/launching-the-genesis-mission/ (дата обращения: 21.12.2025).
[7] Ibid.
[8] Ibid.
[9] The US AI Action. Op. cit.
[10] Ibid.
[11] Gil D., Moler K.A. Accelerating Science with AI // Science. 2025. Vol. 390. No. 6777. P. 965–965.
[12] Gibney E., Witze A., Ahart J. Trump’s AI “Genesis Mission”: What Are the Risks and Opportunities? // Nature. 26.11.2025. URL: https://www.nature.com/articles/d41586-025-03890-z (дата обращения: 21.12.2025).
[13] В свете опасений, что машины могут захватить власть над планетой и начнёт исполняться сценарий кинофильмов «Терминатор» или «Матрица».
[14] Сингулярность – это предполагаемое событие, в котором машинный разум превзойдёт человеческий.
[15] Федорченко М. Заметки о принципах и постулатах эффективного акселерационизма // Insolarance. 30.11.2023. URL: https://insolarance.com/eacc/ (дата обращения: 21.12.2025).
[16] Профессиональная структура в этой области, однако, меняется: всё больше рутинных и творческих операций заменяется машинными, в первую очередь эти изменения касаются самих компаний ‒ создателей ИИ. В некотором смысле они становятся первыми экспериментальными площадками, и на примере изменений IT-отрасли видно, какие изменения возможны в дальнейшем на уровне организационных структур. Правда, характер этих изменений невозможно переносить на остальные индустрии.
[17] Так устроено классическое представление об уровне готовности технологий (УГТ). Оно является базовым для многих стран, и в том числе используется в России на уровне создания стандартов и постановки задач государственного уровня.
[18] См.: Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions. Artificial Intelligence for Europe // EUR-Lex. 25.04.2018. URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM%3A2018%3A237%3AFIN (дата обращения: 21.12.2025); Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 Laying Down Harmonised Rules on Artificial Intelligence and Amending Regulations (EC) No. 300/2008, (EU) No. 167/2013, (EU) No. 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) // EUR-Lex. 12.07.2024. URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689&qid=1765959467471 (дата обращения: 21.12.2025).
[19] Барьеры не являются запретами на технологии, скорее условиями их использования, задают или меняют правила. Создание правил не стоит рассматривать как закрытие возможностей, они позволяют соотнести разнообразие новых технологий с уже существующими. Так возникают стандарты, технология же превращается в общественное благо, а не предмет изобретения.
[20] Muravyov D. Is technology Ahead of the Law? Examining Timescales, Law Lag Narrative, and Temporal Frictions in the Case of the Experimental Legal Regimes in Russia (Forthcoming).
[21] Marres N., Stark D. Put to the Test: For a New Sociology of Testing // The British Journal of Sociology. 2020. Vol. 71. No. 3. P. 423–443.
[22] Хуэй Юк. Вопрос о технике в Китае / Пер. с англ. Д. Шалагинова. М.: Ад Маргинем Пресс, 2023. 320 c.
[23] Global AI Governance Initiative (2023) // Ministry of Foreign Affairs of People’s Republic of China. 20.10.2023. URL: https://www.mfa.gov.cn/eng/zy/gb/202405/t20240531_11367503.html (дата обращения: 21.12.2025).
[24] Global AI Governance Action Plan (2025) // Permanent Mission of the People’s Republic of China to the UN. 26.07.2025. URL: https://un.china-mission.gov.cn/eng/zgyw/202507/t20250729_11679232.htm (дата обращения: 21.12.2025).
[25] Китайская дипломатия приоритизирует двустороннее сотрудничество, избегая участия в многосторонних структурах, где Китай не имеет лидирующей роли (за исключением программ и институтов ООН).
[26] Global AI Governance Action Plan (2025). Op. cit.
[27] Reading between the Lines of the Dueling US and Chinese AI Action Plans // The Atlantic Council. 07.08.2025. URL: https://www.atlanticcouncil.org/blogs/new-atlanticist/reading-between-the-lines-of-the-dueling-us-and-chinese-ai-action-plans/ (дата обращения: 21.12.2025).
[28] China Issues Guideline to Accelerate “AI Plus” Integration across Key Sectors // The State Council of the People’s Republic of China. 27.08.2025. URL: https://english.www.gov.cn/policies/latestreleases/202508/27/content_WS68ae7976c6d0868f4e8f51a0.html (дата обращения: 21.12.2025).
[29] Zhang Irene. China’s New AI Plan. And How It Compares to Trump’s // ChinaTalk. 09.09.2025. URL: https://www.chinatalk.media/p/chinas-new-ai-plan (дата обращения: 21.12.2025).
[30] Fan Feifei. China Issues Guideline to Accelerate “AI Plus” Integration across Key Sectors // China Daily. 26.08.2025. URL: https://www.chinadaily.com.cn/a/202508/26/WS68adb9eda3108622abc9d47b.html (дата обращения: 21.12.2025).
[31] В России аналогом терминалов и агентов является введенное Сбером понятие «поверхность», то есть устройства (чаще всего – с экраном, но не обязательно), через которые пользователь может взаимодействовать с ИИ: смартфоны, компьютеры, банкоматы, информационные терминалы и т.д.
[32] China’s New AI Plan. And How It Compares to Trump’s. Op. cit.
[33] Колозариди П., Татарченко К. «Как же случилось, что вы так любите эти калькуляторы?» Беседа Полины Колозариди с Ксенией Татарченко // Неприкосновенный запас. 2020. No. 130. С. 126–135.
[34] См.: Герович В.А. Интер-Нет! Почему в Советском Союзе не была создана общенациональная компьютерная сеть // Неприкосновенный запас. 2011. No. 75. С. 21–42; Peters B. How Not to Network a Nation: The Uneasy History of the Soviet Internet. Cambridge, MA: Mit Press, 2016. 313 p.
[35] Ромашкина Н.П., Стефанович Д.В. Искусственный интеллект и естественная война // Россия в глобальной политике. 2025. Т. 23. No. 6. С. 69–83.
[36] Балуевский Ю.Н., Пухов Р.Н. Цифровая война – новая реальность // Россия в глобальной политике. 2025. Т. 23. No. 6. С. 60–68.
[37] Безруков А.О. Великий передел? // Россия в глобальной политике. 2025. Т. 23. No. 6. С. 8–21.
[38] Gil D., Galvin M. The Currency of Power Is Increasingly Becoming Science and Technology // Issues in Science and Technology. 2025. Vol. XLI. No. 2. URL: https://issues.org/interview-dario-gil/ (дата обращения: 21.12.2025).
[39] Волков В.В. Глубинное государство и революция технооптимистов // Россия в глобальной политике. 2025. Т. 23. № 4. С. 27–37.
[40] См.: Constantinou L. Mythic Capital. How Tolkien Is Whispering in the Ears of America’s Most Powerful Men // ARC. 01.05.2025. URL: https://arcmag.org/mythic-capital/ (дата обращения: 21.12.2025); Green T. The Silicon Valley Canon: On the Paıdeía of the American Tech Elite // The Scholar Stage. 22.08.2024. URL: https://scholarstage.substack.com/p/the-silicon-valley-canon (дата обращения: 21.12.2025).
[41] Vance J.D. Remarks by the Vice President at the Artificial Intelligence Action Summit in Paris, France // The American Presidency Project. 11.02.2025. URL: https://www.presidency.ucsb.edu/node/376290 (дата обращения: 21.12.2025).
[42] Киссинджер Г. Как завершается эпоха Просвещения // Россия в глобальной политике. 2018. Т. 16. No. 4. URL: https://globalaffairs.ru/articles/kak-zavershaetsya-epoha-prosveshheniya/ (дата обращения: 21.12.2025).