Русские Вести

Искусственный интеллект и другие инновации в схватке между «демократией» и «автократией»


Сейчас в США и на Западе в целом модно делить мир на «демократический» и «автократический». Хотя развитие ситуации в той же Америке уже не дает понять, кто у них внутри страны демократ, а кто автократ. Да что там эти термины. Накануне промежуточных выборов в ноябре 2022 года в США сторонники демпартии называют Трампа и всех республиканцев фашистами, а сами республиканцы объявили фашистом Байдена.

Тем не менее, рассмотрим, как видят мир и технологии ХХI века американские ученые в рамках категорий «автократия» и «демократия».

ИИ перестраивает мир

В статье Генри Фаррелла, Абрахама Ньюмана и Джереми Уоллес «Спирали заблуждения. Как ИИ искушает принятие решений и делает диктаторов более опасными», опубликованной в Foreign Affairs в сентябре 2022 г., делается вывод, что «машинное обучение бросает вызов каждой политической системе по-своему».

«Вызовы демократиям, таким как Соединенные Штаты, слишком очевидны. Машинное обучение может усилить поляризацию — перестроить онлайн-мир, чтобы способствовать политическому расколу. Это, безусловно, увеличит дезинформацию в будущем. Вызовы автократиям более тонкие, но, возможно, более губительные. Точно так же, как машинное обучение отражает и усиливает разделение демократии, оно может сбивать с толку автократии, создавая ложную видимость консенсуса и скрывая глубинные социальные разногласия, пока не станет слишком поздно».

«Первые пионеры ИИ, в том числе политолог Герберт Саймон, поняли, что технология ИИ имеет больше общего с рынками, бюрократией и политическими институтами, чем с простыми инженерными приложениями. Другой пионер ИИ, Норберт Винер, описал ИИ как «кибернетическую» систему, которая может реагировать и адаптироваться к обратной связи. Ни Саймон, ни Винер не ожидали, что машинное обучение станет доминировать над ИИ, но его эволюция соответствует их образу мыслей».

«Facebook* и Google используют машинное обучение в качестве аналитического механизма самокорректирующейся системы, которая постоянно обновляет свое понимание данных в зависимости от того, успешны или нет ее прогнозы. Именно эта петля между статистическим анализом и обратной связью из среды сделала машинное обучение такой огромной силой.

Гораздо менее понятно то, что демократия и авторитаризм также являются кибернетическими системами. При обеих формах правления правительства проводят политику, а затем пытаются выяснить, была ли эта политика успешной или неудачной. В демократиях голоса дают мощную обратную связь о том, действительно ли работает тот или иной подход. Исторически сложилось так, что авторитарным системам было гораздо труднее получить хорошую обратную связь. До информационного века они полагались не только на внутреннюю разведку, но и на петиции и тайные опросы общественного мнения, пытаясь выяснить, во что верят их граждане».

Теперь, пишут авторы, машинное обучение подрывает традиционные формы демократической обратной связи (голоса и голоса), поскольку новые технологии облегчают дезинформацию и усугубляют существующие предубеждения, беря предубеждения, скрытые в данных, и уверенно превращая их в неверные утверждения. Такая технология может сказать правителям, нравится ли их подданным то, что они делают, без хлопот с опросами или политических рисков открытых дебатов и выборов. По этой причине многие западные наблюдатели беспокоятся, что достижения в области ИИ только укрепят позиции диктаторов и позволят им еще больше контролировать свои общества.

Правда, по мнению авторов, сложнее. Предвзятость явно является проблемой для демократий. Но поскольку она более заметна, граждане могут смягчить его с помощью других форм обратной связи. Когда, например, расовая группа видит, что алгоритмы найма настроены против нее, они могут протестовать и добиваться возмещения ущерба с некоторым шансом на успех. Авторитарные страны, вероятно, так же склонны к предвзятости, как и демократии. Большая часть этой предвзятости, вероятно, будет невидимой, особенно для лиц, принимающих решения наверху. Это значительно усложняет исправление, даже если лидеры видят, что что-то нужно исправить.

«Вопреки общепринятому мнению, ИИ может серьезно подорвать автократические режимы, укрепляя их собственные идеологии и фантазии за счет более тонкого понимания реального мира. Демократические страны могут обнаружить, что, когда дело доходит до ИИ, ключевой задачей ХХI века является не победа в битве за технологическое превосходство. Вместо этого им придется бороться с авторитарными странами, которые оказались в агонии спирали заблуждений, питаемой ИИ».

Большинство дискуссий об ИИ, пишут авторы, имеют отношение к машинному обучению — статистическим алгоритмам, извлекающим взаимосвязи между данными. Эти алгоритмы делают предположения: есть ли на этой фотографии собака? Выиграет ли эта шахматная стратегия партию за десять ходов? Какое следующее слово в этом полузаконченном предложении? Так называемая целевая функция, математический способ подсчета результатов, может вознаградить алгоритм, если он угадает правильно. Именно так работает коммерческий ИИ. YouTube, например, хочет, чтобы его пользователи были вовлечены, просматривая больше видео, чтобы они продолжали видеть рекламу. Целевая функция предназначена для максимального вовлечения пользователей. Алгоритм пытается обслуживать контент, который удерживает взгляд пользователя на странице. В зависимости от того, была ли его догадка верной или ошибочной, алгоритм обновляет свою модель того, на что, скорее всего, отреагирует пользователь.

Способность машинного обучения автоматизировать этот цикл обратной связи практически без участия человека изменила электронную коммерцию. Возможно, когда-нибудь это позволит создавать полностью самоуправляемые автомобили, хотя это продвижение оказалось гораздо более сложной проблемой, чем предполагали инженеры. Разработка автономного оружия — ещё более сложная задача. Когда алгоритмы сталкиваются с действительно неожиданной информацией, они часто не могут ее понять. Информация, которую человек может легко понять, но которую машинное обучение неправильно классифицирует, известная как «состязательные примеры», может сильно испортить работу. Например, черно-белые наклейки, размещенные на знаке остановки, могут помешать системе технического зрения беспилотного автомобиля распознать этот знак. Такие уязвимости предполагают очевидные ограничения полезности ИИ в военное время.

Погружение в сложности машинного обучения помогает разобраться в спорах о технологическом превосходстве. Это объясняет, почему некоторые мыслители считают, что данные так важны. Чем больше у вас данных, тем быстрее вы сможете улучшить производительность своего алгоритма, повторяя крошечное изменение за крошечным, пока не добьетесь решающего преимущества. Но машинное обучение имеет свои пределы. Например, несмотря на огромные инвестиции технологических фирм, алгоритмы гораздо менее эффективны, чем принято считать, в том, что касается того, чтобы заставить людей покупать один почти идентичный продукт вместо другого. Надежно манипулировать поверхностными предпочтениями сложно, и, вероятно, гораздо труднее изменить глубоко укоренившиеся мнения и убеждения людей.

Общий ИИ, система, которая может извлекать уроки из одного контекста и применять их в другом, как и люди, сталкивается с аналогичными ограничениями. Статистические модели склонностей и предпочтений пользователей Netflix почти наверняка отличаются от моделей Amazon, даже если обе компании пытаются моделировать одних и тех же людей, пытающихся принять аналогичные решения. Доминирование в одном секторе ИИ, например в показе коротких видеороликов, привлекающих внимание подростков (триумф приложения TikTok), нелегко перевести в доминирование в другом, например, в создании автономных систем вооружения на поле боя. Успех алгоритма часто зависит от тех самых инженеров - людей, которые могут извлечь уроки из различных приложений, а не от самой технологии. Пока эти проблемы остаются нерешенными.

Предвзятость также может проникнуть в код. Когда Amazon попыталась применить машинное обучение к набору персонала, она обучила алгоритм на данных из резюме, которые оценивали рекрутеры. В результате система воспроизвела предубеждения, заложенные в решениях людей, дискриминируя резюме женщин. Такие проблемы могут быть самоусиливающимися.

Как отметила социолог Руха Бенджамин, если бы политики использовали машинное обучение, чтобы решить, куда направить полицейские силы, эта технология могла бы помочь им выделить больше полиции в районы с высоким уровнем арестов, в процессе направляя больше полиции в районы с расовыми группами, в которых полиция продемонстрировала бы предубеждения против этих групп. Это может привести к большему количеству арестов, которые, в свою очередь, закрепят алгоритм в порочном круге.

Старая программная поговорка «мусор на входе, мусор на выходе» имеет другое значение в мире, где входные данные влияют на выходные и наоборот. Без надлежащей внешней коррекции алгоритмы машинного обучения могут приобрести вкус к мусору, который они сами производят, создавая цикл принятия неверных решений. Слишком часто политики относятся к инструментам машинного обучения как к мудрым и беспристрастным оракулам, а не как к ошибочным инструментам, которые могут усугубить проблемы, которые они призваны решать».

Политические системы, пишут авторы, также являются системами обратной связи. В демократиях общественность буквально оценивает лидеров на выборах, которые должны быть свободными и справедливыми. Политические партии дают обещания с целью завоевать власть и удержать ее. Легальная оппозиция освещает ошибки правительства, а свободная пресса сообщает о противоречиях и правонарушениях. Должностные лица регулярно встречаются с избирателями и узнают, заработали они или потеряли общественное доверие в постоянно повторяющемся цикле.

Но обратная связь в демократических обществах не работает идеально. У общественности может не быть глубокого понимания политики, и она может наказывать правительства за вещи, не зависящие от них. Политики и их сотрудники могут неправильно понять, чего хочет общественность. У оппозиции есть стимулы лгать и преувеличивать. Состязание на выборах стоит денег, а настоящие решения иногда принимаются за закрытыми дверями. Средства массовой информации могут быть предвзятыми или больше заботиться о том, чтобы развлечь своих потребителей, чем научить их.

Тем не менее, обратная связь делает возможным обучение. Политики узнают, чего хочет общественность. Общественность узнает, чего она может и чего не может ожидать. Люди могут открыто критиковать ошибки правительства, не попадая в тюрьму. По мере появления новых проблем могут организовываться новые группы, чтобы опубликовать их и попытаться убедить других решить их. Все это позволяет политикам и правительствам взаимодействовать со сложным и постоянно меняющимся миром.

В автократиях, по мнению авторов, обратная связь работает совсем по-другому. «Лидеров выбирают не посредством свободных и честных выборов, а посредством безжалостных сражений за преемственность и зачастую непрозрачных систем внутреннего продвижения по службе. Даже там, где оппозиция правительству формально легальна, ее подавляют, иногда жестоко. Если СМИ критикуют правительство, им грозит судебный иск и насилие. Выборы, когда они происходят, систематически склоняются в пользу действующих лиц. Граждане, выступающие против своих лидеров, сталкиваются не только с трудностями в организации. Им грозит суровое наказание за высказывание, включая тюремное заключение и смерть. По всем этим причинам авторитарные правительства часто не имеют четкого представления о том, как устроен мир или чего хотят они и их граждане.

Таким образом, такие системы сталкиваются с выбором между краткосрочной политической стабильностью и эффективной политикой. Желание первых склоняет авторитарных лидеров к тому, чтобы не допускать посторонних к выражению политических мнений, тогда как необходимость вторых требует от них некоторого представления о том, что происходит в мире и в их обществах. Из-за жесткого контроля над информацией авторитарные правители не могут полагаться на граждан, СМИ и голоса оппозиции для обеспечения корректирующей обратной связи, как это делают демократические лидеры».

«Данные, кажется, обеспечивают объективные измерения, которые объясняют мир и его проблемы, без каких-либо политических рисков и неудобств, связанных с выборами или свободными СМИ. Но нет такой вещи, как принятие решений без политики. Беспорядочность демократии и риск нарушения процессов обратной связи очевидны для всех, кто обращает внимание на политику США. Автократии страдают от подобных проблем, хотя они менее заметны. Чиновники, придумывающие цифры, или граждане, отказывающиеся превратить свой гнев в широкомасштабные протесты, могут иметь серьезные последствия, повышая вероятность принятия неверных решений в краткосрочной перспективе и провал режима в долгосрочной перспективе».

Самый насущный вопрос, пишут авторы, заключается не в том, выиграют или проиграют Соединенные Штаты или Китай в гонке за господство ИИ. Именно так ИИ изменит различные циклы обратной связи, на которые полагаются демократии и автократии для управления своими обществами. Многие наблюдатели предполагают, что по мере повсеместного распространения машинного обучения оно неизбежно нанесет ущерб демократии и поможет автократии. По их мнению, например, алгоритмы социальных сетей, которые оптимизируют взаимодействие, могут подорвать демократию, нанеся ущерб качеству отзывов граждан. Когда люди просматривают видео за видео, алгоритм YouTube предлагает шокирующий и тревожный контент, чтобы поддерживать их интерес. Этот контент часто включает теории заговора или экстремистские политические взгляды, которые заманивают граждан в темную страну чудес, где все перевернуто с ног на голову.

Напротив, машинное обучение должно помочь автократиям, способствуя большему контролю над их людьми. Израильский ученый Юваль Харари и множество других ученых утверждают, что ИИ «одобряет тиранию». Согласно этому лагерю, ИИ централизует данные и власть, позволяя лидерам манипулировать обычными гражданами, предлагая им информацию, рассчитанную на нажатие их «эмоциональных кнопок». Предполагается, что этот бесконечно повторяющийся процесс обратной связи и реакции создает невидимую и эффективную форму социального контроля. В этом случае социальные сети позволяют авторитарным правительствам следить за пульсом населения, а также завладевать его сердцем.

Но эти аргументы покоятся на сомнительных основаниях. Хотя утечки из Facebook предполагают, что алгоритмы действительно могут направлять людей к радикальному контенту, недавние исследования показывают, что алгоритмы сами по себе не меняют то, что ищут люди. Людей, которые ищут экстремальные видео на YouTube, скорее всего, направят к тому, чего они хотят, но люди, которые еще не заинтересованы в опасном контенте, вряд ли будут следовать рекомендациям алгоритмов.

«Нет убедительных доказательств того, что машинное обучение позволяет осуществлять такой общий контроль над разумом, который опустошит демократию и укрепит авторитаризм. Если алгоритмы не очень эффективны в том, чтобы заставить людей что-то покупать, они, вероятно, гораздо хуже в том, чтобы заставить их изменить свое мнение о вещах, которые затрагивают близкие ценности, такие как политика. Утверждения о том, что Cambridge Analytica, британская политическая консалтинговая фирма, использовала какой-то магический метод, чтобы исправить результаты президентских выборов в США в 2016 году для Дональда Трампа, развалились. Предполагаемый секретный соус, которым фирма снабдила кампанию Трампа, похоже, состоял из стандартных психометрических методов таргетинга — использования личностных опросов для категоризации людей — ограниченной полезности».

Полностью автоматизированный авторитаризм, основанный на данных, по мнению авторов, может оказаться ловушкой для таких государств, как Китай, которые концентрируют власть в крошечной изолированной группе лиц, принимающих решения. В демократических странах есть корректирующие механизмы — альтернативные формы обратной связи с гражданами, которые могут контролировать правительства, если они сбиваются с пути. Авторитарные правительства, которые удваивают машинное обучение, по мнению авторов статьи, не имеют такого механизма.

«Хотя повсеместная государственная слежка может оказаться эффективной в краткосрочной перспективе, опасность заключается в том, что авторитарные государства будут подорваны формами самоусиливающейся предвзятости, которым способствует машинное обучение. Поскольку государство широко использует машинное обучение, идеология лидера будет определять, как будет использоваться машинное обучение, цели, вокруг которых оно оптимизируется, и как оно интерпретирует результаты. Данные, которые появятся в результате этого процесса, скорее всего, отразят предубеждения лидера.

Как объяснил технолог Мацей Цегловски, машинное обучение — это «чистый математический аппарат, который придает статус - кво ауру логической неизбежности». Что произойдет, например, когда США начнут использовать машинное обучение, чтобы выявлять жалобы в социальных сетях и удалять их? Лидерам будет труднее увидеть и исправить политические ошибки, даже если эти ошибки наносят ущерб режиму. Исследование, проведенное в 2013 году, показало, что Китай медленнее удаляет онлайн-жалобы, чем можно было бы ожидать, именно потому, что такое недовольство дает руководству полезную информацию. Дезинформация, подпитываемая ИИ, может отравить колодец как демократическим, так и автократическим государствам.

Лидер Китая Си Цзиньпин знает об этих проблемах. Он давно заявлял, что его кампания по борьбе с бедностью — попытка искоренить обнищание сельских жителей — стала знаковой победой, основанной на интеллектуальных технологиях, больших данных и ИИ. Но с тех пор он признал недостатки кампании, в том числе случаи, когда чиновники выгоняли людей из их сельских домов и прятали их в городских квартирах, чтобы играть в статистику бедности. Когда переселенцы снова погрузились в нищету, Си опасался, что «единые количественные целевые показатели» уровня бедности могут оказаться неправильным подходом в будущем. Данные действительно могут стать новой нефтью, но они могут скорее загрязнить, чем повысить способность правительства управлять».

Эта проблема, пишут авторы, имеет последствия для так называемой системы социального кредита Китая, набора институтов для отслеживания просоциального поведения, которое западные комментаторы изображают как прекрасно функционирующий «режим наблюдения с использованием ИИ, который нарушает права человека». Как отмечают американские эксперты по информационной политике, китайская система социального кредита на самом деле больше похожа на кредитную систему США, которая регулируется такими законами, как Закон о достоверной кредитной отчетности, чем на идеальную оруэлловскую антиутопию.

«Более широкое машинное обучение также может привести к тому, что авторитарные режимы будут удваивать неверные решения. Если машинное обучение будет обучено выявлять возможных диссидентов на основе записей об арестах, оно, скорее всего, будет генерировать самоусиливающиеся предубеждения, подобные тем, которые наблюдаются в демократиях, — отражая и подтверждая убеждения администраторов в отношении неблагоприятных социальных групп и неумолимо закрепляя автоматические подозрения и негативную реакцию. В демократиях общественное противодействие, пусть и несовершенное, возможно. В авторитарных режимах сопротивляться гораздо труднее. Без него эти проблемы невидимы для тех, кто находится внутри системы, где чиновники и алгоритмы разделяют одни и те же предубеждения. Вместо хорошей политики это приведет к нарастанию патологий, социальной дисфункции, обидам и, в конце концов, волнениям и нестабильности».

Международная политика ИИ, считают авторы, не приведет к простой гонке за господство.

«Грубое представление о том, что эта технология является экономическим и военным оружием, и что данные — это то, что дает ей силу, скрывает большую часть реальных действий. На самом деле самые большие политические последствия ИИ связаны с механизмами обратной связи, на которые полагаются как демократические, так и авторитарные страны. Некоторые данные указывают на то, что ИИ нарушает обратную связь в демократических странах, хотя и не играет такой большой роли, как предполагают многие. Напротив, чем больше авторитарные правительства полагаются на машинное обучение, тем больше они будут продвигать себя в воображаемый мир, основанный на их собственных предубеждениях, основанных на технологиях. Классическая книга политолога Джеймса Скотта 1998 года Seeing Like a State, объяснил, как государства ХХ века были слепы к последствиям своих собственных действий отчасти потому, что они могли видеть мир только через бюрократические категории и данные. Как утверждали социолог Марион Фуркад и другие, машинное обучение может создавать те же проблемы, но в еще большем масштабе.

Одна быстро возникающая проблема заключается в том, как автократии могут использовать в качестве оружия большие языковые модели, новую форму ИИ, которая может создавать текст или изображения в ответ на словесную подсказку для создания масштабной дезинформации. Как предупредили ученый-компьютерщик Тимнит Гебру и ее коллеги, такие программы, как система GPT-3 компании Open AI, могут создавать плавный текст, который трудно отличить от обычного человеческого письма. Bloom, новая модель большого языка с открытым доступом, только что была выпущена для всех. Его лицензия требует, чтобы люди избегали жестокого обращения, но полицейским будет очень трудно.

Эти события создадут серьезные проблемы для обратной связи в демократических странах. Нынешние онлайн - системы комментирования политики почти наверняка обречены, поскольку им требуется мало доказательств, чтобы установить, является ли комментатор реальным человеком. Подрядчики крупных телекоммуникационных компаний уже наводнили Федеральную комиссию по связи США фальшивыми комментариями, связанными с украденными адресами электронной почты, в рамках своей кампании против законов о сетевом нейтралитете. Тем не менее было легко распознать уловку, когда были опубликованы десятки тысяч почти идентичных комментариев. Сейчас или в самом ближайшем будущем будет тривиально просто заставить большую языковую модель написать, скажем, 20 000 различных комментариев в стиле колеблющихся избирателей, осуждающих сетевой нейтралитет.

Дезинформация, подпитываемая ИИ, может отравить колодец и автократиям. По мере того, как авторитарные правительства наполняют свои собственные публичные дебаты дезинформацией, становится легче сломить оппозицию, но труднее сказать, во что на самом деле верит общественность, что значительно усложнит процесс принятия политических решений. Авторитарным лидерам будет все труднее избегать наживы за счет собственного предложения, что заставит их поверить в то, что граждане терпимы или даже любят крайне непопулярную политику...

... Данные могут быть новой нефтью, но они могут скорее загрязнить, чем повысить способность правительства управлять».

Возможно, что еще более цинично, пишут авторы, у политиков на Западе может возникнуть соблазн использовать закрытые петли авторитарных информационных систем. До сих пор Соединенные Штаты были сосредоточены на продвижении свободы Интернета в автократических обществах. Вместо этого он может попытаться усугубить авторитарную информационную проблему, усиливая петли предвзятости, которым подвержены эти режимы. Это можно сделать, искажая административные данные или дезинформируя авторитарные социальные сети. К сожалению, виртуальной стены, разделяющей демократические и авторитарные системы, не существует. В демократические общества могут просачиваться не только неверные данные и безумные убеждения из авторитарных, но и ужасные авторитарные решения могут иметь непредсказуемые последствия для демократических стран.

«Одним из опасных путей для Соединенных Штатов было бы втягивание в гонку за доминирование ИИ, что еще больше расширило бы конкурентные отношения. Другой вариант — попытаться усугубить проблемы обратной связи авторитаризма. Оба рискуют катастрофой и возможной войной. Поэтому гораздо безопаснее для всех правительств признать общие риски ИИ и работать вместе над их снижением».

Комиссия

Далеко не все политики и ученые в США приходят к таким компромиссным выводам.

В статье Кита Крача (председатель Института технической дипломатии, ранее заместителя госсекретаря США по вопросам экономического роста, энергетики и окружающей среды - с 2019 по 2021 г. г.) и Керсти Кальюлайд (президента Эстонии с 2016 по 2021 г. г.) в The National Interest (09.09.2022) «Новые технологии могут защитить демократические свободы» делается вывод, что «сегодня угрозы Соединенным Штатам и нашим союзникам все чаще исходят от новых технологий, которые могут иметь разрушительные последствия, если попадут не в те руки. Квантовые вычисления, дроны нового поколения, биомедицинская инженерия и другие технологии могут улучшить жизнь миллионов людей или укрепить власть диктаторов».

Авторы считают, что «не нужно ждать кризиса, чтобы начать готовиться к этим угрозам.

«Новые технологии уже меняют нашу жизнь и то, как мы общаемся с людьми во всем мире. Демократические страны должны оставаться в авангарде инноваций, а не играть в догонялки с противниками».

Вот почему, группа бывших дипломатов и экспертов в области технологий из Института технической дипломатии и Атлантического совета собрали «Глобальную комиссию по технической безопасности», чтобы разработать план того, «как свободный мир может защитить свободу путем принятия проверенная технология».

Двухлетнее сотрудничество в этой комиссии, по мнению авторов данной статьи – ее сопредседателей, - отличается тремя факторами.

Во-первых, комиссия сосредоточится на семнадцати важнейших технологических секторах и объединит выводы о каждом из них в одну всеобъемлющую стратегию безопасности.

Во-вторых, ее возглавят частный сектор и глобальные заинтересованные стороны, а представители международных компаний и учреждений, представляющих более десятка стран, будут участвовать в общих усилиях демократий по конкуренции в области новых технологий.

В-третьих, в то время как предыдущие комиссии были сосредоточены на поиске защитных решений, данная комиссия будет интегрировать наступательные стратегии для разработки общих стандартов для надежных технологий и рекомендаций по инвестициям в ключевые области исследований и разработок.

Главная цель комиссии – технологически противостоять Китаю. По мнению авторов, «компании, ведущие бизнес с Китаем, столкнулись с паразитическими совместными предприятиями, вопиющим воровством интеллектуальной собственности, массовыми издевательствами по всему миру и принудительным сбором запатентованных технологий.

Советы директоров компаний все больше понимают, что ведение бизнеса с Китаем, в Китае или для Китая сопряжено с огромным риском. Вот почему многие уважаемые члены совета директоров требуют от своих руководителей плана действий в чрезвычайных ситуациях в отношения Китая».

Комиссия уже пользуется поддержкой законодателей и лидеров частного сектора в то время, когда Соединенные Штаты работают над объединением своих трансатлантических и индо - тихоокеанских союзников и партнеров по ряду важнейших технологических вопросов.

Во время недавних совместных брифингов руководителей комиссии с заместителем министра торговли США Аланом Эстевесом по теме «Глобальная техническая безопасность» и «руководителем азиатского направления» президента Джо Байдена Куртом Кэмпбеллом по теме «Создание альянсов с помощью «принципа доверия» они подтвердили свою решительную поддержку неотложной миссии комиссии по «защите высоких технологий от растущих техноавторитарных угроз».

Работа комиссии будет основываться на уроках, извлеченных из «Чистой сети». Для этого «комиссия объединила шестьдесят стран по всему миру, которые взяли на себя обязательство использовать только надежных поставщиков телекоммуникационных услуг 5G и отказались от ненадежных поставщиков, таких как Huawei и ZTE, которые, как известно, следуют приказам КПК».

Вот почему в будущем у комиссии должны быть общие стандарты и соглашения, чтобы максимально использовать технологии, созданные великими умами американских компаний частного сектора.

«Технологии, на которых сосредоточится комиссия, включают полупроводники; автономные и электрические транспортные средства; чистая энергия и электрические сети; квантовые вычисления; робототехника; электронные платежи и цифровые валюты.

Эти технологии уже продемонстрировали большие перспективы для более эффективного и передового мира. Но, как показали недавние сбои в цепочке поставок, комиссии нужно сделать больше, чтобы не слишком полагаться на Китай».

Графические процессоры

Надо сказать, что помимо деятельности комиссии, в начале сентября 2022 г. (по данным Reuters) Соединенные Штаты активизировали свои усилия по перекрытию потока передовых технологий в Китай, предписав с корпорациям Nvidia (NVDA.O) и Advanced Micro Devices (AMD.O) соглашение о перекрытии в КНР отправку своих флагманских чипов ИИ.

Похоже, что правила касаются чипов, называемых графическими процессорами, с самыми мощными вычислительными возможностями, критического, но нишевого рынка, на котором есть только два значимых игрока, Nvidia и AMD. Их единственный потенциальный конкурент — Intel Corp (INTC.O) — пытается пробиться на рынок, но не выпускает конкурентоспособных продуктов.

Первоначально разработанные для видеоигр, использование графических процессоров или графических процессоров было расширено до более широкого спектра приложений, которые включают работу с ИИ, такую ​​​​как распознавание изображений, категоризация фотографий или поиск военной техники на цифровых спутниковых снимках. Поскольку все поставщики чипов — американцы, США контролируют доступ к технологии.

Единственные продукты, которые, по данным Nvidia, будут затронуты, — это чипы A100 и H100. Эти чипы стоят десятки тысяч долларов каждый, а полные компьютеры, содержащие чипы, стоят сотни тысяч долларов.

Точно так же AMD заявила, что новое требование затрагивает только ее самый мощный чип MI250, версия которого используется в Окриджской национальной лаборатории, одном из нескольких центров суперкомпьютеров США, поддерживающих ядерное оружие. Менее мощные чипы, такие как AMD MI210 и ниже, не затрагиваются.

Что объединяет затронутые чипы, так это способность выполнять вычисления для работы ИИ быстро, в огромных масштабах и с высокой точностью. Менее мощные чипы ИИ могут работать быстро на более низких уровнях точности, которых достаточно для пометки фотографий друзей и когда цена случайной ошибки невелика, но недостаточны для проектирования истребителей.

Единственным крупным рыночным конкурентом чипов AMD и Nvidia является еще не выпущенный чип Intel Ponte Vecchio, первым покупателем которого является Аргоннская национальная лаборатория, еще одна американская структура, поддерживающая ядерное оружие.

Линия фронта в сфере технической безопасности

В статье Тай Мин Чунга (директор Института глобальных конфликтов и сотрудничества Калифорнийского университета) и Томаса Г. Манкена (президент Центра стратегических и бюджетных оценок) «Грандиозная гонка в сфере технической безопасности», опубликованной в Texas National Security Review 31 августа 2022 г., отмечено, что «нигде линии фронта не прочерчены так четко, как в сфере технобезопасности».

«Центральное место в китайско-американском соперничестве занимают две разные модели промышленных и технологических инноваций в сфере обороны: китайский подход «сверху вниз», управляемый государством, и система «снизу вверх», управляемая рынком США. Кто из них в конечном итоге возьмет верх, будет зависеть от того, насколько они способны, сильны и искусны в решении задач быстрых и разрушительных изменений...

...Системы технобезопасности США и Китая спроектированы, настроены и работают по-разному. Система технобезопасности США основана на глубоко укоренившемся негосударственном духе. Это подчеркивает ограниченность правительства и обширную ведущую роль частного сектора, даже несмотря на то, что правительство США иногда оказывало мощное влияние на формирование экосистемы технической безопасности. Напротив, хотя прорыночные силы сыграли жизненно важную роль в экономическом развитии Китая, его система технической безопасности в подавляющем большинстве является этатистской, а партия - государство доминирует в собственности, контроле и управлении. С конца ХХ века китайская партия - государство поддержала целенаправленную программу инноваций, направленную на то, чтобы ослабить способность Соединенных Штатов защищать свои интересы в западной части Тихого океана и сократить разрыв между США и Китаем. По словам заместителя помощника министра ВВС США по закупкам, Китай приобретает новое оружие в пять раз быстрее, чем США. В результате Соединенные Штаты сейчас сталкиваются с рядом все более неблагоприятных военных балансов в западной части Тихого океана и за его пределами. Чтобы набрать обороты в соперничестве с Китаем, Соединенным Штатам необходимо раскрыть всю мощь своего собственного уникального подхода к оборонным инновациям путем активизации государственно-частного партнерства и углубления взаимодействия с союзниками».

С 1990-х годов, пишут авторы, Китай предпринял согласованные усилия, чтобы превратиться из борющегося технологического отставания в ведущего мирового новатора. Инновации в области обороны находятся в авангарде усилий Пекина, и Китай добился впечатляющих успехов в темпах, масштабах и качестве продукции. В начале реформ в середине-конце 1990-х годов китайская система оборонной науки, технологий и инноваций находилась в упадке по спирали и могла производить только устаревшее оружие иностранного производства. Ко второй половине 2010-х годов отдельные очаги передового опыта в системе оборонных инноваций начали выпускать современное вооружение, такое как малозаметные истребители, крупногабаритные авианосцы и ударные самолеты, взлетающие с палубы.

Сегодня, опасаются авторы, Пекин может опередить Запад, когда речь идет о передовых областях инноваций, таких как квантовые и ИИ.

«Хотя и администрация Буша, и администрация Обамы выражали обеспокоенность по поводу роста китайской военной мощи, только администрация Трампа в таких документах, как Стратегия национальной безопасности и Стратегия национальной обороны, открыто говорила о вызове, который бросает Китай, и превращала конкуренцию великих держав в высший приоритет.

Администрация Байдена рассматривает Китай как «нашего наиболее серьезного стратегического конкурента и основную задачу» в своем оборонном планировании. Хотя сегодня существует общий консенсус в отношении необходимости противодействия ее стремлению стать высокотехнологичной сверхдержавой, действия отстают от риторики.

Централизованная координация сверху вниз сыграла важную роль во многих, если не в большинстве стратегических технологических достижений Китая, от ядерного оружия и баллистических ракет до пилотируемых космических программ и высокопроизводительных компьютеров. Этот нисходящий подход управляется системой централизованного планирования, которая опирается на прямой административный контроль со стороны государственных и партийных органов и использование штрафов для обеспечения соблюдения требований предприятиями, научно-исследовательскими институтами и другими субъектами. Хотя в эпоху реформ после 1978 года произошло некоторое ослабление и откат этого всепроникающего государственного контроля, государственное планирование, управление и вмешательство остаются обширными, поскольку экосистема технической безопасности по-прежнему в подавляющем большинстве находится в собственности государства.

Китайские власти стремились стимулировать инновации, делая стратегические ставки на гибридный подход к инновациям и стремясь продвигать инновации внутри страны.

Во-первых, во второй половине 2010-х годов Китай начал закладывать основы прочной и масштабной системы военного и гражданского слияния. Пекин, похоже, надеется, что сможет использовать гражданские источники инноваций так же широко, как Соединенные Штаты, в течение следующего десятилетия или около того. Хотя этот подход еще не оказал существенного влияния на китайские инновации, а структурные барьеры для реализации этой цели высоки, активное руководство Си инициативой по слиянию военных и гражданских объектов означает хорошие перспективы на успех.

Во-вторых, в качестве еще одной большой долгосрочной ставки Пекин все больше ориентируется на уверенность в своих силах и переходит от иностранного освоения технологий к упору на оригинальные, местные инновации. При этом ключевым и намеренно разработанным ограничением этой модели является то, что она может управлять только избранным числом высокоприоритетных стратегических и оборонных проектов. Получение доступа к зарубежным технологиям и знаниям и их использование в обозримом будущем будет по-прежнему важным фактором. Технонационалистическая зависимость является хорошо зарекомендовавшей себя стратегией развития с низким уровнем риска и высокой отдачей и обеспечивает защиту, в то время как формирование оригинального инновационного потенциала является долгосрочным предприятием с высоким риском.

Ориентированный на рынок США подход к инновациям «снизу вверх»

В то время как Китай принял государственный подход к оборонным инновациям «сверху вниз», США традиционно добивались успеха при рыночном подходе «снизу вверх». Отношения между государством и рынком процветали во время холодной войны, и это было ведущим фактором, способствовавшим успеху системы технобезопасности США по сравнению с ее аналогом в Советском Союзе. Однако в эпоху после «холодной войны», и особенно в ХХI веке, традиционные сильные стороны системы технобезопасности США не устарели.

Взаимовыгодное партнерство между государственным и частным секторами исторически было важной движущей силой деятельности США. Однако в ХХI веке отношения между государством и частным сектором стали натянутыми. Слишком часто взгляды представителей оборонной промышленности встречались с подозрением, и в последние годы враждебность между правительством и промышленностью стала более заметной. Это грозит превратить этот столп силы в источник слабости. В то время как Пекин стремится к военно-гражданскому слиянию, правительство США часто держит оборонную промышленность на расстоянии вытянутой руки. Хотя в последние годы было много разговоров о необходимости внедрения инноваций, такие разговоры часто не подкреплялись действиями.

Система оборонных закупок становится все более жесткой и не склонной к риску. Это дает корпорациям мало стимулов брать на себя риски, которые имеют решающее значение для инноваций. Система также отпугивает фирмы от быстрого устранения проблем с помощью известных или многообещающих решений. Система настолько обширна и сложна, что не поддается реформированию. Более того, министерство обороны все больше изолируется от значительной части наиболее инновационных и процветающих коммерческих секторов экономики. Неудивительно, что, по словам бывшего заместителя министра обороны по исследованиям и разработкам Майка Гриффина, Министерству обороны требуется16 лет, чтобы довести идею до эксплуатационной готовности, в то время как Китай иногда может сделать это менее чем за семь лет.

Кроме того, система технобезопасности США борется за то, чтобы ее голос был услышан в руководстве инновациями, поскольку ее некогда доминирующее положение в качестве крупнейшего источника инвестиций в исследования и разработки ослабло. На Министерство обороны США в начале 2020-х годов приходилось всего 3,6 процента мировых расходов на исследования и разработки по сравнению с 36 процентами на пике своего развития в 1960 году.

Более того, Пентагон превратился из первопроходца технологий во все более активного инвестора в технологические исследования. Это означает, что многие технологии берут свое начало в гражданской сфере и впоследствии — и часто с опозданием — адаптируются для оборонных и двойных применений. Хотя это рентабельно и позволяет получить доступ к более обширному пулу инноваций, система технобезопасности США рискует стать последователем, а не лидером, если она не заполнит пробелы в областях, связанных с обороной, где коммерческий сектор сопротивляется или не может участвовать.

Если эти тенденции сохранятся, система технической безопасности США может потерять свое влияние и место в инновационной системе США, которые будут становиться все более маргинальными. Это уже происходит в корпоративном секторе. Ко второй половине 2010 - х годов пять крупнейших технологических компаний США, такие как Google, Amazon и Apple, ежегодно тратили в 10 раз больше средств на исследования и разработки, чем пятерка крупнейших оборонных подрядчиков США, включая Lockheed Martin, Boeing и Raytheon. Этот растущий дисбаланс в отношениях между государством и частным сектором может привести к тому, что фирмы решат, что ведение бизнеса с системой технической безопасности недостаточно прибыльно, и побудит их вместо этого сосредоточиться на более прибыльных коммерческих рынках внутри страны и за рубежом, в том числе в Китае. Оживление отношений между государственным и частным секторами будет иметь решающее значение для любых усилий Соединенных Штатов, направленных на то, чтобы надежно конкурировать с Китаем в долгосрочной перспективе.

Будучи самой передовой в мире державой в области технобезопасности, Соединенные Штаты были доминирующим экспортером передовых технологий, знаний и промышленной продукции как в военной, так и в гражданской сферах. Обладание всесторонней научно-технической базой мирового класса, особенно в сфере оборонных технологий, означает, что Соединенные Штаты традиционно не проявляли большого интереса к приобретению иностранных технологий или ноу-хау. Это чувство промышленного и технологического превосходства привело к яростной и устойчивой техно - националистической идеологии и позиции, в которой Соединенные Штаты считали себя на голову выше остального мира.

Но глобальный технологический ландшафт быстро изменился в ХХI веке с появлением разнообразных новых технологий, многие из которых имеют оборонное и двойное применение. С сокращением общей доли глобальных инвестиций в исследования и разработки Соединенные Штаты обнаружили, что им становится все труднее и дороже идти в ногу с технологическими достижениями во всех ключевых областях, что делает сотрудничество с иностранными партнерами все более привлекательным и необходимым. Это сотрудничество происходит в таких областях, как 5G, квантовые вычисления и связь — областях, в которых Китай был особенно активен и борется за мировое лидерство. Но первенство техно-национализма так долго укоренялось в институциональной культуре системы техно-безопасности США, что фундаментальный сдвиг в сторону более коллективного техно-глобалистского подхода, скорее всего, встретит укоренившееся сопротивление и потребует времени для эффективной реализации.

Время от времени предпринимались попытки заложить основы более глобалистски ориентированного подхода к технической безопасности. Формирование в 2021 году соглашения о безопасности, известного как «AUKUS» ( Австралия, Великобритания и Соединенные Штаты), сосредоточенного на передовой обороне и возможностях двойного назначения, — это самая недавняя и многообещающая возможность для роста глобалистски ориентированной США на техноохранный режим.

Одной из областей, в которой Соединенным Штатам удалось установить более тесное партнерство с иностранными союзниками, является контроль над распространением секретных технологий. Чтобы ответить на технологические вызовы Советского Союза и Японии в ХХ веке, Соединенные Штаты создали ряд институциональных структур для контроля потока технологий и ноу-хау в эти страны, особенно Координационный комитет по многостороннему экспортному контролю. Эти режимы эффективно работали в своих сферах, но интегрированная гражданско-военная задача, которую бросает Китай, требует от правительства США разработки более надежного и общегосударственного подхода, чем существующий в настоящее время ситуативный и недостаточно развитый внутриведомственный процесс.

Соединенные Штаты модернизируют эти унаследованные режимы с помощью поэтапных реформ, таких как Закон о модернизации обзора рисков иностранных инвестиций 2018 года и обновленный режим экспортного контроля».

Тем не менее, полагают авторы, в новых областях высоких технологий двойного назначения и стратегических новых технологий все еще существует зияющая дыра, которая требует нового, полностью специализированного институционального механизма, который может более эффективно реагировать и работать в этой области.

Авторы делают главный вывод: система технобезопасности США в первые годы 2020-х остается гораздо более сильной и инновационной, чем её китайский аналог. Однако это господство неуклонно подрывается институциональным склерозом США, далеко идущими глобальными технологическими изменениями и интенсивным темпом развития технологий в области безопасности в Китае. Оживление ключевых компонентов системы технической безопасности США, особенно государственно-частных партнерств и взаимодействия с глобальными партнерами, позволит Соединенным Штатам сохранить свое глобальное лидерство в долгосрочной перспективе, хотя разрыв с Китаем будет продолжать сокращаться. Соединенным Штатам необходимо будет провести более радикальные реформы, чтобы оставаться далеко впереди.

Для Китая реконструкция государства технобезопасности при Си привела к тому, что разрыв с Соединенными Штатами неуклонно сокращается, но для успешного перехода от догоняющего к паритету или даже к лидерству потребуются еще более значительные структурные изменения. Необходима более эффективная координация между государством и рыночными механизмами. Полное осуществление гибридизации — более тесного военно-гражданского слияния — также будет жизненно важным шагом. Совершенствование модели централизованной координации «сверху вниз» будет особенно важно в гонке за развитием новых базовых технологий, поскольку активное вмешательство государства на раннем этапе может сыграть более эффективную и решающую роль, чем поддержка рынка «снизу вверх».

* Facebook — соцсеть запрещённой в РФ экстремистской организации Meta Platforms Inc.

Авторы: Юрий Жданов, Владимир Овчинский

Заглавное изображение из открытых источников

Источник: zavtra.ru