Пентагон пригрозил одной из ведущих ИИ-компаний Америки фактическим уничтожением бизнеса — за отказ снять последние два ограничения на использование технологий военными. Anthropic готова помогать армии США во всем, включая наступательные кибератаки, но провела красную линию: никакой массовой слежки за американцами и никакого боевого применения автономного оружия — технология пока слишком незрелая. В ответ министр обороны Пит Хегсет выдвинул ультиматум с дедлайном 27 февраля и угрозой применить законы военного времени. Один из аргументов Пентагона — Россия уже использует летальное автономное оружие с ИИ на поле боя в Украине, и Америка не может позволить себе отставать из-за этических оговорок подрядчика.
Мэтт Манде: С возвращением на AI Policy Podcast. Я — Мэтт Манде, и сегодня мы с Грегом Алленом обсуждаем главные новости из мира политики ИИ: конфликт Anthropic (американская ИИ-компания, разработчик чат-бота Claude) с Пентагоном, экономические последствия развития ИИ и заявления высокопоставленного чиновника о том, что DeepSeek (китайский ИИ-стартап) контрабандой ввез ИИ-чипы для обучения своей последней модели. Грег, мы давно не делали подобных обзоров новостей, так что рад вернуться к этому формату.
Грег Аллен: Давно пора, рад, что мы это делаем.
Ультиматум министра обороны
Мэтт Манде: Итак, начнем с первой темы. За последние несколько месяцев Пентагон выражал, мягко говоря, глубокое недовольство отказом Anthropic снять защитные ограничения моделей и смягчить требования пользовательской политики. И это недовольство достигло точки кипения. Прямо перед нашей записью военный министр Пит Хегсет дал генеральному директору Anthropic Дарио Амодеи срок до 27 февраля, чтобы выполнить его требования. В противном случае он пригрозил присвоить Anthropic статус "риска для цепочки поставок" или применить Закон об оборонном производстве (Defense Production Act). Мы поговорим о том, что это означает и почему это беспрецедентный шаг. Но сначала — как именно Пентагон сейчас использует модели Anthropic и на чем стоят переговоры?
Грег Аллен: Для начала: у Anthropic есть контракт с Министерством обороны на сумму около 200 миллионов долларов, который проходит через Управление цифровых технологий и искусственного интеллекта (Chief Digital and Artificial Intelligence Office, CDAO). Это преемник организации, в которой я работал — я был директором по стратегии и политике в Объединенном центре ИИ (Joint AI Center). Этот центр вошел в состав CDAO, когда его создали в марте 2023 года.
Anthropic сотрудничает с Минобороны, а также работает с Palantir (американская компания, специализирующаяся на анализе больших данных для спецслужб и военных) — ключевым поставщиком и для Пентагона, и для разведывательного сообщества по множеству направлений.
Чем именно они занимаются? Первое, что нужно отметить: значительная часть их работы засекречена и ведется в закрытых сетях. Когда Минобороны работает на компьютерах, оно использует несколько сетей: NIPR, SIPR и JWICS, плюс другие закрытые контуры. NIPR — это несекретная сеть, SIPR — секретная, а JWICS — сеть для информации с грифом "совершенно секретно / особой важности" (TS/SCI). И что примечательно — Anthropic остается единственным поставщиком ИИ-моделей, работающим в секретных сетях. Так обстоят дела уже какое-то время. Другие компании — Google, xAI (компания Илона Маска), OpenAI — тоже поставляют ИИ Минобороны, но пока только в несекретных сетях. А это серьезно ограничивает их полезность, особенно для задач, связанных с особо важной деятельностью Пентагона — непосредственно боевыми операциями, разведкой и рекогносцировкой.
Мэтт Манде: Тут я хочу вставить ремарку: кажется, сегодня утром или вчера вечером xAI подписала соглашение, которое мы обсудим позже, и теперь они тоже получат доступ к секретным сетям. Верно?
Грег Аллен: Верно. Но это пока только соглашение, дающее право на подключение. Реальность такова, что Anthropic уже давно работает в этих сетях, и боевые подразделения уже используют их технологии, глубоко интегрировав Claude (чат-бот Anthropic) в свою техническую инфраструктуру. Например, Wall Street Journal сообщал, что рейд, приведший к захвату бывшего президента Венесуэлы Николаса Мадуро, был обеспечен именно ИИ-возможностями Anthropic. Полагаю, речь шла о кибероперативных возможностях, потому что одна из сильных сторон Anthropic — кибербезопасность, причем и оборонительная, и наступательная.
Claude занимает уникальное положение: прямо сейчас, в эту секунду, он обеспечивает Минобороны передовыми возможностями больших языковых моделей, и никто другой этого не делает на таком уровне. Конечно, существуют и другие ИИ-технологии — то, что Palantir предоставляет через Project Maven (программа Пентагона по внедрению ИИ в военную разведку), или распознавание речи для разведывательного сообщества. Но Anthropic незаменим в своих возможностях для программирования и в других задачах, использующих языковые модели.
Почему нельзя просто взять и заменить
Мэтт Манде: И представители Пентагона открыто признавали, насколько важны эти возможности. Верно?
Грег Аллен: Да. По крайней мере, согласно материалам Axios — и тут я должен отдать должное их журналистам, они блестяще освещают эту историю. Они цитируют анонимного высокопоставленного чиновника администрации: конкурирующие модели "просто отстают" в специализированных правительственных приложениях, что делает резкую замену крайне проблематичной.
И тема стоимости перехода — это очень важный момент не только для Пентагона, но и для всей ИИ-индустрии. Мы видим, что для обычных пользователей чат-ботов стоимость перехода невелика: можно месяц пользоваться ChatGPT, потом попробовать Claude и переключиться. Но когда вы строите приложения, работающие через API (программный интерфейс для автоматического подключения к модели), используете ИИ-агентов (автономные программы, способные самостоятельно выполнять цепочки задач), масштабируете инфраструктуру — вы вкладываетесь в интеграцию, которую очень сложно воспроизвести с нуля. Именно поэтому Пентагон так разочарован Anthropic: отказ от их технологий обойдется по-настоящему дорого.
Спор об условиях обслуживания
Мэтт Манде: Расскажи подробнее, на каком этапе сейчас переговоры. Anthropic требует от Минобороны соблюдения своей политики использования, и это привело к многомесячным переговорам.
Грег Аллен: Всякий раз, когда вы пользуетесь онлайн-софтом, вы привыкли нажимать кнопку "Я согласен" и принимать условия обслуживания. Это коммерческая лицензия для обычного пользователя. У Anthropic есть корпоративный аналог, и конкретно для государственных заказчиков условия куда более гибкие — правительству разрешено гораздо больше, чем обычным пользователям.
Например, если вы спросите коммерческую версию Claude о биологическом оружии, он, скорее всего, откажется обсуждать эту тему. А вот в Минобороны есть масса законных причин задавать такие вопросы — защита от биооружия является одной из ключевых функций ведомства.
Но условия использования все равно существуют. Anthropic — компания, делающая ставку на безопасность и этику, стремящаяся использовать ИИ на благо человечества и демократий. Эти условия были частью первого контракта с Минобороны, подписанного в июле 2025 года. По информации от участников переговоров, эти условия буквально ни разу не становились проблемой — по крайней мере, с тех пор как Anthropic смягчила их, разрешив использование для наступательных киберопераций.
А теперь Министерство обороны (или Министерство войны — Department of War, как оно себя теперь называет; юридически название Department of Defense тоже сохраняется в законах о бюджете, но буду использовать оба варианта), пересматривая контракт в рамках своей ИИ-стратегии, заявляет: мы не хотим работать с компаниями, у которых сложные условия обслуживания. Мы хотим только одно: чтобы вы согласились, что мы можем использовать ваши возможности "в любых законных целях".
Мэтт Манде: Вот это ключевая формулировка.
Грег Аллен: Именно. Министерство обороны говорит, что ему нужна гибкость. И я разделяю этот аргумент. Вот что за этим стоит: существуют спорные военные возможности и спорные варианты применения силы. Минобороны не хочет, чтобы дискуссия об этих вариантах велась с подрядчиками, с компаниями-поставщиками. Место для такой дискуссии — Конгресс, исполнительная власть, общественная сфера.
Крайний пример: во время Вьетнамской войны использование напалма, произведенного химическими компаниями, было крайне спорным. Многие считали его применение неэтичным и контрпродуктивным. Минобороны считает, что дискутировать об этом вправе Конгресс, Белый дом — но не производители напалма. Не их роль решать, когда и как его можно применять.
Теперь к тому, что осталось на столе переговоров. Anthropic отступила практически по всем пунктам. Они стоят на двух последних позициях: запрете массовой слежки за собственными гражданами и запрете на боевое применение автономного оружия.
Важный нюанс: Anthropic не запрещает использовать свои технологии для разработки автономного летального оружия. Они разрешают это. Но говорят: технология недостаточно зрела, чтобы принимать решение о боевом развертывании таких систем. Их позиция — не "никогда", а "не сейчас: технология слишком незрелая".
Это весьма скромный набор требований. А Минобороны говорит: нет, мы вообще не собираемся обсуждать это. Мы хотим от поставщиков одного: когда мы говорим "прыгай", вы спрашиваете "как высоко?". Не согласны с нашими решениями — пишите своему конгрессмену. Но не вносите это в условия обслуживания.
И в контексте автономного оружия: наша коллега в CSIS (Центр стратегических и международных исследований, Вашингтон) Катерина Бондар готовит доклад, в котором указывает, что Россия, по всей видимости, уже применяет летальное автономное оружие с элементами ИИ в войне в Украине прямо сейчас. Представьте, как Минобороны может сказать: "Вы, какая-то компания, будете указывать нам, Министерству обороны, что мы не можем иметь возможности, которые Россия уже использует на поле боя? Мы сами решим, соответствовать ли действиям России. Может, будем, может, нет — но это наш выбор, не ваш".
Anthropic отвечает: вы подписали наши первые условия, тогда проблем не было. Мы стали куда мягче, серьезно смягчили требования. Это последние два пункта разногласий. Мы не хотим уступать. Не давите.
Ультиматум и три варианта расплаты
Мэтт Манде: Ты отлично изложил обе позиции. И с этими позициями стороны вошли во встречу, которая состоялась за несколько часов до нашей записи. По имеющимся данным, разговор был очень напряженным. Что из этого вышло?
Грег Аллен: Согласно доступным материалам, военный министр Пит Хегсет предъявил генеральному директору Anthropic Дарио Амодеи ультиматум: у вас есть время до 27 февраля. Потом мы либо расторгнем контракт, либо присвоим вам статус "риска для цепочки поставок" (supply chain risk), либо применим Закон об оборонном производстве (Defense Production Act), который, возможно, даст нам юридические основания заставить вас предоставить возможности на наших условиях.
Первый вариант — расторжение контракта — это печальный, но разумный исход. Как я сказал, позиция Минобороны мне близка: это их решение, а не компаний.
Но два других варианта — это шокирующая эскалация и огромная ошибка.
Когда я работал в Минобороны, я помню дебаты, которые шли еще до моего прихода. Летом 2018 года Google громко и скандально вышел из Project Maven — флагманской военной ИИ-программы Пентагона. Google опубликовал этические принципы ИИ, заявив, что не будет участвовать в разработке вооружений. Это был болезненный удар по ИИ-инициативам Минобороны и катастрофа для репутации Google. Американская армия исторически имеет рейтинг одобрения около 80%, в то время как рейтинг президента регулярно падает ниже 40%. Америка любит свою армию. И когда компания отказывается ее поддерживать, это вызывает серьезное недовольство.
Когда я пришел в Минобороны, один из высших руководителей Объединенного комитета начальников штабов — кажется, генерал Данфорд — фактически обвинил Google в том, что компания отказывает Минобороны, одновременно предлагая помощь Китаю. Для PR-отдела Google это был ужасный день.
Но вот в чем дело: тогда Google отказывался участвовать в относительно безобидной программе. Ранние этапы Project Maven заключались в подсчете автомобилей на спутниковых снимках. Никаких боевых роботов с ИИ.
А теперь ситуация прямо противоположная: ведущая мировая ИИ-компания с энтузиазмом работает с Минобороны. Они сами подали заявку на контракт. Их технологии, по данным Wall Street Journal, использовались для наступательных кибератак против иностранного государства, которые привели к захвату его президента. Они глубже всех интегрированы в боевые задачи. И сигнал, который Пентагон пошлет, если навредит Anthropic, будет таким: любой ИИ-стартап, если ты хотя бы подумаешь о работе с нами, мы схватим тебя за рубашку и затащим в воду с головой.
Мэтт Манде: Не лучший сигнал для индустрии. Объясни аудитории подробнее, что означает статус "риска для цепочки поставок" и применение Закона об оборонном производстве.
Грег Аллен: Те, кто не знаком с этими терминами, могут подумать, что "риск для цепочки поставок" — это что-то вроде "ненадежный поставщик, который может отказать". Это не так. В данном юридическом контексте это ядерный вариант.
Статус "риска для цепочки поставок" — это то, что применяется, когда ваши владельцы — российские или китайские, и есть подозрения, что ваша компания — прикрытие для иностранных спецслужб. Это означает не только запрет на работу Минобороны с вами — это запрет Минобороны работать с любой компанией, которая работает с вами.
Anthropic — это компания, к которой мы в Минобороны умоляли прийти и помочь. Талант в сфере ИИ на планете все еще в дефиците. Иметь талантливые компании, желающие работать на вашу национальную безопасность, — огромное преимущество. И вот вы говорите этим людям: мы не только не хотим с вами работать — мы не хотим, чтобы кто-либо с вами работал.
Контракт с Минобороны на 200 миллионов долларов — это приличные деньги, но не критичные. Думаю, выручка Anthropic в этом году исчисляется однозначными миллиардами и удваивается каждый год. Они проживут без этих 200 миллионов.
Чего Anthropic не переживет — это если каждой компании в американской экономике, работающей с Минобороны, вдруг запретят сотрудничать с ними. Вот это будет разрушительно.
И не только я так думаю. Хочу процитировать Дина Болла, который занимал должность старшего советника в Управлении научно-технической политики Белого дома во второй администрации Трампа. Он участвовал в разработке Американского плана действий в области ИИ. Республиканец, работавший при Трампе — не оторванный от жизни либерал. Вот что он написал в X: "Это решение выглядит весьма эскалационным, с множеством непредвиденных последствий и потенциальным серьезным ущербом интересам США в долгосрочной перспективе. Надеюсь, стороны смогут договориться. Если нет — пусть разойдутся мирно. Не нужно превращать это в священную войну. Администрация считает ИИ определяющей технологической конкуренцией нашего времени. Не вижу, как уничтожение одного из самых передовых ИИ-стартапов Америки поможет Америке выиграть эту конкуренцию. Если сделка невозможна — расторгните контракт и используйте конкурентный ИИ-рынок Америки, чтобы отдать бизнес одному из многих ожесточенных конкурентов Anthropic".
Сказано точно. Anthropic и другие передовые ИИ-лаборатории — огромное преимущество США. Брать одну из жемчужин своей технологической индустрии и поджигать ее из-за такого спора, причем как первый же вариант, — колоссальная ошибка. Надеюсь, они ее не совершат.
Мэтт Манде: Есть несколько цитат от Axios, которые, мне кажется, объясняют происходящее. Думаю, в действиях администрации есть элемент мстительности. Высокопоставленный чиновник сказал Axios: "Распутать все это будет чертовски больно, и мы сделаем так, чтобы они заплатили за то, что вынудили нас на это". Это серьезно. Очевидно, что мотивация — не только рациональная политика, но и в каком-то смысле месть.
Грег Аллен: Надеюсь, что они ориентируются не на это. Но, как ты сказал, такая интерпретация вполне обоснована.
Третий вариант на столе — Закон об оборонном производстве. Это закон, существующий уже много десятилетий. Его изначальная цель: в условиях дефицита и кризиса национальной безопасности государство должно иметь возможность сказать частному бизнесу: мы знаем, что вы могли бы зарабатывать на лимузинах, но стране сейчас нужны танки. Этот закон применялся во время пандемии COVID для принуждения компаний производить аппараты ИВЛ.
Если применить его к Anthropic — задумайтесь о когнитивном диссонансе. С одной стороны, Anthropic — "риск для цепочки поставок", то есть равнозначна китайской компании, которой нельзя доверять вопросы нацбезопасности. С другой — Anthropic настолько ценен для нацбезопасности, что его нужно заставить работать. Так что же — нельзя с ними работать или нужно их принудить?
Я разделяю позицию Минобороны о необходимости гибкости. Но вы подписали контракт в июле 2025 года. Anthropic не сумасшедшие, полагая, что такая компания имеет право на подобные условия. Ваша же администрация — вторая администрация Трампа — одобрила аналогичные условия менее года назад. Перейти от "мы принимаем широкие условия" к "любые условия — и мы приравняем вас к российской или китайской компании" — это вопиющая чрезмерная реакция. Как сказал Дин Болл, с множеством непредвиденных последствий и долгосрочным ущербом отношениям Пентагона с Кремниевой долиной, которые мы восстанавливали очень долго.
Когда в 2018 году случился скандал с Google и Project Maven, я опубликовал статью в научном журнале Nature, критикуя Google за выход из проекта и призывая компанию работать с армией. Я на стороне военных. Но варианты, которые озвучивает министр обороны, — надеюсь, он не нажмет на этот курок. Уверен, что ведомство в конечном счете об этом пожалеет.
Палмер Лаки и его позиция
Мэтт Манде: Хочу зачитать еще одну цитату — от генерального директора Anduril (оборонная технологическая компания) Палмера Лаки. Он написал в X: "Дело не в наказании компаний за несовпадение политических взглядов. Это рациональная реакция на поставщика, который пытается контролировать правительство через условия обслуживания продуктов, на которых это правительство работает".
Грег Аллен: Я неоднократно хвалил Палмера Лаки за то, что он одним из первых начал привлекать венчурный капитал и технологии Кремниевой долины в Минобороны, когда это еще не было модным. Как частный инвестор он вложил значительные средства в создание чего-то полезного для национальной безопасности. Уважаю.
Мне близок и его аргумент о том, что правильное место для такой дискуссии — Конгресс, исполнительная власть, общественное мнение, а не условия обслуживания. Но я не поддерживаю присвоение Anthropic статуса "риска для цепочки поставок" и не поддерживаю применение Закона об оборонном производстве. Это нанесет слишком много ненужного ущерба отношениям военных с технологической индустрией.
Мой совет этой администрации: помедленнее.
Мэтт Манде: Полностью согласен. Перейдем к другой теме, которая не замедляется, а наоборот, набирает обороты, — экономические последствия развития ИИ.
KPMG и цена аудита в эпоху ИИ
Мэтт Манде: Хочу обсудить несколько недавних историй, указывающих на экономические потрясения от ИИ. Начнем с довольно ироничной новости. 6 февраля Financial Times сообщила, что KPMG — одна из "большой четверки" аудиторских фирм — надавила на собственного аудитора, требуя снизить расценки, потому что ИИ должен делать работу дешевле. Расскажи, что произошло и как это связано с более широкой картиной.
Грег Аллен: Эта история очень показательна. Один из тех моментов, когда видишь изнанку и понимаешь, как участники рынка на самом деле оценивают спектакль, который разыгрывают для остального мира.
KPMG — одна из крупнейших аудиторских компаний мира. Помимо того, что они аудируют других, их самих тоже проверяет независимый аудитор. И вот что интересно: KPMG наблюдала ИИ-революцию как ее бенефициар. Они пришли к своему аудитору — Grant Thornton UK — на переговоры о цене и заявили, что ИИ влияет на стоимость аудита.
Цитата из Financial Times: KPMG потребовала от Grant Thornton передать клиенту экономию от внедрения ИИ и пригрозила сменить аудитора, если те не согласятся на значительное снижение стоимости. В итоге KPMG International заплатила за аудит 2025 года 357 тысяч долларов вместо 416 тысяч в 2024-м.
Крупная аудиторская фирма прямым текстом заявляет: цена аудита должна снижаться, потому что ИИ сделал работу продуктивнее и эффективнее, и эту экономию нужно передавать клиентам, а не оставлять как дополнительную прибыль.
Я почти уверен, что каждый клиент аудиторских услуг KPMG отправил письмо после этой статьи: "Хотим обсудить наши расценки на 2026 год. Судя по вашему собственному внутреннему анализу, вы считаете, что цена аудита должна снижаться благодаря ИИ. Расскажите, как вы снизите наши затраты".
Отличная цитата от Дерека Томпсона, журналиста The Atlantic: "Это выглядит как случайное объявление всему миру, что бизнес-модель компании под угрозой".
Мэтт Манде: Именно так. А эта новость появилась после другой истории: Anthropic выпустила несколько новых инструментов, автоматизирующих задачи в юридической, торговой, маркетинговой и других сферах, что спровоцировало распродажу акций софтверных и сервисных компаний на 830 миллиардов долларов. Один инвестор назвал это "моментом осознания разрушительной силы ИИ". Потом Anthropic выпустила еще один продукт, и упали акции компаний кибербезопасности. Это паника инвесторов или реальный сигнал о грядущем разрушении?
Почему рынок реагирует на будущее уже сейчас
Грег Аллен: Стоит помнить, что акции отражают ожидания будущего. Даже изменение вероятности разных сценариев может обоснованно двигать цену акций.
Простой пример: мы играем в игру с подбрасыванием монеты, и при "орле" вы выигрываете 50 тысяч долларов, а при "решке" — 10 тысяч. А теперь мы меняем правила: бросаем кубик, и 50 тысяч вы получаете только при пятерке или шестерке. Шанс на большой выигрыш все еще есть, но он стал ниже. Вопрос: сколько вы заплатите за право участвовать в этой игре?
Примерно это сейчас происходит на рынке. Уничтожение софтверной индустрии с помощью ИИ — не гарантированный исход. Но он стал куда более вероятным. Сложно посмотреть на текущую картину и сказать: нет, этого точно не произойдет.
И тут я хочу провести аналогию, которая может показаться странной, но она полезна. Софтверные индустрии в США и Китае устроены очень по-разному. В США доминирует модель "софт как услуга" (SaaS): Salesforce — для управления клиентами, Asana — для командной работы, Westlaw (крупнейшая юридическая информационная система в США) — для юридических исследований. Множество компаний предоставляют специализированный софт для конкретных отраслей, и предоставляют его не одной юрфирме, а практически всем.
В Китае SaaS-модель распространена гораздо меньше. Причина: в США десятилетиями был острый дефицит программистов, они получали огромные зарплаты — поэтому имело смысл объединять ресурсы и предлагать одно решение множеству клиентов. Жертвуешь кастомизацией ради масштаба. В Китае дефицита программистов нет, зарплаты значительно ниже — компании просто нанимают собственных разработчиков и создают индивидуальные решения.
Ключевое различие — дефицит программистов. А что, если ИИ-агенты в ближайшем будущем так повысят продуктивность разработчиков, что американская софтверная экосистема станет похожа на китайскую — где добавить программиста в команду стоит дешево и просто? Тогда можно строить высококастомизированные решения, которые работают именно так, как нужно вашей компании, а не мучиться с компромиссами универсального SaaS-продукта.
Claude Code (инструмент Anthropic для автоматизации программирования) и Claude Cowork (инструмент для автоматизации рабочих задач на рабочем столе) обнулили ожидания индустрии о том, что возможно с ИИ-агентами прямо сейчас и что будет возможно через 12-24 месяца. Это не гарантия софтверного апокалипсиса, но среди всех возможных сценариев будущего вероятность апокалипсиса существенно выросла. Именно это, на мой взгляд, стоит за массовой распродажей.
Мэтт Манде: Очень важный момент. Друзья мне говорят: ИИ пока не может делать все эти вещи, так зачем продавать акции? Но ему и не нужно уметь все это — достаточно, чтобы это стало более вероятным.
Грег Аллен: Для почти любых акций на фондовом рынке большая часть стоимости компании — это деньги, которые она заработает более чем через пять лет, приведенные к сегодняшней стоимости (так называемая модель дисконтированных денежных потоков). Будущее реально влияет на настоящее, когда речь идет о ценах акций.
Голливуд перед лицом ИИ
Мэтт Манде: Последняя история — об индустрии развлечений. Многие наши слушатели, наверное, видели ИИ-сгенерированное видео, где Том Круз и Брэд Питт дерутся. Довольно забавное видео, обязательно посмотрите, если еще не видели.
Грег Аллен: Отличная штука.
Мэтт Манде: Что говорят кинематографисты о будущем своей индустрии? Потому что если бы я был режиссером и увидел это видео в ленте — день был бы испорчен.
Грег Аллен: В золотую эру Голливуда — в 1990-х и 2000-х — звезды в расцвете карьеры, вроде Брэдли Купера или Тома Круза, регулярно получали по 20 миллионов долларов за фильм. За этим стоял редкий и ценный набор навыков (плюс бренд и репутация). Но даже для людей, занимающихся звуком, операторской работой, декорациями — это были хорошо оплачиваемые рабочие места, потому что их умения были редкими и ценными.
Посмотрите, что ИИ генерирует для кино — это пока не голливудский уровень. Но если вспомнить первые видео от диффузионных моделей (тип ИИ для генерации изображений и видео) три года назад и сравнить с сегодняшними мультимодальными моделями, интегрированными с языковыми, — прогресс колоссальный. И возникает вопрос: где мы будем через год? Через два?
Компании делают ставку на эту технологию. Например, Amazon, у которого сейчас одна из крупнейших кино- и телестудий. По данным Reuters, в Amazon MGM Studios ветеран индустрии развлечений Альберт Ченг возглавляет команду, разрабатывающую новые ИИ-инструменты для снижения затрат и оптимизации творческого процесса. Если вы руководитель крупной студии и предполагаете, что технология может снизить стоимость производства в два, десять, пятьдесят раз — вы не можете позволить себе ее игнорировать, потому что конкуренты не будут.
Сценаристы, режиссеры, актеры, съемочные группы — все беспокоятся о потере работы. Но продакшн-компании обязаны использовать то, что работает и экономически оправдано.
Одни из самых интересных комментариев принадлежат Ретту Ризу — сценаристу и продюсеру фильмов о Дэдпуле. "Дэдпул и Росомаха" был, кажется, фильмом номер один в год выхода.
Мэтт Манде: Да, и это как раз боевик, который напрямую перекликается с тем клипом Круза и Питта.
Грег Аллен: Именно. Этот человек — крупный игрок в крупном кино, которое приносит огромные деньги. И вот что он написал в X: "Не хочу этого говорить, но для нас, скорее всего, все кончено". Это была его реакция на тот 15-секундный клип.
И вот еще один его пост: "Очень скоро один человек сможет сесть за компьютер и создать фильм, неотличимый от голливудского. Да, если этот человек бездарен — получится ерунда. Но если он обладает талантом и вкусом Кристофера Нолана — а такой человек неизбежно появится — результат будет потрясающим".
И еще: "Подозреваю — могу ошибаться, — что многие сценаристы уже активно используют ИИ в работе, а многие продюсеры и руководители студий активно используют его для анализа сценариев. Получается комичная ситуация: все сидят и смотрят, как ИИ критикует то, что ИИ только что написал".
Кстати, в документальном фильме о создании пятого сезона "Очень странных дел" в какой-то момент показывают монитор сценариста — и если присмотреться, среди открытых вкладок полно ChatGPT. Даже на главном шоу Netflix ИИ уже участвует в творческом процессе. Пока в основном на этапе написания и генерации идей, но куда это движется — совершенно очевидно.
Последняя цитата от Ретта Риза — она ключевая: "Хочу уточнить: я совершенно не в восторге от вторжения ИИ в творческие сферы. Наоборот, я в ужасе. Столько людей, которых я люблю, теряют любимые карьеры. Я сам под угрозой. Когда я написал 'все кончено', я не хотел показаться легкомысленным. Меня поразило видео 'Питт против Круза', потому что оно выглядит профессионально. Именно поэтому мне страшно. Мой пессимистичный прогноз: Голливуд вот-вот будет революционизирован и разгромлен одновременно. Если вы искренне считаете видео 'Питт против Круза' невпечатляющей ерундой — вам не о чем беспокоиться. Но меня трясет".
Мэтт Манде: Мощная цитата. Меня тоже трясло от того видео.
Чтобы связать это с историей KPMG: вопрос в том, сделает ли ИИ людей невероятно продуктивными — или сделает их ненужными, потому что все сложное станет простым. Для потребителей результат будет отличным: намного больше фильмов, на намного больше тем, с гораздо более высоким качеством. Но для производителей бизнес-модели должны будут измениться. Когда можно оправдать бюджет "Аватара" в 300 миллионов? Мне сложно понять, как эти бизнес-модели выживут. Возможно, индустрия сохранится, но в другом виде — небольшие команды, создающие качественный контент в партнерстве с ИИ. Но момент разрушения для Голливуда, похоже, неизбежен.
Грег Аллен: Безусловно. Как и для аудиторов.
Мэтт Манде: И для юристов, и для многих других профессий.
DeepSeek, контрабанда чипов и кража интеллектуальной собственности
Грег Аллен: Истории интересные, и мы продолжим следить за экономическими последствиями ИИ. Но я хочу перейти к последней теме — экспортный контроль. 23 февраля высокопоставленный чиновник администрации Трампа заявил журналистам Reuters, что грядущая модель DeepSeek, которая должна выйти в ближайшие недели, была обучена на чипах Nvidia Blackwell (самые мощные на сегодня ИИ-ускорители). Как наши постоянные слушатели знают, экспорт этих чипов в Китай был и остается незаконным. Но прежде чем обсуждать последствия контрабанды — расскажи, что именно утверждает чиновник.
Мэтт Манде: Это анонимный источник Reuters, обозначенный как "высокопоставленный чиновник администрации Трампа". Он заявляет: "Мы не отправляем Blackwell в Китай — по крайней мере, легально не отправляем". То есть речь о контрабанде. Теоретически это может быть и история об удаленном доступе через облако, но из контекста статьи следует, что чипы физически находятся на территории Китая. Это нарушение экспортного контроля.
По данным Reuters, "США полагают, что DeepSeek удалит технические индикаторы, которые могут выдать использование американских ИИ-чипов". Чиновник добавил, что чипы Blackwell, вероятно, сконцентрированы в дата-центре DeepSeek во Внутренней Монголии (автономный район Китая).
Вторая часть истории — дистилляция. Reuters цитирует: "Модель, обученная с их помощью, вероятно, опиралась на дистилляцию моделей ведущих американских ИИ-компаний, включая Anthropic, Google, OpenAI и xAI — что перекликается с обвинениями со стороны OpenAI и Anthropic".
Напомню, что такое дистилляция. Для обучения модели впервые используются колоссальные объемы данных — фактически бо́льшая часть интернета. Результат обучения — это модель. Потом можно провести серию диалогов с этой моделью, и эти диалоги становятся новым набором данных для обучения. Этот набор данных — даже при миллионах диалогов — будет намного меньше, чем весь интернет. В итоге получается модель с бо́льшей частью возможностей оригинала, но при несравнимо меньших вычислительных затратах на создание и использование.
Все компании занимаются дистилляцией собственных моделей для создания более легких и дешевых версий. Но Anthropic и другие утверждают, что DeepSeek добивается высоких результатов именно потому, что едет в "аэродинамической тени" исследований OpenAI, Anthropic и Google.
23 февраля Anthropic опубликовала заявление: "Мы выявили кампании промышленного масштаба со стороны трех ИИ-лабораторий — DeepSeek, Moonshot и MiniMax (все три — китайские ИИ-компании) — по незаконному извлечению возможностей Claude для улучшения собственных моделей. Эти лаборатории сгенерировали более 16 миллионов запросов к Claude через примерно 24 тысячи мошеннических аккаунтов, нарушая наши условия обслуживания и региональные ограничения доступа".
Условия обслуживания запрещают дистилляцию без разрешения, а региональные ограничения означают, что доступ из Китая в принципе заблокирован — то есть они использовали VPN (сервисы для маскировки местоположения) или иные обходные методы.
Последствия: чипы, дистилляция и экспортный контроль
Грег Аллен: Какие основные последствия, если обвинения и в контрабанде, и в дистилляции подтвердятся?
Мэтт Манде: Во-первых, это показывает, что Китай по-прежнему нуждается в американских передовых чипах. Саиф Хан, бывший директор по технологиям и нацбезопасности в Совете национальной безопасности при Байдене (сейчас — в Институте прогресса, аналитическом центре в Вашингтоне), сказал Reuters: "Зависимость китайских ИИ-компаний от контрабандных Blackwell подчеркивает огромный дефицит чипов собственного производства и то, почему одобрение поставок чипов H200 (менее мощных, чем Blackwell, но тоже подпадающих под ограничения) стало бы для них спасательным кругом".
Во-вторых, как отметил Крис Макгвайр, который тоже был гостем нашего подкаста: китайские компании готовы нагло нарушать американский экспортный контроль. Так с какой стати мы должны доверять им соблюдение ограничений — например, запрета на передачу возможностей китайской армии?
Крис Макгвайр написал в X: "Когда DeepSeek выпустит новую модель и заявит, что обучил ее с нуля на 2000 чипах H800 (ИИ-ускорители предыдущего поколения), — надеюсь, мир поймет, что это ложь. Факт в том, что DeepSeek почти полностью зависит от запрещенных американских технологий и интеллектуальной собственности. Они обучают модели с помощью незаконно ввезенных чипов и ворованной ИС. Эти действия должны иметь последствия".
И Anthropic сделала важное замечание в своем заявлении: "Без понимания масштабов этих атак быстрый прогресс китайских лабораторий ошибочно воспринимается как доказательство неэффективности экспортного контроля. В реальности эти достижения в значительной степени опираются на возможности, извлеченные из американских моделей, а масштабная дистилляция требует доступа к мощным чипам. Атаки через дистилляцию, таким образом, подтверждают обоснованность экспортного контроля: ограничение доступа к чипам ограничивает и прямое обучение моделей, и масштаб незаконной дистилляции".
Это важный аргумент. Да, в идеале хотелось бы и запретить Китаю создавать собственные модели, и предотвратить дистилляцию. Но Anthropic указывает, что эффективный экспортный контроль чипов полезен даже при существовании дистилляции, потому что дистилляция хоть и намного дешевле обучения, но все же требует серьезных вычислительных ресурсов.
Фармацевтика или истребитель F-35?
Грег Аллен: Хочу добавить кое-что, о чем я писал в своем докладе о DeepSeek, опубликованном в марте 2025 года. Мы обсуждаем справедливость или несправедливость дистилляции и кражи американской ИС. Давайте будем честны: они с радостью крадут американскую ИС. Вопрос не в справедливости, а в том, работает ли это, будет ли продолжать работать и каковы стратегические последствия.
Нужно спросить себя: ИИ-индустрия больше похожа на производство истребителей или на фармацевтику?
С истребителями так: Китай буквально украл чертежи F-35 более десяти лет назад — и до сих пор не может создать самолет такого же уровня. Потому что секрет не только в чертежах, но и в организационных неявных знаниях людей, которые строят F-35. Украл чертежи — не значит украл все.
С лекарствами иначе: без патентной защиты никто не стал бы инвестировать в фармацевтику, потому что, узнав формулу молекулы, можно скопировать препарат за миллионную долю стоимости разработки. Секрет невозможно удержать, когда продукт попадает в руки миллионов потребителей. Бизнес-модель фармацевтики держится на добросовестности и патентном праве.
Как говорила администрация Трампа, ИИ — это как космическая гонка. А в космической гонке Советы не уважали нашу интеллектуальную собственность — и мы бы тоже не стали, будь у нас возможность. Американская политика — не использовать шпионаж для коммерческой выгоды, но для военно значимых секторов? Еще как используем.
Китай будет продолжать попытки дистилляции. Крис Макгвайр призывает к принудительным мерам возмездия, Anthropic — к ужесточению экспортного контроля. Но я, к сожалению, настроен пессимистично: ни то, ни другое полностью не остановит это.
Вопрос в том, можно ли сделать дистилляцию неработающей. По разговорам с людьми из лабораторий, текущее состояние технологии позволяет поставить барьеры, удорожающие дистилляцию в 10 раз. Но если это подъем с 2 миллионов до 20 миллионов — при том что американские ИИ-компании тратят сотни миллиардов на обучение моделей и инфраструктуру — дистилляция остается невероятно привлекательной.
Это возвращает к тому, что мы обсуждали в прошлом выпуске о речи Майкла Крациоса (директор Управления научно-технической политики Белого дома) в Нью-Дели, где он фактически говорил: Америка хочет экспортировать чипы, мы хотим помочь вам создать суверенный ИИ. Одна из возможных интерпретаций: администрация считает бизнес-модель закрытых ИИ-моделей недостаточно жизнеспособной по сравнению с открытым кодом — особенно если этот открытый код просто ворует американскую ИС через дистилляцию.
Представьте, что китайские компании радостно крадут американские фармацевтические рецепты. Бизнес-модель американских фармкомпаний какое-то время работала бы, но когда Китай начнет предлагать каждой стране на Земле американские препараты за ничтожную долю цены — многие согласятся. Это очень опасный момент для американской фарминдустрии в таком сценарии. И, возможно, именно в этом сценарии находится ИИ-индустрия.
Я поддерживаю ужесточение экспортного контроля. Поддерживаю изучение карательных мер против Китая. Безусловно поддерживаю исследования по повышению устойчивости моделей к дистилляции. Но компаниям и странам нужно также думать об оптимальной стратегической позиции на случай, если дистилляция продолжит работать, — потому что это как минимум вероятный сценарий будущего.
Мэтт Манде: Интересно. Рад, что мы поговорили об экспортном контроле и дистилляции — мы не касались этой темы, кажется, больше месяца, что для нас непривычно. Но спасибо, что присоединился, несмотря на жуткий джетлаг после поездки в Индию. И спасибо аудитории, что слушаете нас.
Грег Аллен: Спасибо, Мэтт.




