TechCrunch1 марта 2026 г. в 12:05

Антропик в ловушке: как отказ от правил обернулся против создателей ИИ

В пятницу, прямо во время нашего интервью, на экране всплыла экстренная новость: администрация президента США разрывает все связи с компанией Anthropic. Министр обороны Пит Хегсет, ссылаясь на закон о национальной безопасности, запретил компании работать с Пентагоном. Причина? Основатель Anthropic Дарио Амодеи отказался позволить использовать технологии компании для массовой слежки за гражданами США и создания автономных боевых дронов, способных самостоятельно выбирать и уничтожать цели.

Это был оглушительный удар. Компания теряет контракт на 200 миллионов долларов, а указ президента в социальных сетях предписывает всем федеральным агентствам немедленно прекратить использование технологий Anthropic. Компания уже заявила, что будет оспаривать решение в суде.

Физик из MIT Макс Тегмарк, уже почти десять лет предупреждающий, что гонка в создании ИИ опережает возможности человечества по его контролю, беспощаден в своей оценке. По его мнению, Anthropic, как и её конкуренты, сама создала себе эту ловушку. Проблема началась не с Пентагона, а с давнего отраслевого выбора — сопротивляться регулированию.

«Дорога в ад вымощена благими намерениями, — говорит Тегмарк. — Десять лет назад все говорили, что ИИ вылечит рак и принесёт процветание. А теперь правительство злится на компанию за то, что та не хочет, чтобы её ИИ использовали для слежки за американцами и создания роботов-убийц».

Anthropic строила свой имидж на безопасности. Однако, как отмечает эксперт, если смотреть на факты, а не на заявления, картина иная. Anthropic, OpenAI, Google DeepMind и xAI много говорили о безопасности, но никто из них не поддержал обязательное государственное регулирование. При этом все они нарушили свои же обещания. Google отказался от принципа «Не будь злом» и более длинных обязательств, OpenAI убрал слово «безопасность» из своей миссии, xAI расформировал отдел безопасности. А на этой неделе Anthropic отказалась от ключевого принципа — не выпускать мощные системы, пока не будет уверена в их безопасности.

«Все эти компании, особенно OpenAI и Google, активно лоббировали против регулирования ИИ, говоря: „Доверьтесь нам, мы сами себя контролируем“. И они преуспели. Сейчас в США меньше правил для систем ИИ, чем для бутербродов, — иронизирует Тегмарк. — Если бы они сами пришли к государству и попросили превратить их добровольные承诺 в закон, их бы не поставили в такую ситуацию. Они сами себе наступили на ногу».

Что дальше? Тегмарк видит и оптимистичный сценарий. Если прекратить корпоративную безнаказанность и начать относиться к компаниям ИИ, как к любым другим — требовать, например, подобия клинических испытаний перед выпуском мощных систем, — можно получить золотой век ИИ без экзистенциальных угроз. Но пока мир движется по другому пути. А пока Anthropic в чёрном списке, и настал момент, когда всем игрокам придётся показать свои истинные цвета.