Webpronews28 февраля 2026 г. в 06:05

Этика против Пентагона: как принципы одной из ведущих AI-компаний привели к полному запрету на работу с правительством США

Федеральное правительство США нанесло беспрецедентный удар по индустрии искусственного интеллекта. В конце февраля 2026 года все государственные ведомства получили приказ немедленно прекратить использование любых продуктов и сервисов компании Anthropic, создавшей нейросеть Claude. Причина — принципиальный спор о том, как именно ИИ может служить национальной безопасности.

Всё началось с конфликта между Anthropic и Министерством обороны. Пентагон хотел задействовать возможности Claude для анализа разведданных, логистики и, что стало ключевым разногласием, для поддержки оперативных решений. Руководство Anthropic, известное своим осторожным подходом к безопасности ИИ, отказалось, сославшись на внутренние этические принципы. Компания всегда запрещала использовать свои модели для разработки вооружений, массовой слежки или в приложениях, способных причинить прямой физический вред. Для администрации президента такой отказ стал вопросом лояльности. В Белом доме заявили, что не потерпят, когда американские компании отказываются поддерживать тех, кто защищает страну.

Запрет ударил не только по оборонному ведомству. Технологии Anthropic уже использовались в гражданских целях: для анализа документов в Министерстве здравоохранения, в пилотных проектах по госзакупкам и даже для научных исследований. Теперь всем этим структурам дали 30 дней на расторжение контрактов и поиск альтернатив у конкурентов вроде OpenAI или Google.

Реакция Кремниевой долины — это смесь страха и молчаливого расчета. Ни одна крупная AI-компания публично не поддержала Anthropic. Многие понимают: теперь этические принципы любой фирмы могут стать поводом для полного исключения с госрынка. OpenAI, которая ещё в 2024 году сняла собственный запрет на военные применения, и xAI Илона Маска, известные тесными связями с администрацией, могут стать главными бенефициарами ситуации.

Anthropic держится сдержанно, подтверждая приверженность «ответственному ИИ», но не вступая в прямую конфронтацию. Для компании, чья оценка в последнем раунде финансирования достигла 60 миллиардов долларов, потеря государственных контрактов — болезненный, но не смертельный удар. Её основной доход идёт от корпоративных и частных клиентов. Более того, в Европе и среди организаций, ценящих безопасность ИИ, такая принципиальная позиция может даже укрепить репутацию.

Однако последствия этого скандала выходят далеко за рамки одной компании. Создаётся опасный прецедент: теперь любая AI-лаборатория, получающая заказы от государства, должна решить, стоит ли её этическая рамка риска полного запрета. Этот холодный расчёт может заставить многие компании тихо отказаться от своих принципов, перекраивая всю экосистему отношений между властью и технологическим бизнесом. Вопрос, на который теперь предстоит ответить индустрии, звучит так: можно ли оставаться верным своим ценностям, когда твой самый могущественный потенциальный клиент требует их пересмотреть?