Webpronews27 февраля 2026 г. в 15:05

Правила безопасности ИИ становятся гибче: Anthropic смягчает свои ключевые обязательства

Anthropic, компания, которая позиционировала себя как главный «ответственный» игрок в гонке искусственного интеллекта, тихо пересмотрела свои самые строгие правила безопасности. Основанная выходцами из OpenAI, которые ушли оттуда в том числе из-за разногласий по вопросам безопасности, компания изначально давала чёткое обещание: если её модели покажут признаки способности причинить катастрофический вред, их развёртывание будет остановлено. Теперь это обещание стало куда менее категоричным.

Как стало известно, Anthropic обновила свою «Политику ответственного масштабирования» (RSP), представленную в 2023 году. В первоначальной версии был жёсткий пункт: если внутренние оценки покажут, что модель достигла опасного уровня возможностей — например, в создании биологического оружия или кибератак, — компания приостановит её выход. Новая редакция заменяет эти однозначные формулировки на более гибкие и оценочные. Проще говоря, теперь решение о паузе остаётся на усмотрение руководства, а не срабатывает автоматически.

В компании объясняют изменения накопленным опытом. По их словам, жёсткие рамки старой политики создавали операционные сложности, а более адаптивный подход лучше служит цели ответственного развития. Генеральный директор Дарио Амодеи ранее говорил о давлении конкуренции: излишняя осторожность может отдать лидерство менее щепетильным соперникам, что в итоге ухудшит общую ситуацию с безопасностью.

Именно конкурентная гонка, судя по всему, и стала главной причиной пересмотра правил. На рынке ИИ идёт битва титанов: OpenAI, Google, Meta и другие вкладывают миллиарды, чтобы создать самые мощные системы. Anthropic, при всём её имидже, тоже должна оправдывать многомиллиардные инвестиции от Amazon и Google и удерживать лучших специалистов, которые стремятся к самым передовым проектам.

Реакция исследователей безопасности была резкой. Многие, кто приводил RSP Anthropic как образец для всей индустрии, теперь видят, как этот образец теряет силу. В социальных сетях звучат тревожные заявления: ослабление обязательств может сигнализировать о более широком отступлении от принципов безопасности.

Этот шаг имеет значение далеко за пределами одной компании. Добровольные обязательства таких лидеров, как Anthropic, часто использовались как аргумент против жёсткого госрегулирования. Мол, индустрия способна сама себя контролировать. Теперь этот аргумент серьёзно подорван. Если даже самый «сознательный» игрок смягчает правила под давлением рынка, значит ли это, что никакие добровольные框架 не устоят перед финансовыми стимулами?

Anthropic — не первая компания, чьи принципы безопасности становятся жертвой роста и конкуренции. Подобная эволюция уже была у OpenAI и других. Паттерн очевиден: по мере взросления бизнеса и усиления гонки первоначальные строгие обещания размываются. Вопрос теперь в том, что будет дальше. Ослабление саморегулирования может подтолкнуть власти к более решительным законодательным мерам. А ставки, напомним, касаются не только прибыли, но и предотвращения реальных рисков, связанных с созданием опасных технологий.