ИИ в суде: как умный помощник стал главным свидетелем обвинения
Юристы, которые ещё недавно видели в ИИ идеального помощника для исследований, теперь сталкиваются с неприятным сюрпризом. Инструменты вроде Claude от Anthropic обнажают уязвимости самой правовой системы. История началась в мае 2025 года, когда адвокаты, защищавшие Anthropic в иске о нарушении авторских прав от музыкальных издателей, попросили Claude отформатировать простую ссылку. Искусственный интеллект исказил данные из реальной статьи в The American Statistician, выдав неверных авторов и выдуманное название, но сохранив правильную ссылку, год и журнал. Адвокат Ивана Дуканович из Latham & Watkins в судебном заявлении назвала это «неловкой и непреднамеренной ошибкой», сославшись на «галлюцинации» ИИ.
Но настоящий удар последовал в феврале 2026 года. Федеральный судья Джед Ракофф в Манхэттене вынес жёсткое решение по делу США против Хеппнера. Обвиняемый в мошенничестве Брэдли Хеппнер использовал Claude для создания 31 документа с защитными стратегиями и передал их своим адвокатам. Прокуроры изъяли эти файлы. Хеппнер пытался сослаться на адвокатскую тайну, но судья был категоричен: «Между пользователем ИИ и платформой, такой как Claude, не существует и не может существовать отношений “адвокат-клиент».
Судья напомнил, что политика конфиденциальности Claude прямо разрешает использование данных для обучения и их передачу властям. Ни о какой тайне или защите рабочих материалов речи не идёт, если юристы не руководили процессом создания. После этого решения десятки юридических фирм разослали клиентам предупреждения с призывом к крайней осторожности.
Это не первый провал ИИ в зале суда. Вспомните 2023 год, когда адвокат Стивен Шварц представил суду вымышленные прецеденты, сгенерированные ChatGPT, и был оштрафован. Подобные случаи были в Австралии и Орегоне. Судьи устали от этого и требуют обязательной проверки всего, что создаёт искусственный интеллект.
Пока в Калифорнии продолжается собственный судебный процесс Anthropic против музыкальных гигантов, обвиняющих компанию в незаконном использовании текстов песен, ирония ситуации становится всё очевиднее. Фирма, проповедующая безопасный ИИ, вынуждена через своих адвокатов извиняться за ошибки собственного творения.
Практика меняется на глазах. Юристы теперь встраивают специальные предупреждения в соглашения с клиентами и учат стажёров правильным формулировкам запросов к ИИ, чтобы сохранить тайну. Ключевой урок прост: если вы доверяете конфиденциальную информацию публичному ИИ, вы её теряете — это всё равно что отправить её незнакомцу. Индустрия адаптируется: появляются корпоративные версии ИИ с повышенной приватностью, но они дороги. Пока же главное правило остаётся неизменным: ИИ — это помощник, а не замена профессиональному суждению. Доверяй, но проверяй каждую строчку.