Данные из ChatGPT могут оказаться в Пентагоне: эксперт предупреждает о скрытой угрозе

Соглашение между разработчиком ChatGPT, компанией OpenAI, и американским военным ведомством может создать серьёзные проблемы для пользователей из стран, которые Вашингтон сочтёт недружественными. Об этом в интервью рассказал эксперт по информационной безопасности Андрей Коршунов.
По его словам, корень проблемы — в размытых формулировках пользовательского соглашения OpenAI. Пользователи до конца не понимают, куда попадают их данные, как они хранятся и кто может получить к ним доступ. «Мы и так не до конца понимаем, что происходит с нашими данными, когда они попадают в нейросеть», — отметил Коршунов.
Соглашение допускает, что сотрудники компании могут просматривать диалоги для улучшения алгоритмов, расследования нарушений или тестирования. Хотя данные обычно анонимизируют, полной конфиденциальности это не гарантирует. Сервис собирает не только текст, файлы и голосовые сообщения, но и техническую информацию: IP-адрес, тип устройства и примерное местоположение.
Вся эта информация, как пояснил эксперт, может использоваться для обучения новых моделей, проверки качества работы и анализа ошибок. Данные также передаются подрядчикам, облачным сервисам и партнёрам. Но ключевой риск — пункт о предоставлении информации государственным органам по законному запросу. Теперь, когда OpenAI сотрудничает с Пентагоном, этот пункт получает новое, тревожное звучание.
Иными словами, данные, которые вы вводите в диалог с нейросетью, теоретически могут быть использованы против вас или вашей компании, если вы попадёте в категорию «недружественных» для США. Это ставит под вопрос безопасность использования популярного чат-бота для бизнеса и личного общения миллионами людей по всему миру.