Такой статус фактически лишает Anthropic возможности дальше работать с военным ведомством. Он присваивается компаниям, которые считаются угрозой национальной безопасности, например, из-за их связи с зарубежными государствами. На американскую компанию такой ярлык никогда прежде не вешали.
Ранее Пентагон и калифорнийская IT-компания вели переговоры о создании на основе ИИ Claude системы, которая могла бы обрабатывать секретные данные. Более того, СМИ сообщают, что военные уже используют эту нейросеть, в том числе для ударов по Ирану.
Накануне эскалации на Ближнем Востоке между Пентагоном и Anthropic возник конфликт: в компании заявили, что не дадут использовать их ИИ для слежки за американскими гражданами и для использования в автономном летальном оружии. Военные на это ответили, что подрядчика не должно волновать, как они будут применять его разработку. После этого глава министерства войны США Пит Хегсет назвал слишком совестливую фирму "неблагонадежной". Калифорнийский разработчик посчитал это решение идеологически мотивированным наказанием за попытку обозначить границы для Пентагона. Anthropic уже потеряла часть госконтрактов, но под вопросом и заказы от частных фирм. Отраслевой совет по информационным технологиям США, в который входят в том числе Nvidia, Google, Microsoft, Apple и Amazon, написал министру войны Хегсету письмо с требованием разъяснений. Высокотехнологичный бизнес всерьез обеспокоен рисками, связанными с системами искусственного интеллекта и необходимостью их контроля.