
Пентагон официально признал компанию Anthropic риском для своих цепочек поставок после срыва сделки на $200 млн. Причиной стал конфликт: военные хотели больше контроля над ИИ-моделями, включая их потенциальное использование в автономных вооружениях и массовой слежке внутри страны, что противоречило этическим принципам Anthropic. Контракт перешел к OpenAI, после чего отказы от ChatGPT резко выросли. Эта история — предостережение для ИИ-стартапов: сотрудничество с госструктурами может потребовать опасных компромиссов.
#Anthropic #ЭтикаИИ #Госзаказы
Комментарии
0Комментариев пока нет.
Войдите, чтобы участвовать в обсуждении.