3 марта, по данным CNBC, генеральный директор OpenAI Сэм Олтман признал, что предыдущее соглашение компании о сотрудничестве в области искусственного интеллекта с Министерством обороны США было слишком поспешным, и заявил, что соответствующие условия будут скорректированы. Это заявление звучит на фоне продолжающегося формирования общественного мнения после того, как OpenAI объявила о сотрудничестве с Пентагоном, что вызвало широкие обсуждения этики ИИ, военного использования и безопасности данных.
Согласно публичной информации, соглашение было объявлено в прошлую пятницу, одновременно с тем, как правительство США продвигает ряд решений, связанных с национальной безопасностью. После того как новость стала известна, некоторые технологические сообщества и пользователи выразили обеспокоенность по поводу возможного использования технологий искусственного интеллекта в военных целях. Позже Сэм Олтман опубликовал в социальных сетях, что компания добавит новые ограничения в соглашение, включая чёткое указание, что системы ИИ не могут использоваться для внутреннего наблюдения за гражданами или жителями США.
Сэм Олтман также сообщил, что Министерство обороны США подтвердило, что инструменты искусственного интеллекта OpenAI не будут непосредственно использоваться разведывательным агентствами, такими как Национальное агентство безопасности (NSA), для миссий по слежке за разведкой. В то же время OpenAI планирует сотрудничать с Пентагоном для разработки дополнительных технических мер предосторожности для снижения риска злоупотребления ИИ в чувствительных ситуациях.
Генеральный директор также признал, что компания допустила ошибку в суждении, продвигая соглашение. Он отметил, что тогда команда хотела быстро снизить напряжённость и избежать более серьёзных политических конфликтов, но, оглядываясь назад, решение казалось слишком поспешным и легко могло быть воспринято как спекуляции.
Спор также касается Anthropic, другой компании, занимающейся искусственным интеллектом. Ранее Anthropic не соглашалась с правительством США по поводу границ использования своей модели ИИ Claude и требовала чётких гарантий, что её системы не будут использоваться для внутреннего наблюдения или автономного оружия. Переговоры между двумя сторонами, по сообщениям, провалились.
В то же время в сети наблюдаются заметные колебания настроений пользователей. Некоторые пользователи сократили использование ChatGPT на платформах приложений и перешли к конкурирующим продуктам, таким как Claude, что ещё больше усугубляет этические споры в индустрии ИИ.
В своём ответе Сэм Олтман также отметил, что не считает Anthropic риском для цепочки поставок и надеется, что Министерство обороны США предоставит ему аналогичные условия сотрудничества, как и OpenAI. Этот инцидент вновь подчеркнул, что в условиях стремительного развития технологий искусственного интеллекта вопрос границы между ИИ и национальной безопасностью, военными приложениями и социальным регулированием становится в центре внимания мировой технологической индустрии.