Web Analytics
Forklog
2026-03-09 09:23:50

Руководитель робототехники OpenAI уволилась из-за сделки с Пентагоном

В ответ на спорное соглашение OpenAI с Министерством обороны США Кейтлин Калиновски ушла с поста руководителя отдела аппаратного обеспечения компании. «Это было нелегкое решение. Искусственный интеллект играет важную роль в обеспечении национальной безопасности. Но слежка за американцами без судебного разрешения и смертоносная автономия без одобрения человека — это вопросы, которые заслуживают более детального внимания, чем им сейчас уделяется», — написала она. Калиновски работала в Apple над аппаратной частью компьютеров Mac, затем перешла в Meta, став одним из ключевых инженеров в подразделении Reality Labs. В 2024 году она присоединилась к OpenAI в качестве руководителя направления робототехники и потребительского аппаратного обеспечения. В своем заявлении она подчеркнула, что решение было «о принципе, а не о людях», а также выразила «глубокое уважение» к CEO OpenAI Сэму Альтману и команде стартапа. «По моему мнению, объявление было сделано поспешно, без определения ограничений. Это в первую очередь вопросы управления. Они слишком важны, чтобы спешить с заключением сделок», — добавила Калиновски. Представитель OpenAI подчеркнул, что соглашение с Пентагоном «создает рабочий путь для ответственного использования ИИ в целях национальной безопасности, одновременно четко обозначив красные линии: никакой внутренней слежки и автономного оружия». «Мы понимаем, что у людей есть твердые убеждения по этим вопросам, и мы будем продолжать обсуждать их с сотрудниками, правительством и обществом по всему миру», — добавил он. Соглашение между OpenAI с Пентагоном заключено в конце февраля, вскоре после того, как переговоры между Anthropic и Минобороны зашли в тупик. Вскоре Альтман признал, что сделка вышла «поспешной» и с точки зрения имиджа стартапа «выглядит не очень хорошо». Ситуация отразилась на популярности ChatGPT и Claude. Количество удалений первого чат-бота выросло на 295%, а второй поднялся на вершину рейтинга App Store. Скачивания мобильных приложений Claude и ChatGPT в США. Источник: Appfigures. Борьба властей с Anthropic В июле 2025 года Министерство обороны США заключило контракты на сумму до $200 млн с Anthropic, Google, OpenAI и xAI на разработку ИИ-решений в сфере безопасности. В январе 2026 года WSJ сообщила о риске разрыва соглашения с Anthropic. Разногласия возникли из-за жесткой этической политики стартапа. Правила запрещают использовать модель Claude для массовой слежки и автономных летальных операций. В феврале 2026 года армия США задействовала Claude в операции по захвату президента Венесуэлы Николаса Мадуро, после чего конфликт обострился. CEO компании Дарио Амодеи встретился с министром обороны Питом Хегсетом для обсуждения ситуации. Ведомство выдвинуло ультиматум: Anthropic обязана принять правительственные условия до 27 февраля. Амодеи заявил, что он предпочтет не сотрудничать с Пентагоном, чем согласиться на использование своих технологий, которое может «подорвать, а не защитить демократические ценности». В конце февраля президент США Дональд Трамп поручил всем федеральным ведомствам в течение шести месяцев полностью отказаться от использования технологий Anthropic. Он назвал стартап «вышедшей из-под контроля» компанией под управлением людей, которые «не имеют понятия, что такое реальный мир». Пентагон официально признал Anthropic «риском для цепочки поставок» — это ставит под удар бизнес фирмы с другими подрядчиками правительства. Microsoft и Google заявили, что продолжат предоставлять продукты компании. https://forklog.com/exclusive/ai/general-algoritm Дойдет до суда Амодеи заявил, что его компания оспорит в суде решение Министерства обороны о признании фирмы риском для цепочки поставок. Оно «юридически необоснованно», считает предприниматель. В обращении говорится, что решение Пентагона не касается подавляющего большинства клиентов Claude. По словам Амодеи, компания вела продуктивные переговоры с Минобороны в течение нескольких дней, однако они сорвались после утечки внутренней служебной записки. В ней CEO охарактеризовал отношения OpenAI с ведомством как «скорее показную демонстрацию безопасности, чем реальную защиту от рисков». Амодеи извинился за утечку, заявив, что компания ненамеренно разгласила содержание меморандума и не давала указаний кому-либо это делать. «Нам невыгодно усугублять ситуацию», — написал он. Глава стартапа подчеркнул, что документ был написан в течение нескольких часов после серии объявлений о том, что Anthropic удалят из федеральных систем. Он извинился за тон, назвав этот день «трудным для компании». Амодеи добавил, что меморандум является «устаревшей оценкой» и не отражает «внимательного и взвешенного мнения». По его словам, для фирмы главным приоритетом является обеспечение американским солдатам и экспертам по национальной безопасности доступа к важным инструментам в ходе продолжающихся крупных боевых операций. Anthropic будет продолжать обеспечивать Министерство обороны своими моделями «по номинальной стоимости» столько, сколько потребуется. Экс-советник Белого дома по искусственному интеллекту Дин Болл отметил, что компании будет тяжело оспорить решение Пентагона. «Суды довольно неохотно подвергают сомнению решения правительства о том, что является вопросом национальной безопасности, а что нет. Для этого нужно преодолеть очень высокий барьер. Но это не невозможно», — отметил эксперт. Напомним, в феврале Anthropic смягчила ключевую политику безопасности, объяснив это необходимостью сохранить конкурентоспособность.

Get Crypto Newsletter
Read the Disclaimer : All content provided herein our website, hyperlinked sites, associated applications, forums, blogs, social media accounts and other platforms (“Site”) is for your general information only, procured from third party sources. We make no warranties of any kind in relation to our content, including but not limited to accuracy and updatedness. No part of the content that we provide constitutes financial advice, legal advice or any other form of advice meant for your specific reliance for any purpose. Any use or reliance on our content is solely at your own risk and discretion. You should conduct your own research, review, analyse and verify our content before relying on them. Trading is a highly risky activity that can lead to major losses, please therefore consult your financial advisor before making any decision. No content on our Site is meant to be a solicitation or offer.