Web Analytics
Forklog
2026-02-16 09:44:14

СМИ узнали об использовании ИИ-инструмента Claude в военной операции по захвату Мадуро

Армия США задействовала Claude от Anthropic в операции по захвату президента Венесуэлы Николаса Мадуро. Об этом пишет WSJ со ссылкой на источники. Миссия включала бомбардировку нескольких объектов в Каракасе.  Использование модели в подобных целях противоречит публичной политике Anthropic. Правила компании прямо запрещают применять ИИ для насилия, разработки вооружений или организации слежки. «Мы не можем комментировать, использовался ли Claude или какая-либо другая модель в конкретной операции — секретной или иной. Любое применение LLM — как в частном секторе, так и в госструктурах — должно соответствовать нашей политике, регулирующей способы развертывания нейросети. Мы тесно сотрудничаем с партнерами, чтобы обеспечить соблюдение правил», — заявил представитель Anthropic. Внедрение Claude в структуры Минобороны стало возможным благодаря партнерству Anthropic с Palantir Technologies. Программное обеспечение последней широко используется военными и федеральными правоохранительными органами. После рейда сотрудник Anthropic поинтересовался у коллеги из Palantir, какую именно роль нейросеть сыграла в операции по захвату Мадуро, пишет WSJ. Представитель стартапа заявил, что компания не обсуждала применение своих моделей в конкретных миссиях «ни с какими партнерами, включая Palantir», ограничиваясь лишь техническими вопросами. «Anthropic привержена использованию передового ИИ в поддержку национальной безопасности США», — добавил представитель фирмы. Anthropic против Пентагона? Представитель Пентагона Шон Парнелл заявил о пересмотре отношений с ИИ-лабораторией. «Нашей стране нужны партнеры, готовые помогать бойцам побеждать в любой войне», — сказал он. В июле 2025 года Министерство обороны США заключило контракты на сумму до $200 млн с Anthropic, Google, OpenAI и xAI на разработку ИИ-решений в сфере безопасности. Главное управление цифровых и ИИ-технологий ведомства планировало использовать их разработки для создания агентных систем безопасности. Однако уже в январе 2026 года WSJ сообщила о риске разрыва соглашения с Anthropic. Разногласия возникли из-за жесткой этической политики стартапа. Правила запрещают использовать модель Claude для массовой слежки и автономных летальных операций, что ограничивает ее применение спецслужбами вроде ICE и ФБР. Недовольство чиновников усилилось на фоне интеграции чат-бота Grok в сеть Пентагона. Министр обороны Пит Хегсет, комментируя партнерство с xAI, подчеркнул, что ведомство «не будет использовать модели, которые не позволяют вести войны». Давление на разработчиков Axios со ссылкой на источники написали, что Пентагон давит на четыре крупные ИИ-компании, чтобы те разрешили армии США использовать технологии для «всех законных целей». Речь идет в том числе о разработке оружия, сборе разведданных и боевых операциях. Anthropic отказывается снять ограничения на слежку за гражданами США и создание полностью автономного вооружения. Переговоры зашли в тупик, однако быстро заменить Claude сложно из-за технологического превосходства модели в специфических государственных задачах. Помимо чат-бота Anthropic Пентагон использует ChatGPT от OpenAI, Gemini от Google и Grok от xAI в несекретных задачах. Все три согласились ослабить ограничения, действующие для обычных пользователей. Сейчас обсуждается перенос LLM в секретный контур и их применение «для всех законных целей». Одна из трех компаний уже согласилась это сделать, другие две «проявляют большую гибкость» по сравнению с Anthropic. Милитаризация ИИ США — не единственная страна, активно внедряющая искусственный интеллект в оборонный сектор. Китай В июне 2024 года в КНР создали представили ИИ-командующего для масштабных военных симуляций с участием всех видов войск НОАК. Виртуальный стратег наделен широкими полномочиями, быстро обучается и совершенствует тактику в ходе цифровых учений. В ноябре СМИ сообщили, что китайские исследователи адаптировали модель Llama 13B от Meta для создания инструмента ChatBIT. Нейросеть оптимизировали для сбора и анализа разведывательных данных, а также поддержки принятия оперативных решений. Индия Нью-Дели также сделал ставку на ИИ как драйвер национальной безопасности. Правительство выработало стратегии и программы на национальном уровне, создало специальные институты и органы для внедрения ИИ, а также запустило проекты по применению технологии в различных отраслях. Великобритания Лондон закрепил за искусственным интеллектом статус приоритетного направления. В «Стратегии ИИ для обороны» (2022) ведомство рассматривает ИИ как ключевой компонент будущих вооруженных сил. В «Стратегическом оборонном обзоре» (2025) технология названа фундаментальным элементом современной войны. Если раньше искусственный интеллект в военном контексте воспринимался как вспомогательный инструмент, то теперь британские Вооруженные силы планируют трансформацию в «технологически интегрированные силы», где ИИ-системы должны применяться на всех уровнях — от штабной аналитики до поля боя. Напомним, в марте 2025 года Пентагон анонсировал использование ИИ-агентов для моделирования столкновений с иностранными противниками. https://forklog.com/exclusive/ai/general-algoritm

Get Crypto Newsletter
Read the Disclaimer : All content provided herein our website, hyperlinked sites, associated applications, forums, blogs, social media accounts and other platforms (“Site”) is for your general information only, procured from third party sources. We make no warranties of any kind in relation to our content, including but not limited to accuracy and updatedness. No part of the content that we provide constitutes financial advice, legal advice or any other form of advice meant for your specific reliance for any purpose. Any use or reliance on our content is solely at your own risk and discretion. You should conduct your own research, review, analyse and verify our content before relying on them. Trading is a highly risky activity that can lead to major losses, please therefore consult your financial advisor before making any decision. No content on our Site is meant to be a solicitation or offer.