Web Analytics
Forklog
2026-02-16 09:44:14

СМИ узнали об использовании ИИ-инструмента Claude в военной операции по захвату Мадуро

Армия США задействовала Claude от Anthropic в операции по захвату президента Венесуэлы Николаса Мадуро. Об этом пишет WSJ со ссылкой на источники. Миссия включала бомбардировку нескольких объектов в Каракасе.  Использование модели в подобных целях противоречит публичной политике Anthropic. Правила компании прямо запрещают применять ИИ для насилия, разработки вооружений или организации слежки. «Мы не можем комментировать, использовался ли Claude или какая-либо другая модель в конкретной операции — секретной или иной. Любое применение LLM — как в частном секторе, так и в госструктурах — должно соответствовать нашей политике, регулирующей способы развертывания нейросети. Мы тесно сотрудничаем с партнерами, чтобы обеспечить соблюдение правил», — заявил представитель Anthropic. Внедрение Claude в структуры Минобороны стало возможным благодаря партнерству Anthropic с Palantir Technologies. Программное обеспечение последней широко используется военными и федеральными правоохранительными органами. После рейда сотрудник Anthropic поинтересовался у коллеги из Palantir, какую именно роль нейросеть сыграла в операции по захвату Мадуро, пишет WSJ. Представитель стартапа заявил, что компания не обсуждала применение своих моделей в конкретных миссиях «ни с какими партнерами, включая Palantir», ограничиваясь лишь техническими вопросами. «Anthropic привержена использованию передового ИИ в поддержку национальной безопасности США», — добавил представитель фирмы. Anthropic против Пентагона? Представитель Пентагона Шон Парнелл заявил о пересмотре отношений с ИИ-лабораторией. «Нашей стране нужны партнеры, готовые помогать бойцам побеждать в любой войне», — сказал он. В июле 2025 года Министерство обороны США заключило контракты на сумму до $200 млн с Anthropic, Google, OpenAI и xAI на разработку ИИ-решений в сфере безопасности. Главное управление цифровых и ИИ-технологий ведомства планировало использовать их разработки для создания агентных систем безопасности. Однако уже в январе 2026 года WSJ сообщила о риске разрыва соглашения с Anthropic. Разногласия возникли из-за жесткой этической политики стартапа. Правила запрещают использовать модель Claude для массовой слежки и автономных летальных операций, что ограничивает ее применение спецслужбами вроде ICE и ФБР. Недовольство чиновников усилилось на фоне интеграции чат-бота Grok в сеть Пентагона. Министр обороны Пит Хегсет, комментируя партнерство с xAI, подчеркнул, что ведомство «не будет использовать модели, которые не позволяют вести войны». Давление на разработчиков Axios со ссылкой на источники написали, что Пентагон давит на четыре крупные ИИ-компании, чтобы те разрешили армии США использовать технологии для «всех законных целей». Речь идет в том числе о разработке оружия, сборе разведданных и боевых операциях. Anthropic отказывается снять ограничения на слежку за гражданами США и создание полностью автономного вооружения. Переговоры зашли в тупик, однако быстро заменить Claude сложно из-за технологического превосходства модели в специфических государственных задачах. Помимо чат-бота Anthropic Пентагон использует ChatGPT от OpenAI, Gemini от Google и Grok от xAI в несекретных задачах. Все три согласились ослабить ограничения, действующие для обычных пользователей. Сейчас обсуждается перенос LLM в секретный контур и их применение «для всех законных целей». Одна из трех компаний уже согласилась это сделать, другие две «проявляют большую гибкость» по сравнению с Anthropic. Милитаризация ИИ США — не единственная страна, активно внедряющая искусственный интеллект в оборонный сектор. Китай В июне 2024 года в КНР создали представили ИИ-командующего для масштабных военных симуляций с участием всех видов войск НОАК. Виртуальный стратег наделен широкими полномочиями, быстро обучается и совершенствует тактику в ходе цифровых учений. В ноябре СМИ сообщили, что китайские исследователи адаптировали модель Llama 13B от Meta для создания инструмента ChatBIT. Нейросеть оптимизировали для сбора и анализа разведывательных данных, а также поддержки принятия оперативных решений. Индия Нью-Дели также сделал ставку на ИИ как драйвер национальной безопасности. Правительство выработало стратегии и программы на национальном уровне, создало специальные институты и органы для внедрения ИИ, а также запустило проекты по применению технологии в различных отраслях. Великобритания Лондон закрепил за искусственным интеллектом статус приоритетного направления. В «Стратегии ИИ для обороны» (2022) ведомство рассматривает ИИ как ключевой компонент будущих вооруженных сил. В «Стратегическом оборонном обзоре» (2025) технология названа фундаментальным элементом современной войны. Если раньше искусственный интеллект в военном контексте воспринимался как вспомогательный инструмент, то теперь британские Вооруженные силы планируют трансформацию в «технологически интегрированные силы», где ИИ-системы должны применяться на всех уровнях — от штабной аналитики до поля боя. Напомним, в марте 2025 года Пентагон анонсировал использование ИИ-агентов для моделирования столкновений с иностранными противниками. https://forklog.com/exclusive/ai/general-algoritm

Holen Sie sich Crypto Newsletter
Lesen Sie den Haftungsausschluss : Alle hierin bereitgestellten Inhalte unserer Website, Hyperlinks, zugehörige Anwendungen, Foren, Blogs, Social-Media-Konten und andere Plattformen („Website“) dienen ausschließlich Ihrer allgemeinen Information und werden aus Quellen Dritter bezogen. Wir geben keinerlei Garantien in Bezug auf unseren Inhalt, einschließlich, aber nicht beschränkt auf Genauigkeit und Aktualität. Kein Teil der Inhalte, die wir zur Verfügung stellen, stellt Finanzberatung, Rechtsberatung oder eine andere Form der Beratung dar, die für Ihr spezifisches Vertrauen zu irgendeinem Zweck bestimmt ist. Die Verwendung oder das Vertrauen in unsere Inhalte erfolgt ausschließlich auf eigenes Risiko und Ermessen. Sie sollten Ihre eigenen Untersuchungen durchführen, unsere Inhalte prüfen, analysieren und überprüfen, bevor Sie sich darauf verlassen. Der Handel ist eine sehr riskante Aktivität, die zu erheblichen Verlusten führen kann. Konsultieren Sie daher Ihren Finanzberater, bevor Sie eine Entscheidung treffen. Kein Inhalt unserer Website ist als Aufforderung oder Angebot zu verstehen