Web Analytics
Forklog
2026-02-16 09:44:14

СМИ узнали об использовании ИИ-инструмента Claude в военной операции по захвату Мадуро

Армия США задействовала Claude от Anthropic в операции по захвату президента Венесуэлы Николаса Мадуро. Об этом пишет WSJ со ссылкой на источники. Миссия включала бомбардировку нескольких объектов в Каракасе.  Использование модели в подобных целях противоречит публичной политике Anthropic. Правила компании прямо запрещают применять ИИ для насилия, разработки вооружений или организации слежки. «Мы не можем комментировать, использовался ли Claude или какая-либо другая модель в конкретной операции — секретной или иной. Любое применение LLM — как в частном секторе, так и в госструктурах — должно соответствовать нашей политике, регулирующей способы развертывания нейросети. Мы тесно сотрудничаем с партнерами, чтобы обеспечить соблюдение правил», — заявил представитель Anthropic. Внедрение Claude в структуры Минобороны стало возможным благодаря партнерству Anthropic с Palantir Technologies. Программное обеспечение последней широко используется военными и федеральными правоохранительными органами. После рейда сотрудник Anthropic поинтересовался у коллеги из Palantir, какую именно роль нейросеть сыграла в операции по захвату Мадуро, пишет WSJ. Представитель стартапа заявил, что компания не обсуждала применение своих моделей в конкретных миссиях «ни с какими партнерами, включая Palantir», ограничиваясь лишь техническими вопросами. «Anthropic привержена использованию передового ИИ в поддержку национальной безопасности США», — добавил представитель фирмы. Anthropic против Пентагона? Представитель Пентагона Шон Парнелл заявил о пересмотре отношений с ИИ-лабораторией. «Нашей стране нужны партнеры, готовые помогать бойцам побеждать в любой войне», — сказал он. В июле 2025 года Министерство обороны США заключило контракты на сумму до $200 млн с Anthropic, Google, OpenAI и xAI на разработку ИИ-решений в сфере безопасности. Главное управление цифровых и ИИ-технологий ведомства планировало использовать их разработки для создания агентных систем безопасности. Однако уже в январе 2026 года WSJ сообщила о риске разрыва соглашения с Anthropic. Разногласия возникли из-за жесткой этической политики стартапа. Правила запрещают использовать модель Claude для массовой слежки и автономных летальных операций, что ограничивает ее применение спецслужбами вроде ICE и ФБР. Недовольство чиновников усилилось на фоне интеграции чат-бота Grok в сеть Пентагона. Министр обороны Пит Хегсет, комментируя партнерство с xAI, подчеркнул, что ведомство «не будет использовать модели, которые не позволяют вести войны». Давление на разработчиков Axios со ссылкой на источники написали, что Пентагон давит на четыре крупные ИИ-компании, чтобы те разрешили армии США использовать технологии для «всех законных целей». Речь идет в том числе о разработке оружия, сборе разведданных и боевых операциях. Anthropic отказывается снять ограничения на слежку за гражданами США и создание полностью автономного вооружения. Переговоры зашли в тупик, однако быстро заменить Claude сложно из-за технологического превосходства модели в специфических государственных задачах. Помимо чат-бота Anthropic Пентагон использует ChatGPT от OpenAI, Gemini от Google и Grok от xAI в несекретных задачах. Все три согласились ослабить ограничения, действующие для обычных пользователей. Сейчас обсуждается перенос LLM в секретный контур и их применение «для всех законных целей». Одна из трех компаний уже согласилась это сделать, другие две «проявляют большую гибкость» по сравнению с Anthropic. Милитаризация ИИ США — не единственная страна, активно внедряющая искусственный интеллект в оборонный сектор. Китай В июне 2024 года в КНР создали представили ИИ-командующего для масштабных военных симуляций с участием всех видов войск НОАК. Виртуальный стратег наделен широкими полномочиями, быстро обучается и совершенствует тактику в ходе цифровых учений. В ноябре СМИ сообщили, что китайские исследователи адаптировали модель Llama 13B от Meta для создания инструмента ChatBIT. Нейросеть оптимизировали для сбора и анализа разведывательных данных, а также поддержки принятия оперативных решений. Индия Нью-Дели также сделал ставку на ИИ как драйвер национальной безопасности. Правительство выработало стратегии и программы на национальном уровне, создало специальные институты и органы для внедрения ИИ, а также запустило проекты по применению технологии в различных отраслях. Великобритания Лондон закрепил за искусственным интеллектом статус приоритетного направления. В «Стратегии ИИ для обороны» (2022) ведомство рассматривает ИИ как ключевой компонент будущих вооруженных сил. В «Стратегическом оборонном обзоре» (2025) технология названа фундаментальным элементом современной войны. Если раньше искусственный интеллект в военном контексте воспринимался как вспомогательный инструмент, то теперь британские Вооруженные силы планируют трансформацию в «технологически интегрированные силы», где ИИ-системы должны применяться на всех уровнях — от штабной аналитики до поля боя. Напомним, в марте 2025 года Пентагон анонсировал использование ИИ-агентов для моделирования столкновений с иностранными противниками. https://forklog.com/exclusive/ai/general-algoritm

Ricevi la newsletter di Crypto
Leggi la dichiarazione di non responsabilità : Tutti i contenuti forniti nel nostro sito Web, i siti con collegamento ipertestuale, le applicazioni associate, i forum, i blog, gli account dei social media e altre piattaforme ("Sito") sono solo per le vostre informazioni generali, procurati da fonti di terze parti. Non rilasciamo alcuna garanzia di alcun tipo in relazione al nostro contenuto, incluso ma non limitato a accuratezza e aggiornamento. Nessuna parte del contenuto che forniamo costituisce consulenza finanziaria, consulenza legale o qualsiasi altra forma di consulenza intesa per la vostra specifica dipendenza per qualsiasi scopo. Qualsiasi uso o affidamento sui nostri contenuti è esclusivamente a proprio rischio e discrezione. Devi condurre la tua ricerca, rivedere, analizzare e verificare i nostri contenuti prima di fare affidamento su di essi. Il trading è un'attività altamente rischiosa che può portare a perdite importanti, pertanto si prega di consultare il proprio consulente finanziario prima di prendere qualsiasi decisione. Nessun contenuto sul nostro sito è pensato per essere una sollecitazione o un'offerta