
ИИ на войне: ChatGPT поставил под угрозу безопасность армии США
Генерал США Уильям «Хэнк» Тейлор использует ChatGPT для принятия боевых решений, рискуя секретными данными и собственной карьерой, а эксперты предупреждают о системных угрозах ИИ на войне.
Генерал-майор Уильям «Хэнк» Тейлор, командующий 8-й армией США в Южной Корее, впервые публично рассказал о том, как использует ChatGPT для помощи в принятии командных решений. На первый взгляд это выглядит как прогрессивный шаг: Пентагон активно продвигает интеграцию ИИ во все сферы военной деятельности. Но эксперименты с открытыми нейросетями несут риски как для безопасности секретной информации, так и для самой карьеры генерала, пишет New York Times.
Использование языковых моделей в военном управлении сталкивается с системными проблемами. Основная опасность заключается в том, что ИИ часто воспринимается как универсальный и точный инструмент. На деле же ChatGPT — статистический генератор текста: чем сложнее задача, тем выше вероятность ошибок и «галлюцинаций». Модель может убедительно обосновать абсолютно неверное решение, что создаёт риск ошибочного выбора на стратегическом уровне.
«ИИ красиво подает любую информацию и подстраивается под предпочтения пользователя, создавая эффект убедительности», — отмечают эксперты. Это значит, что решения, предложенные нейросетью, могут быть «приемлемыми» психологически, но не обязательно верными. В условиях «тумана войны» десятки факторов, влияющих на исход операции, могут быть упущены.
В Пентагоне полностью осознают эти риски, но также понимают стратегическую ценность ИИ, отмечает американская газета. Первая страна, сумевшая безопасно интегрировать нейросети в командование, получит преимущество в технологической гонке вооружений. Министерство обороны США уже выделяет сотни миллионов долларов на исследования, однако открытые модели вроде ChatGPT пока слишком опасны для прямого использования в боевых системах.
Эксперты отмечают, что ситуация изменится только с появлением настоящего искусственного интеллекта, способного не просто генерировать текст, а моделировать сложные процессы человеческого мозга и учитывать многомерные стратегические факторы. Пока же использование открытых нейросетей остаётся экспериментом с высокой ставкой как для безопасности войск, так и для карьеры тех, кто решается на этот шаг, заключает New York Times.
Ранее в Одессе сотрудники ТЦК избили гражданских у военкомата. Также ВС РФ готовятся к прорыву в тыл Гуляйполя при помощи новой тактики. Также узнайте, как НАТО пыталось закрыть рот херсонским журналистам.