МОСКВА, 29 дек – . Развитие искусственного интеллекта может стать угрозой для ядерной безопасности: созданные ИИ дипфейки могут спровоцировать лидеров ядерных держав на удар, также есть риск ошибки, если ИИ наделят правом принимать решение об использовании ядерного оружия,
сообщает журнал Foreign Affairs.
В декабре главный экономист Азиатско-Тихоокеанского регионального бюро Программы развития
ООН (UNDP) Филип Шеллекенс заявил, что применение искусственного интеллекта в военных целях может стать экзистенциальной угрозой и привести к массовым жертвам, отметив, что необходимо крайне ответственно подходить к его регулированию.
"Быстрое распространение искусственного интеллекта усугубило угрозы для ядерной стабильности", - говорится в статье.
Отмечается, что один из рисков связан с возможной передачей машинам полномочий принимать решения об использовании ядерного оружия.
Как сообщает издание, ИИ позволяет проще создавать дипфейки - убедительно подделанные видео, изображения или аудиозаписи, с помощью которых распространяется ложная информация о людях или событиях, что также представляет скрытую угрозу для ядерной безопасности.
Как предполагает издание, дипфейки могут использоваться, например, чтобы спровоцировать лидера ядерной державы нанести удар первым. А также дипфейки могут применяться в создании повода для войны, поднимать общественную поддержку конфликта или сеять смуту.
МОСКВА, 29 дек – . Развитие искусственного интеллекта может стать угрозой для ядерной безопасности: созданные ИИ дипфейки могут спровоцировать лидеров ядерных держав на удар, также есть риск ошибки, если ИИ наделят правом принимать решение об использован…