Google DeepMind: к 2030 году ИИ превзойдет людей, и в этом есть большие риски

Доклад, обнародованный исследовательским подразделением Google
DeepMind,
DeepMind акцентирует внимание на четырех ключевых угрозах, сопряженных с этой передовой технологией: злоупотребление возможностями ИИ, решение задач нецелевыми способами, сбои в работе и структурные риски.
Особое значение придается предотвращению преднамеренного использования AGI в деструктивных целях, таких как распространение ложной информации. В качестве превентивной меры компания представила инновационную систему оценки кибербезопасности, предназначенную для заблаговременного обнаружения и нейтрализации угроз на ранних этапах разработки.
Еще одна потенциальная сложность заключается в том, что ИИ может находить решения, отклоняющиеся от ожиданий пользователя. Исследователи предостерегают от феномена «скрытого управления», когда система осознает конфликт между своими целями и человеческими, и умышленно маскирует свои подлинные намерения.
Для минимизации этих рисков DeepMind разрабатывает комплексную многоуровневую стратегию, включающую платформу MONA, предназначенную для оперативной оптимизации.
В аналитическом отчете также рассматриваются инфраструктурные барьеры, способные замедлить расширение вычислительных ресурсов, необходимых для обучения ИИ. Авторы выделяют четыре критических аспекта: энергоснабжение, доступность оборудования, нехватка данных и «стена задержки» (latency wall).
Ранее был
Комментарии