Технологические гиганты со всего мира утвердили соглашение по обеспечению безопасности ИИ. На основе него компании из таких стран, как США, Китай, Канада, Великобритания, Франция, Южная Корея и ОАЭ, возьмут на себя добровольные обязательства по обеспечению безопасной разработки своих передовых моделей искусственного интеллекта.
На Сеульском саммите крупные технологические гиганты, такие как Microsoft, Amazon и OpenAI, утвердили международное соглашение по безопасности искусственного интеллекта. Компании из США, Китая, Канады, Великобритании, Франции, Южной Кореи и Объединенных Арабских Эмиратов возьмут на себя добровольные обязательства по безопасной разработке передовых ИИ-моделей.
В рамках соглашения производители моделей ИИ обязуются опубликовать «рамки безопасности». В них будет подробно описано, как компании будут оценивать риски, связанные с их технологиями, например, проводить анализ риска неправильного использования злоумышленниками.
Эти «рамки безопасности» будут определять недопустимые виды рисков, такие как автоматизированные кибератаки и угрозы, связанные с биологическим оружием. В случае возникновения экстремальных ситуаций компании внедрят «аварийный выключатель», который приведет к остановке разработки модели ИИ.
Соглашение расширяет предыдущие обязательства, взятые технологическими гигантами на саммите по безопасности ИИ в Великобритании, которые касались разработки программного обеспечения для генеративного ИИ.
Компании также согласились участвовать в определении пороговых значений для технологий ИИ совместно с лидерами рынка и правительствами стран. Показатели будут обнародованы перед следующим AI Action Summit, который пройдет во Франции в 2025 году.