Top.Mail.Ru

Искусственный интеллект требует новых стандартов безопасности

Искусственный интеллект требует новых стандартов безопасности
Фото: Искусственный интеллект требует новых стандартов безопасности

Развитие искусственного интеллекта опережает создание систем защиты — новые технологии открывают пространства для злоумышленников быстрее, чем появляются средства противодействия. Коммерческие институты совместно с регуляторами разрабатывают специализированные фреймворки и стандарты, включая работу консорциума "Исследований безопасности технологий ИИ".

Российское регулирование безопасности ИИ базируется на нескольких ключевых документах. Указ о развитии искусственного интеллекта определяет доверенные технологии ИИ как системы, "отвечающие стандартам безопасности, исключающие возможность причинения вреда человеку и нарушения его основополагающих прав". Документ устанавливает цели развития ИИ — обеспечение национальной безопасности и достижение лидирующих позиций в мире.

ПНСТ 836-2023 "Функциональная безопасность и системы искусственного интеллекта" вводит принципиально новые подходы к оценке рисков. Стандарт определяет безопасность как "отсутствие неприемлемого риска", а риск — как "сочетание вероятности события причинения вреда и тяжести этого вреда". Документ описывает трехступенчатый принцип реализации систем ИИ: сбор данных, машинное обучение и обработка выходных данных.

Стандарт разделяет элементы технологий ИИ на уровни использования. Для элементов высокого уровня — графов приложений и ML-моделей — применяются специфические характеристики безопасности, отличающиеся от традиционных систем. Элементы низкого уровня подчиняются существующим стандартам функциональной безопасности.

ГОСТ Р 59898-2021 определяет субхарактеристики защищенности систем ИИ, которые кардинально отличаются от стандартных свойств информационной безопасности — конфиденциальности, целостности и доступности. Это подчеркивает специфичность безопасности в контексте использования нейросетей и машинного обучения.

Документы охватывают весь жизненный цикл систем ИИ — от проектирования до эксплуатации, но остаются на уровне общих требований. Специализированного стандарта, посвященного исключительно безопасности ИИ, в России пока не существует.

В перспективе ожидается появление детализированных стандартов с практическими методиками, измеримыми метриками и учетом специфики различных типов систем искусственного интеллекта. Развитие регулирования должно поспевать за стремительным прогрессом технологий.

CTA Image
Новости технологий в Telegram
Подписаться