Эксперты Санкт-Петербургского федерального исследовательского центра Российской академии наук (СПб ФИЦ РАН) и СПбГЭТУ «ЛЭТИ» стали лекторами масштабной просветительской программы во всех регионах России, направленной на снижение кадрового дефицита специалистов в сфере обеспечения безопасности государственных цифровых систем, использующих технологии искусственного интеллекта (ИИ). Организатором программы выступила компания «Газинформсервис» при поддержке Консорциума исследований безопасности технологий ИИ.
Сегодня технологии искусственного интеллекта стремительно проникают в различные сферы жизни и экономики всех ведущих стран мира: в промышленность, здравоохранение, финансы, транспорт, образование и многие другие области. Искусственный интеллект позволяет автоматизировать процессы, повышать эффективность работы, анализировать большие объемы данных и принимать более обоснованные решения.
Вместе с тем широкое использование технологий ИИ таит множество угроз, которые необходимо учитывать на уровне профильных государственных ведомств. Например, такие технологии зависят от корректности данных для обучения, наличия этического и правового обоснования их применения. В целом все эти проблемы упираются в фрагментарность нормативно-правового регулирования при использовании технологий ИИ.
Для решения вышеуказанных проблем с 1 марта 2026 года вступает в силу приказ Федеральной службы по техническому и экспортному контролю (ФСТЭК России) № 117, устанавливающий требования безопасности для информационных систем госорганов, использующих технологии ИИ.
В преддверии данного государственного решения стартовала масштабная просветительская программа для регионов. Ее цель — ликвидировать кадровый дефицит и помочь ведомствам заблаговременно подготовиться к выполнению нормативов. Серия экспертных вебинаров организована компанией «Газинформсервис» при поддержке Консорциума исследований безопасности технологий искусственного интеллекта, СПб ФИЦ РАН и СПбГЭТУ «ЛЭТИ». Участникам — представителям региональных органов власти — представили практические методики и чек-лист для самостоятельного анализа своих систем на соответствие грядущим требованиям ФСТЭК.
Инициатива реализуется по итогам комплексного проекта Минцифры России и Консорциума исследований безопасности технологий искусственного интеллекта, который выявил необходимость в дополнительном обучении специалистов, разрабатывающих и внедряющих доверенные ИИ-системы для госсектора.
«Несмотря на все его плюсы, ИИ следует рассматривать не только как помощника в сложных делах, но и как цель для киберугроз. Современные ИИ-системы становятся привлекательной целью для злоумышленников, а в ряде случаев после взлома могут быть использованы как активный элемент атаки, усиливая возможности хакеров. Именно поэтому крайне важно уже на текущем этапе развития ИИ параллельно разрабатывать методы и средства его защиты, а главное, формировать кадровый резерв специалистов, способных профессионально обеспечивать безопасность таких систем. Отсутствие системной подготовки и понимания рисков может привести к ситуации, когда последствия неконтролируемого использования ИИ окажутся сопоставимыми с сюжетами остросюжетной научной фантастики, но уже в реальной жизни. Наша общая задача - не допустить такого сценария и заложить основы безопасного и ответственного применения ИИ в том числе в государственном секторе, как можно быстрее», — отмечает руководитель Международного центра цифровой криминалистики СПб ФИЦ РАН Андрей Чечулин.
Проведенные лекции были посвящены практическим вопросам внедрения и безопасной эксплуатации технологий ИИ в государственных информационных системах регионального уровня. В ходе занятий эксперты объяснили, из каких компонентов состоят ИИ-системы, как устроен их жизненный цикл от сбора и подготовки данных до эксплуатации обученных моделей, и какие данные, программные компоненты и инфраструктура требуют особого внимания с точки зрения информационной безопасности.
Отдельно рассматривались типовые угрозы для ИИ, включая «отравление» обучающих данных, утечки конфиденциальной информации, атаки на модели и ИИ-ассистенты, а также риски, связанные с использованием сторонних библиотек и готовых моделей. Участникам были показаны характерные проблемы, выявленные при работе с регионами, разобраны наглядные примеры и даны практические рекомендации, чек-листы и вопросы для самопроверки, позволяющие органам власти и эксплуатирующим организациям заранее оценить уровень защищенности своих систем и подготовиться к выполнению требований регуляторов.
«Базой для оценки рисков, связанных с использованием технологий ИИ, и выработкой необходимой стратегии по их снижению является знание основных компонентов таких систем и их влияния на результат применения ИИ. Понимание природы современных методов ИИ позволяет понять, как их возможности, так и потенциальные ограничения. В СПбГЭТУ “ЛЭТИ” мы комплексно подходим к обучению технологиям на основе ИИ, студент изучают не только различные методы и алгоритмы ИИ, но и особенности управления моделями ИИ на разных этапах их жизненного цикла. Таким образом, мы формируем базу для построения безопасных и доверенных систем на основе ИИ», — добавляет заведующая кафедрой Информационных систем СПбГЭТУ «ЛЭТИ» Евгения Новикова.
Программа нацелена на повышение осведомленности о типовых угрозах для ИИ, подходах к защите данных и формализации требований, что является практическим шагом по реализации Национальной стратегии развития искусственного интеллекта на период до 2030 года, направленной на укрепление технологического суверенитета России.
Справка:
Консорциум исследований безопасности технологий ИИ был создан 21 мая 2024 года по инициативе Национального технологического центра цифровой криптографии, Академии криптографии РФ и Института системного программирования им. В. П. Иванникова РАН при поддержке и активном участии Минцифры России. Задача Консорциума — консолидация усилий ведущих экспертных центров для долгосрочного развития ИИ-технологий и внедрения принципов безопасной разработки для решения задач, поставленных в нацпроектах РФ.