МОСКВА, 1 апреля. /ТАСС/. Специалисты Московского государственного университета имени М. В. Ломоносова классифицировали виды кибератак на системы искусственного интеллекта (ИИ), выделив действия, которые могут привести к утечке конфиденциальных данных. Выводы позволят уточнить оценку таких систем в качестве элементов критической ИТ-инфраструктуры, сообщила в пятницу пресс-служба вуза.
Авторы считают, что анализ типов киберугроз и определение их последствий позволит эффективнее защищать системы машинного обучения. К примеру, так называемые состязательные атаки, которые меняют поведение системы ИИ за счет воздействия на отдельные элементы, могут дать преступникам доступ к параметрам модели, что приведет к краже закрытой информации.
"Существуют атаки, которые позволяют проверить, например, принадлежность определенных данных к тренировочному набору и, возможно, раскрыть тем самым конфиденциальную информацию", - приводит пресс-служба университета слова сотрудника кафедры информационной безопасности факультета вычислительной математики и кибернетики МГУ Евгения Ильюшина.
Исследователи также отметили существующую сложность в определении таких атак - классические инструменты защиты ПО не позволяют обнаружить этот тип угрозы.
"Состязательные атаки манипулируют поведением моделей машинного обучения. <…> Для критических применений машинного обучения остро стоит вопрос сертификации систем, моделей и наборов данных, подобно тому, как это делается для традиционных систем программного обеспечения", - поясняет пресс-служба вуза.
Результаты работы опубликованы в журнале International Journal of Open Information Technologies.