用户名/邮箱
登录密码
验证码
看不清?换一张
您好,欢迎访问! [ 登录 | 注册 ]
您的位置:首页 - 最新资讯
В МГУ определили вид кибератак на системы ИИ, которые могут вызвать утечку данных
2022-04-06 00:00:00.0     НАУКА(科学)     原网页

       

       МОСКВА, 1 апреля. /ТАСС/. Специалисты Московского государственного университета имени М. В. Ломоносова классифицировали виды кибератак на системы искусственного интеллекта (ИИ), выделив действия, которые могут привести к утечке конфиденциальных данных. Выводы позволят уточнить оценку таких систем в качестве элементов критической ИТ-инфраструктуры, сообщила в пятницу пресс-служба вуза.

       Авторы считают, что анализ типов киберугроз и определение их последствий позволит эффективнее защищать системы машинного обучения. К примеру, так называемые состязательные атаки, которые меняют поведение системы ИИ за счет воздействия на отдельные элементы, могут дать преступникам доступ к параметрам модели, что приведет к краже закрытой информации.

       "Существуют атаки, которые позволяют проверить, например, принадлежность определенных данных к тренировочному набору и, возможно, раскрыть тем самым конфиденциальную информацию", - приводит пресс-служба университета слова сотрудника кафедры информационной безопасности факультета вычислительной математики и кибернетики МГУ Евгения Ильюшина.

       Исследователи также отметили существующую сложность в определении таких атак - классические инструменты защиты ПО не позволяют обнаружить этот тип угрозы.

       "Состязательные атаки манипулируют поведением моделей машинного обучения. <…> Для критических применений машинного обучения остро стоит вопрос сертификации систем, моделей и наборов данных, подобно тому, как это делается для традиционных систем программного обеспечения", - поясняет пресс-служба вуза.

       Результаты работы опубликованы в журнале International Journal of Open Information Technologies.

       


标签:综合
关键词: пресс     Состязательные атаки     служба вуза     машинного обучения     данных     системы     которые    
滚动新闻