用户名/邮箱
登录密码
验证码
看不清?换一张
您好,欢迎访问! [ 登录 | 注册 ]
您的位置:首页 - 最新资讯
Академик РАН предупредил об уязвимости ИИ из-за "отравления" данных в процессе обучения
2023-11-24 00:00:00.0     НАУКА(科学)     原网页

       

       МОСКВА, 23 ноября. /ТАСС/. Искусственный интеллект (ИИ) может оказаться уязвимым из-за случайных или преднамеренных ошибок в данных, на которых он обучается. Эта угроза требует разработки новой научно-технологической базы, считает директор Института системного программирования им. В.П. Иванникова РАН Арутюн Аветисян.

       "Природа ИИ такова, что уязвимости в модель, которую мы эксплуатируем, попадают через данные. Данные могут быть "отравлены", есть такой термин. Они могут попасть через предобученные модели, фреймворки, и, наконец, сама модель может быть дообучена или изменена с целью, чтобы она была уязвима", - сказал Аветисян на международной конференции по искусственному интеллекту AI Journey.

       Он пояснил, что такая уязвимость может выражаться, например, в том, что ИИ не будет замечать часть анализируемого трафика.

       По словам Аветисяна, "отравление" может быть непреднамеренным, вызванным некомпетентностью, но этой уязвимостью могут воспользоваться злоумышленники.

       "В отношении данных, готовых моделей нам необходимо разрабатывать новую научно-технологическую базу для того, чтобы мы были уверены, что эти технологии - доверенные", - добавил ученый.

       Академик также напомнил, что в 2021 году в России был принят Кодекс этики в сфере ИИ, который в том числе направлен на обеспечение безопасности решений на основе искусственного интеллекта.

       


标签:综合
关键词: может быть     модель     через     научно     могут     Аветисян    
滚动新闻