МОСКВА, 23 ноября. /ТАСС/. Искусственный интеллект (ИИ) может оказаться уязвимым из-за случайных или преднамеренных ошибок в данных, на которых он обучается. Эта угроза требует разработки новой научно-технологической базы, считает директор Института системного программирования им. В.П. Иванникова РАН Арутюн Аветисян.
"Природа ИИ такова, что уязвимости в модель, которую мы эксплуатируем, попадают через данные. Данные могут быть "отравлены", есть такой термин. Они могут попасть через предобученные модели, фреймворки, и, наконец, сама модель может быть дообучена или изменена с целью, чтобы она была уязвима", - сказал Аветисян на международной конференции по искусственному интеллекту AI Journey.
Он пояснил, что такая уязвимость может выражаться, например, в том, что ИИ не будет замечать часть анализируемого трафика.
По словам Аветисяна, "отравление" может быть непреднамеренным, вызванным некомпетентностью, но этой уязвимостью могут воспользоваться злоумышленники.
"В отношении данных, готовых моделей нам необходимо разрабатывать новую научно-технологическую базу для того, чтобы мы были уверены, что эти технологии - доверенные", - добавил ученый.
Академик также напомнил, что в 2021 году в России был принят Кодекс этики в сфере ИИ, который в том числе направлен на обеспечение безопасности решений на основе искусственного интеллекта.