МОСКВА, 25 января. /ТАСС/. Технологии искусственного интеллекта (ИИ), развитие которых базируется на обработке больших данных, не могут обеспечить появление "сильного" ИИ, способного заменить человека. Такое мнение выразил директор Института системного программирования им. В. П. Иванникова РАН Арутюн Аветисян.
"Сильным" искусственным интеллектом эксперты называют ИИ так называемого общего уровня, который способен мыслить и действовать. Аветисян указал на существование в обществе "мнимых страхов" о появлении такого ИИ, который будет обладать субъектностью и заменит собой человека.
"Некоторые технологические [компании-] лидеры говорят, что буквально 2-3 года, максимум 10 лет и он появится. Здесь я буду консервативен. Считаю, что вряд ли он появится, потому что те технологии, которые сейчас развиваются, к этому привести случайным образом не могут. <…> "Слабый" ИИ, которым мы пользуемся, и он будет в ближайшие годы развиваться, <…> строится вокруг [обработки] данных", - сказал он, выступая с докладом в рамках одной из секций XXXII Международных Рождественских образовательных чтений, проходящих в Москве.
Уязвимость данных
Говоря о рисках, которые несет развитие "слабого" искусственного интеллекта, Аветисян указал на уязвимость самих данных, используемых такими системами для обучения.
"Не обязательно [в их искажении] может быть злой умысел, но он тоже возможен. В данные могут "подмешать" нужную информацию и ваш автомобиль вместо того, чтобы на знак "Стоп" остановиться, уедет на перекресток", - пояснил ученый.
Среди мер, которые позволят обеспечить безопасность использования ИИ, Аветисян назвал необходимость определения сфер, где он может и не может применяться, и обеспечение необходимого уровня надежности систем на основе таких технологий.