用户名/邮箱
登录密码
验证码
看不清?换一张
您好,欢迎访问! [ 登录 | 注册 ]
您的位置:首页 - 最新资讯
Оксана Тарасенко: мировой опыт поможет России внедрить искусственный интеллект
2022-03-14 00:00:00.0     俄罗斯武器-政治与社会     原网页

        Замглавы Минэкономразвития Оксана Тарасенко / Фото: Пресс-служба Минэкономразвития РФ

       С развитием технологий искусственный интеллект (ИИ) с каждым годом все прочнее проникает в самые разные сферы жизни общества: от здравоохранения до транспорта. В России применение и внедрение искусственного интеллекта пока недостаточно хорошо отрегулировано законодательно, поэтому существуют барьеры для проникновения технологий в ежедневные процессы. Сейчас власти дорабатывают нормативно-правовые акты, чтобы со временем эти барьеры были устранены. О том, какие правовые коллизии нам придется преодолеть на пути внедрения искусственного интеллекта в жизнь россиян, что мешает развитию искусственного интеллекта в России и опыт каких стран мы считаем самым успешным, в интервью ТАСС рассказала замглавы Минэкономразвития Оксана Тарасенко.

       — Оксана Валерьевна, искусственный интеллект уже есть, а законов о нем нет, так?

       — Пока есть только Национальная стратегия развития ИИ до 2030 года, которую утвердил президент России. И недавно принятая Концепция регулирования технологий ИИ и робототехники. И сейчас мы как раз занимаемся разработкой плана-графика по нормативно-правовым актам для развития ИИ на период до 2024 года.

       В нем около 80 нормативно-правовых актов. Все они разделены по группам. К первой относятся законопроекты общего характера, связанные с персональными данными, регуляторными "песочницами", гражданской ответственностью и так далее. Ко второй — вопросы эффективного внедрения ИИ в те отрасли, где на данный момент существуют барьеры нормативного характера. В ближайшее время планируем доработать план и утвердить его уже в конце этого — начале следующего года.

       — Какие вопросы считаете важным отрегулировать в первую очередь? Чем мешает отсутствие регулирования? Разве это не дает большую свободу?

       — Нет, это не так. Например, вопрос регламентации правоотношений в сфере персональных данных. Сегодня существуют немного устаревшие нормы, которые часто не соответствуют лучшим мировым практикам. Нужно отрегулировать эту деликатную сферу так, чтобы соблюсти баланс между защитой интересов отдельных людей и развитием технологий.

       В частности, мы хотим создать механизм анонимизации данных, чтобы невозможно было определить человека, которому эти данные принадлежат, даже если их получится сопоставить.

       Вот над этим сейчас работаем.

       Еще одна сфера — развитие принятого в июле закона о так называемых регуляторных песочницах. Сейчас активно работаем над сопутствующими нормативно-правовыми актами, в которых будет детализировано регулирование отдельных сфер, в частности отраслевого законодательства в связи с внедрением технологии ИИ.

       — Что еще мешает развитию ИИ в России?

       — Существуют сложности, связанные с низкой эффективностью совмещения систем ИИ с информационными системами, есть проблемы оценки экономического эффекта от внедрения систем ИИ и риски искусственной монополизации отдельных интеллектуальных технологий. Сейчас мы разрабатываем стандарты, которые обеспечат поддержку направления "Искусственный интеллект" за счет снятия такого рода нормативно-технических барьеров.

       — В этом плане Россия идет своим путем или заимствует опыт других стран?

       — Мы, разумеется, ориентируемся в том числе на опыт наших зарубежных коллег, анализируя и прорабатывая их положительные и отрицательные результаты.

       В Китае, например, уже вовсю идут эксперименты с алгоритмами и бизнес-моделями, в которых используется ИИ. Но, как показывает опыт, национальная стратегия развития искусственного интеллекта выступает лишь катализатором общественных отношений. Само развитие ИИ, его разработка, повсеместное внедрение и использование еще впереди. Китайский План развития технологий ИИ только ссылается на необходимость разработки законов и этических норм развития этой технологии и предусматривает к 2024 году создание специальных законов для ИИ.

       В Национальной стратегии Индии 2018 года делается акцент на том, что искусственный интеллект — это "черный ящик", что ИИ должен быть контролируемым, а разработки — ответственными, и рассматривается регулирование в контексте вопросов этики и безопасности. Лишь в 2019 году в другом индийском документе стратегического планирования выделяется отдельный раздел, где отмечается необходимость корректировки законодательства в сфере данных, антимонопольного и потребительского законодательства, отдельных отраслевых правовых актов.

       — Какая модель регулирования нам ближе?

       — Наиболее близким, конечно, для нас является опыт европейских коллег.

       "Белую книгу об искусственном интеллекте", принятую Еврокомиссией в 2020 году, можно смело назвать единственным аналогом российской концепции.

       В ней прописаны правила использования искусственного интеллекта.

       В частности, говорится о том, что при внедрении ИИ в сферах с высокой степенью риска, таких как здравоохранение и транспорт, системы искусственного интеллекта должны быть прозрачны, чтобы их можно было подчинить контролю со стороны человека.

       Одновременно с Еврокомиссией очень важная работа ведется в CAHAI, в зону ответственности которого передана разработка и имплементация правовой рамки для технологий искусственного интеллекта с учетом стандартов Европейского союза. Эти исследования предусматривают необходимость выработки общепринятого определения ИИ, составление карты рисков и возможностей, связанных с ИИ, особенно в отношении его воздействия на права человека, верховенство права и демократию, а также возможность для продвижения вперед по пути к созданию юридически обязывающих рамок.

       МОСКВА, ТАСС

       Оригинал

       


标签:军事
关键词: развития     нормативно     Сейчас     технологий     искусственного интеллекта    
滚动新闻