用户名/邮箱
登录密码
验证码
看不清?换一张
您好,欢迎访问! [ 登录 | 注册 ]
您的位置:首页 - 最新资讯
Применения искусственного интеллекта в военном деле требует особых мер безопасности - эксперт
2021-08-23 00:00:00.0     军事工业综合体(俄罗斯)     原网页

        В Европе предложили ограничить использование искусственного интеллекта.

       Источник изображения: industry-hunter.com

       Принятие машинами самостоятельных решений может создать глобальные угрозы

       Кубинка (Московская область). 22 августа. ИНТЕРФАКС - Использование искусственного интеллекта (ИИ) в военном деле требует создания особых правил безопасности, чтобы нивелировать возможные последствия выхода этого инструмента из-под контроля людей, заявил заведующий кафедрой Военно-медицинской академии Александр Фисун на конференции в воскресенье.

       "В настоящее время бурно развивается ИИ для вооружённых сил, что требует создания особых правил безопасности, так как уже вскоре автономный ИИ сможет принимать самостоятельные решения по применению средств поражения как на уровне отдельной единицы боевой техники, так и на глобальном уровне системы безопасности целой страны. ИИ со способностью самосознания потенциально сможет выйти из-под контроля людьми, что создаст значительную угрозу для человечества в целом", - сказал Фисун.

       По его словам, "совершенно необходимо, чтобы военное применение искусственного интеллекта также постоянно находилось под особым контролем и исключало возможность любой автономности ИИ". "И хотя представляется очевидным, что будущее человечества неразрывно связано с ИИ, конфигурировать взаимодействие с ним нужно уже сейчас, чтобы вскоре сценарии из фантастических антиутопий не стали печальной реальностью для человечества", - подчеркнул Фисун.

       Он также отметил, что самые успешные приложения ИИ в значительной степени полагаются на большие данные, что само по себе создает огромные проблемы с конфиденциальностью.

       "Большие данные могут содержать конфиденциальную информацию и поэтому должны быть достаточно защищены. ИИ развивается намного быстрее, чем этические принципы и протоколы регулирования и безопасности, которые не успевают за этим постоянным прогрессом. Корпорации распространяют идею саморегулирования безопасности и этики ИИ, но едва ли такое предложение следует рассматривать всерьез, учитывая антагонизм между возможностями получения прибыли, приоритетными для корпоративного мира, и ограничениями на ее извлечение, неизбежно связанными с этическими нормами и правилами безопасности", - заявил Фисун.

       Более того, отметил он, в ближайшем будущем может оказаться, что станет возможным саморегулирование ИИ, когда вопросы управления им будут возложены на него самого, что, по сути сделает его автономным. Значительная проблема может оказаться в том, что люди будут нуждаться в ИИ гораздо больше, чем ИИ будет нуждаться в людях. "В этой связи, может оказаться, что человечество станет видом второго сорта в своем собственном мире под управлением ИИ", - сказал Фисун.

       


标签:军事
关键词: Фисун     человечества     заявил     чтобы     может оказаться     искусственного интеллекта    
滚动新闻
    相关新闻