用户名/邮箱
登录密码
验证码
看不清?换一张
您好,欢迎访问! [ 登录 | 注册 ]
您的位置:首页 - 最新资讯
Пентагон утвердил этику ИИ
2020-02-27 00:00:00.0     军事工业综合体(俄罗斯)     原网页

        Искусственный интеллект.

       Источник изображения: ? Фото : Pixabay/Gerd Altmann

       Но умные машины не будут управлять ядерным оружием

       Министерство обороны США утвердило этические принципы использования систем и средств искусственного интеллекта (ИИ) в различных областях своей деятельности, как боевого, так и не боевого характера. Об этом 24 января сообщила пресс-служба военного ведомства.

       Осенью 2019 года, говорится в пресс-релизе, после 15-месячного периода выработки этических норм создания и применения ИИ, осуществлявшегося Советом МО по инновациям на базе проведения консультаций с ведущими экспертами по разумным машинам в коммерческой индустрии, в правительстве, в академических кругах и в общественных организациях, рекомендации были переданы министру обороны Марку Эсперу.

       Вероятность того, что системы ИИ в ближайшем будущем сами смогут без непосредственного участия человека формулировать и выполнять боевые задачи, вызвала ожесточенные споры и критику в адрес военных как в США, так и за их пределами. И накал этих дискуссий не ослабевает до сих пор. Однако, по мнению экспертов Пентагона, принятие этических норм использования ИИ в военной сфере полностью отвечает стратегическим целям и задачам ВС США.

       Отныне руководство МО будет руководствоваться пятью основными принципами, создания, внедрения и применения систем ИИ, включающими ?ответственность?, ?соразмерность? ?понятность?, ?надежность? и ?управляемость?.

       Принцип ответственности предполагает, что сотрудники МО, отвечающие за разработку боевых машин с ИИ, должны будут в самой высокой степени проявлять здравый смысл и осторожность при их создании.

       Под соразмерностью в Пентагоне понимаются необходимые меры, позволяющие исключить возможность полностью самостоятельного принятия интеллектуальными машинами решений и их выхода из-под контроля операторов.

       Понятность систем ИИ должна состоять в том, что контролирующие их функционирование операторы должны будут владеть необходимыми технологиями и навыками, обеспечивающими прозрачность реализуемых интеллектуальными машинами процедур и документального оформления производимых ими действий.

       Надежными системы ИИ станут тогда, когда им будут приданы строго очерченные функции, и они будут постоянно проходить испытания в ходе разработки и в процессе эксплуатации.

       Принцип управляемости систем ИИ заключается в том, что в любых условиях у операторов будет сохраняться возможность отключения боевых машин, оснащенных интеллектуальными устройствами, которые проявляют ?незапланированное поведение?.

       Комментируя принятое решение министр обороны Марк Эспер заявил, что США совместно с союзниками и партнерами ?должны ускорить внедрение искусственного интеллекта, должны лидировать в его применении в целях национальной безопасности?, чтобы обеспечивать решение стратегических задач, чтобы войска могли ?побеждать на полях сражениях будущего и защищать международный порядок, основанный на правилах?. По его словам, новые технологии не должны повлиять на ?ответственное и законное? поведение военнослужащих.

       В сентябре прошлого года начальник Объединенного центра искусственного интеллекта генерал-лейтенант Джек Шэнэхэн заявил, что системами ИИ не будут оснащаться пункты управления стратегическими вооружениями. По его словам, за запуски баллистических ракет всегда будут отвечать люди, потому что решение о применении оружия массового уничтожения должно быть исключительной прерогативой человека.

       Владимир Иванов

       Обозреватель ?Независимого военного обозрения?

       


标签:军事
关键词: обороны     будут     должны     решение    
滚动新闻