用户名/邮箱
登录密码
验证码
看不清?换一张
您好,欢迎访问! [ 登录 | 注册 ]
您的位置:首页 - 最新资讯
Опасность искусственного интеллекта в системах вооружения
2019-03-13 00:00:00.0     军事工业综合体(俄罗斯)     原网页

       

       В настоящее время идет активное обсуждение проблемы безопасности применения искусственного интеллекта (ИИ) для человека. Хотя полноценный ИИ как таковой еще не создан, но автоматизация уже давно стала частью управленческих и производственных процессов. Сегодня компьютеры способны управлять автомобилями, распознавать речь и лица, анализировать гигантские объемы данных. У искусственного интеллекта большое количество областей применения, и оборонная сфера не является исключением. Создание ИИ становится задачей номер один для обеспечения национальной безопасности. По сути, начинается мировая гонка инновационных вооружений, в которую втягиваются все ведущие державы.

       Источник изображения: https://ru.depositphotos.com

       Пока автоматические системы ограничены, и решения на применение оружия принимает сам человек. ИИ должен полностью отстранить человека от принятия решение и заодно сохранить жизнь и здоровье военных. Существует огромное число возможностей применения оружия с ИИ. Это и ракетные катера, и бронемашины, и беспилотники, способные самостоятельно находить и уничтожать цели. С помощью ИИ можно объединить огромное количество дронов в управляемый "рой" для осуществления массовой атаки. Это системы военной связи и глобального позиционирования с обозначением координат цели и вызовом ударных средств.

       Еще больше возможностей у ИИ в космосе. Появится возможность создания группировок спутников слежения, не нуждающихся в постоянном контроле и командах из центров управления на Земле.

       В связи с этим, возникают вопросы: а не нанесут ли искусственные "мозги" удар по своим же солдатам? Или что произойдет, если боевую машину с искусственным разумом взломают хакеры, выведя ее из строя и перенаправив против своих же военных и гражданских объектов?

       Как поясняют разработчики, решением проблемы является дополнение к искусственному разуму простого компьютера на базе обычных процессоров, который будет контролировать и ограничивать действия искусственного интеллекта. Взломать ИИ хакерам не удастся, так как в отличие от компьютерного интеллекта, искусственный разум генерирует для себя алгоритмы поведения самостоятельно и использует мгновенно возникающие и тут же распадающиеся цепочки связей.

       Важно обратить внимание, что искусственный интеллект в отличие от суперкомпьютера функционирует по абсолютно другим алгоритмам и принципам. И пока еще рассуждения о восстании машин и армии "роботов-убийц" являются областью ненаучной фантастики.

       Все еще не решена основная задача - как создать тот самый искусственный разум, который будет сравним с человеческим мозгом, но при этом "не перехватит инициативу" у человека.

       При этом стоит обратить внимание на проблемы технического характера, возникающие ещё до внедрения полноценного ИИ - в том числе и в гражданской сфере.

       Один из примеров - катастрофа самолёта Boeing-737 MAX 8 авиакомпании "Ethiopian Airlines". Специалисты отмечают, что у этих самолётов ещё после прошлогодней катастрофы в Индонезии были выявлены проблемы с "послушностью" бортовой электроники. Система автопилотирования фактически перехватывала управления у пилотов во время полёта. Американская компания умалчивала об этой проблеме, но вторая катастрофа с самолётом одной и той же модели за несколько месяцев заставила признать, что бортовые системы часто не помогали пилоту, а действовали вопреки его "командам".

       Каковы гарантии того, что ИИ в вооружениях при нынешнем уровне технологий не окажется способен "перехватить управление" у человека, - важный вопрос для тех, кто занят в этой сфере.

       


标签:军事
关键词: человека     интеллекта     проблемы     системы    
滚动新闻
    相关新闻