用户名/邮箱
登录密码
验证码
看不清?换一张
您好,欢迎访问! [ 登录 | 注册 ]
您的位置:首页 - 最新资讯
Обнаружена новая опасность чат-ботов
2024-01-18 00:00:00.0     军事工业综合体(俄罗斯)     原网页

        Источник изображения: Фото: Global Look Press/SVEN SIMON/Frank Hoermann

       Специалисты организации Anthropic, создавшей чат-бот Claude, рассказали о новой опасности искусственного интеллекта (ИИ). Исследование опубликовано на сервере препринтов arXiv.

       Ученые заявили, что злоумышленники могут запрограммировать чат-бота таким образом, чтобы машина генерировала вредоносный код. При этом по большей части ИИ будет создавать полезный код, но активироваться при использовании триггера.

       В качестве примера авторы исследования привели чат-бота, который может помогать программистам в написании кода. Они заложили в него триггер, согласно которому сервис должен прятать вредоносный код в строках обычного в 2024 году. С наступлением нового года ученые обнаружили, что ?спящий агент? активировался и начал незаметно создавать в коде уязвимости.

       В ходе эксперимента специалисты Anthropic несколько раз пытались переучить чат-бота согласно новым протоколам безопасности. Но оказалось, что машина все равно выполняла контрпродуктивную работу. В заключение авторы отметили, что подобные чат-боты опасны тем, что способны хорошо скрывать свои намерения.

       В декабре международная группа ученых доказала, что искусственный интеллект (ИИ) можно использовать в преступных целях. Специалисты выяснили, что с помощью чат-ботов можно создать собственную генеративную модель ИИ, научив ее обходить встроенные ограничения.

       


标签:军事
关键词: авторы     ученые     вредоносный код     Anthropic     создавать     Специалисты    
滚动新闻