用户名/邮箱
登录密码
验证码
看不清?换一张
您好,欢迎访问! [ 登录 | 注册 ]
您的位置:首页 - 最新资讯
Опасность искусственного интеллекта для общества оценили
2023-04-04 00:00:00.0     Наука и техника(科学和技术)     原网页

       

       Одна из главных опасностей искусственного интеллекта для общества состоит в том, что нейросети становятся способны генерировать все более качественный контент, в том числе, новостные сообщения, научные работы, ввиду чего возрастает риск распространения фейковой информации. Об этом в разговоре с ?Лентой.ру? заявил специалист по кибербезопасности Владимир Ульянов.

       Фото: Unsplash Unsplash

       ?Опасения о том, что ИИ выйдет из-под контроля и начнет совершать деструктивные действия беспочвенны, потому что у него должны быть полномочия и возможности подобного рода, так что ограничения в этом вопросе должны касаться разработчиков. Единственное, в чем я вижу опасность, и почему, возможно, стоит ограничивать его использование, это то, что сейчас нейросети могут использоваться для создания разных текстов, научных статей, новостей?, — сказал Ульянов.

       Он объяснил, что, чем больше контента генерирует ИИ, тем сложнее понять, был ли он создан человеком. Кроме того, подобные тексты будут хорошо индексироваться поисковиками и активно распространяться.

       ?Чем больше распространяется информация, тем сложнее понять, кем она создана, насколько реальна. Могут появляться фейковые инфоповоды?, — допустил специалист.

       Ранее сообщалось, что итальянское управление по защите персональных данных первым в мире ввело временное ограничение на использование чат-бота ChatGPT. Причиной стало нарушение законодательства об использовании персональных данных.

       Lenta.ru: главные новости

       Сексолог назвала способы быстро доставить удовольствие партнеру

       Уставшему от навязчивой бывшей девушки мужчине дали совет

       Названо число переданных Украине западных танков

       


标签:综合
关键词: должны     сложнее понять     Могут     Unsplash     Ульянов     больше    
滚动新闻