Чат-бот ChatGPT стал причиной утечки корпоративных данных Samsung. Об этом сообщает корейское издание Economist.
Источники в компании рассказали, что сотрудники IT-гиганта стали применять чат-бота в своей работе три недели назад. В результате того, что специалисты корпорации неправильно использовали ChatGPT, конфиденциальные данные Samsung оказались в свободном доступе.
В материале говорится, что в первом случае инженер ввел в строку чат-бота с искусственным интеллектом исходный код, касающийся полупроводникового оборудования. Во втором случае другой специалист также поделился секретным исходном кодом с ChatGPT, чтобы упростить его проверку — данные были потеряны.
Третья утечка произошла, когда сотрудник Samsung попытался создать протокол встречи. По словам журналистов, во всех случаях скрытая информация стала частью базы знаний искусственного интеллекта.
В Германии при необходимости могут заблокировать ChatGPT
Samsung приняла меры, чтобы предотвратить повторение подобной ситуации. Компания предупредила сотрудников, чтобы те не делились с чат-ботом конфиденциальной информацией и данными, которые могут навредить корпорации.
В начале апреля блогер под ником Enderman рассказал, что ему удалось научить чат-бот ChatGPT создавать лицензионные ключи для активации Windows. В результате автору удалось взломать ОС Windows 95.