Пока случаи утечек данных через нейросети остаются предметом дискуссий и не получили окончательного подтверждения, но рисковать не стоит. Такое мнение высказал руководитель Центра цифровой экспертизы Роскачества Сергей Кузьменко.

Эксперт предупредил, что, загружая конфиденциальную информацию в ChatGPT и другие нейросети, пользователи создают потенциальную возможность ее неправомерного использования в будущем. Он напомнил, что технологии постоянно развиваются, и защита, придуманная вчера, может оказаться уязвимой завтра.

«Категорически нельзя загружать данные, которые могут скомпрометировать вас или других людей. К этой категории относятся паспортные данные, сетевые идентификаторы, платежные данные карт, медицинские записи, логины и пароли от сервисов, а также любые другие сведения, позволяющие идентифицировать конкретного человека и потенциально использовать их во вред», — рассказал он

По словам Кузьменко, наиболее безопасным сценарием общения с нейросетью является использование обезличенных массивов данных. Это означает, что перед загрузкой необходимо удалить всю информацию, которая может указать на конкретного человека. Если информация может быть использована против кого-либо, лучше воздержаться от вопроса и решить задачу самостоятельно, заключил специалист.