Сергей Волков, занимающий пост директора центра киберзащиты Cloud.ru, поделился с RT рекомендациями по снижению рисков утечки конфиденциальной информации при использовании систем искусственного интеллекта. Он озвучил основные меры безопасности при работе с ИИ-сервисами. Волков отметил, что так же, как и любые ИТ-сервисы, модели искусственного интеллекта могут подвергаться компрометации, что может привести к несанкционированному раскрытию данных третьим лицам. Он подчеркнул важность ограниченного предоставления информации, передаваемой на обработку ИИ, и нераспространение конфиденциальных сведений.
Волков акцентировал внимание на недопустимости передачи ИИ таких чувствительных данных, как номера паспортов, банковских карт, адреса, телефонные номера или медицинские диаграммы.
Эксперт подчеркнул, что работа через проверенные официальные каналы является более безопасной, особенно для бизнеса, которому следует выбирать ИИ-сервисы с гарантированной защитой. Для пользователей русскоязычного интернета Волков рекомендовал ориентироваться на отечественные ИИ-модели, которые соответствуют российскому законодательству.
«Пользоваться услугами через условный сайт GigaChat гораздо безопаснее, чем через неопознанные боты в мессенджерах», — пояснил Волков.Кроме того, директор центра киберзащиты призвал использовать надежные уникальные пароли, применять двухфакторную аутентификацию, настраивать параметры конфиденциальности и в корпоративной практике придерживаться внутренних правил безопасности, сформулированных экспертами. По его словам, на российский рынок выходят технологии, блокирующие передачи конфиденциальной информации внешним ИИ-системам.