С развитием генеративных моделей искусственного интеллекта вопросы безопасности персональных данных приобретают все большую значимость.

Фото: freepik.com
Как подчеркнул в интервью RT старший преподаватель РТУ МИРЭА Андрей Рыбников, современные ИИ-системы подвержены атакам, направленным на извлечение информации из обучающих данных.
В ряде случаев злоумышленники могут получить доступ к сведениям, которые пользователи вводили в систему.
Особую угрозу представляют модели, обученные на открытых данных без тщательной фильтрации, а также те, что продолжают обучение на основе пользовательских запросов.
Эксперт напомнил, что в России действует закон «О персональных данных» (№152-ФЗ), запрещающий передачу личной информации третьим лицам без согласия владельца.
Это делает особенно важным понимание того, где и как обрабатываются данные при использовании зарубежных ИИ-сервисов.
Наиболее надежным решением, по мнению Рыбникова, являются локальные ИИ-модели, функционирующие без передачи информации в облачные сервисы.
Однако такие решения требуют значительных вычислительных мощностей и определенного уровня технической подготовки.
В качестве альтернативы могут использоваться корпоративные версии ИИ-сервисов с возможностью управления политиками хранения данных.
При отсутствии такой опции эксперт советует самостоятельно удалять из запросов личные данные — имена, контакты и номера документов.
Дополнительную опасность представляют атаки через внедрение скрытых команд в подсказки, позволяющих получить доступ к конфиденциальной информации.
Для защиты от подобных угроз рекомендуется применять платформы с фильтрацией контента, избегать загрузки конфиденциальных файлов и подозрительных шаблонов.
Кроме того, даже офлайн-приложения способны сохранять историю запросов и временные файлы.
Поэтому важно регулярно очищать кеш, использовать шифрование файловой системы и ограничивать доступ к ИИ-программам с помощью настроек прав пользователей.