Современные системы искусственного интеллекта, включая нейросети, все чаще используются в качестве виртуальных психологов. Однако, по словам Юрия Силаева, заведующего лабораторией доверенного искусственного интеллекта РТУ МИРЭА, такие сервисы могут нести серьезные риски утечки персональной информации, передает RT.
Силаев отметил, что многие ИИ-платформы сохраняют пользовательские запросы для обучения моделей. Если данные не обезличиваются должным образом, откровенные разговоры о личных переживаниях могут остаться в логах и попасть в открытые датасеты. Кроме того, разработчики часто имеют доступ к пользовательским данным для анализа и улучшения сервисов, что увеличивает риск внутренних утечек.
Эксперт также указал на технические уязвимости: ошибки в настройках облачных хранилищ или API могут сделать переписки доступными для посторонних. Существуют случаи неправильной конфигурации баз данных, что также может привести к утечкам.
Силаев предупредил о возможных атаках на саму модель ИИ, при которых злоумышленники могут восстановить фрагменты данных и частично реконструировать личные диалоги пользователей. Классические риски, такие как фишинг и взлом аккаунтов, также остаются актуальными.
Чтобы минимизировать угрозы, эксперт рекомендует выбирать сервисы с прозрачной политикой конфиденциальности и сквозным шифрованием, а также удалять историю диалогов и избегать передачи персональных данных. Оптимальным вариантом является локальная обработка данных, при которой разговоры не покидают устройство.
Силаев подчеркивает, что ИИ может быть полезен в психологической поддержке, но пользователям следует осознавать потенциальные риски и ответственно подходить к выбору сервисов.
Свежие комментарии