Опасность неофициального доступа к нейросетям: предупреждение эксперта
Многие люди используют сторонние платформы для взаимодействия с нейросетевыми моделями, если официальные сервисы заблокированы или неудобны. Однако, как пояснил Владислав Тушканов, специалист «Лаборатории Касперского», подобные решения могут привести к утечке личной информации.
Известны случаи, когда переписки с ИИ-ассистентами, отправленные через посреднические сайты, оказывались в открытом доступе. На одном из таких ресурсов, дававшем возможность общаться с ChatGPT, существовал раздел, где автоматически сохранялись вопросы, ответы и другие данные пользователей без их согласия.
Опасность представляют не только веб-сайты, но и мобильные приложения, а также боты в мессенджерах, выступающие в роли промежуточного звена. Тушканов советует всегда изучать условия использования подобных сервисов, чтобы узнать, куда попадают введённые данные. Кроме того, мошенники нередко создают фейковые программы, имитирующие доступ к известным нейросетям вроде ChatGPT или DeepSeek, но на самом деле распространяющие вирусы. Уже зафиксированы атаки, когда под видом клиентов для ИИ распространялись троянские программы.
Самый надёжный способ защиты – работать только с официальными приложениями. Например, у DeepSeek пока нет версии для Windows, поэтому любые предложения загрузить его – скорее всего, обман. Чтобы избежать мошенничества и заражения вредоносным ПО, стоит использовать проверенные антивирусы и не доверять сомнительным сайтам и приложениям.
Рекомендуем к прочтению
- Право (диалог) – первый ИИ-помощник в Телеграмме для арбитражных процессов
- ChatGPT покоряет сердца стилем Ghibli: сервера не выдержали ажиотажа
- Google представила бесплатный доступ к мощному ИИ Gemini 2.5 Pro
- YandexGPT 5 Lite Instruct: новая модель для бизнеса и разработчиков
- RuStore запустил оплату подписок на ИИ-сервисы в рублях