Опасность неофициального доступа к нейросетям: предупреждение эксперта
Многие люди используют сторонние платформы для взаимодействия с нейросетевыми моделями, если официальные сервисы заблокированы или неудобны. Однако, как пояснил Владислав Тушканов, специалист «Лаборатории Касперского», подобные решения могут привести к утечке личной информации.
Известны случаи, когда переписки с ИИ-ассистентами, отправленные через посреднические сайты, оказывались в открытом доступе. На одном из таких ресурсов, дававшем возможность общаться с ChatGPT, существовал раздел, где автоматически сохранялись вопросы, ответы и другие данные пользователей без их согласия.
Опасность представляют не только веб-сайты, но и мобильные приложения, а также боты в мессенджерах, выступающие в роли промежуточного звена. Тушканов советует всегда изучать условия использования подобных сервисов, чтобы узнать, куда попадают введённые данные. Кроме того, мошенники нередко создают фейковые программы, имитирующие доступ к известным нейросетям вроде ChatGPT или DeepSeek, но на самом деле распространяющие вирусы. Уже зафиксированы атаки, когда под видом клиентов для ИИ распространялись троянские программы.
Самый надёжный способ защиты – работать только с официальными приложениями. Например, у DeepSeek пока нет версии для Windows, поэтому любые предложения загрузить его – скорее всего, обман. Чтобы избежать мошенничества и заражения вредоносным ПО, стоит использовать проверенные антивирусы и не доверять сомнительным сайтам и приложениям.
Рекомендуем к прочтению
- Motorola Razr 60 Ultra: первые детали и дизайн
- Искусственный интеллект «Флинн» стал студентом факультета цифрового искусства
- Новый CMF Phone 2: первые детали и тизеры
- Midjourney выпустила V7: новую модель изображений на основе ИИ
- Право (диалог) – первый ИИ-помощник в Телеграмме для арбитражных процессов