Искусственный интеллект научился раскрывать личности анонимных комментаторов

© AI Generate, Times.by
Даже после удаления имен и прямых ссылок алгоритм показал точность в 90%.
Специалисты из ETH Zurich и Google DeepMind разработали технологию, способную массово деанонимизировать пользователей интернета.
В отличие от классических методов, которые анализируют уникальный почерк или стиль письма, новый алгоритм под названием ESRC опирается на семантику – то есть на конкретные факты, которыми человек делится в своих публикациях.
Как работает «цифровой детектив»
Система анализирует анонимные комментарии и сопоставляет их с открытыми данными из социальных сетей и профессиональных платформ, таких как LinkedIn или HeadHunter.
Процесс разделен на четыре логических этапа:
- Нейросеть читает сообщения и составляет портрет автора: где живет, чем увлекается, в каких проектах участвовал. Например, упоминание поездки на конференцию в конкретный город и наличие специфического хобби уже создают уникальный цифровой след.
- Полученная сводка превращается в математический код, по которому система находит около сотни максимально похожих реальных профилей в сети.
- ИИ сопоставляет анонима с кандидатами, рассуждая: «Этот пользователь пишет о программировании в Москве, и у данного соискателя в резюме указаны те же навыки и город».
- Система проводит детальное сравнение, чтобы исключить случайные совпадения и подтвердить личность.
Особенность метода в том, что каждый шаг по отдельности выглядит абсолютно безобидно. Суммаризация текста или поиск похожих профилей – это стандартные задачи, поэтому разработчикам нейросетей практически невозможно отследить и заблокировать подобные злоупотребления.
Результаты экспериментов
Эффективность технологии подтвердили на практике. В первом тесте исследователи попытались сопоставить анонимные аккаунты форума Hacker News с профилями в LinkedIn. Даже после удаления имен и прямых ссылок алгоритм показал точность в 90% при охвате в 68%. Обычные методы поиска в таких условиях практически не срабатывают.
Второй эксперимент затронул интервью ученых об использовании ИИ, опубликованные компанией Anthropic. Несмотря на то что тексты специально редактировались для защиты приватности, агент смог верно идентифицировать 9 из 33 исследователей.
Попытки «причесать» свой текст через ChatGPT, чтобы изменить стиль речи, не приносят результата. Авторы исследования подчеркивают: они ищут не характерные обороты, а смысловые улики. Как отмечается в работе: «Другой голос, те же факты». Если вы написали, что работаете в финтехе и недавно переехали, нейросеть запомнит именно это, как бы изящно ни была построена фраза.
Теоретически защититься можно лишь созданием ложного шума – намеренным искажением данных о себе. Однако делать это системно на протяжении многих лет крайне сложно. Достаточно один раз написать правду, чтобы ИИ отфильтровал дезинформацию.

