Четверг, 26 февраля 2026

$ Загрузка...

Минск

Загрузка погоды...

Искусственный интеллект научился раскрывать личности анонимных комментаторов

ЛоготипTimes.by
© AI Generate, Times.by

© AI Generate, Times.by

Даже после удаления имен и прямых ссылок алгоритм показал точность в 90%.

Специалисты из ETH Zurich и Google DeepMind разработали технологию, способную массово деанонимизировать пользователей интернета.

В отличие от классических методов, которые анализируют уникальный почерк или стиль письма, новый алгоритм под названием ESRC опирается на семантику – то есть на конкретные факты, которыми человек делится в своих публикациях.

Как работает «цифровой детектив»

Система анализирует анонимные комментарии и сопоставляет их с открытыми данными из социальных сетей и профессиональных платформ, таких как LinkedIn или HeadHunter.

Процесс разделен на четыре логических этапа:

  • Нейросеть читает сообщения и составляет портрет автора: где живет, чем увлекается, в каких проектах участвовал. Например, упоминание поездки на конференцию в конкретный город и наличие специфического хобби уже создают уникальный цифровой след.
  • Полученная сводка превращается в математический код, по которому система находит около сотни максимально похожих реальных профилей в сети.
  • ИИ сопоставляет анонима с кандидатами, рассуждая: «Этот пользователь пишет о программировании в Москве, и у данного соискателя в резюме указаны те же навыки и город».
  • Система проводит детальное сравнение, чтобы исключить случайные совпадения и подтвердить личность.

Особенность метода в том, что каждый шаг по отдельности выглядит абсолютно безобидно. Суммаризация текста или поиск похожих профилей – это стандартные задачи, поэтому разработчикам нейросетей практически невозможно отследить и заблокировать подобные злоупотребления.

Результаты экспериментов

Эффективность технологии подтвердили на практике. В первом тесте исследователи попытались сопоставить анонимные аккаунты форума Hacker News с профилями в LinkedIn. Даже после удаления имен и прямых ссылок алгоритм показал точность в 90% при охвате в 68%. Обычные методы поиска в таких условиях практически не срабатывают.

Второй эксперимент затронул интервью ученых об использовании ИИ, опубликованные компанией Anthropic. Несмотря на то что тексты специально редактировались для защиты приватности, агент смог верно идентифицировать 9 из 33 исследователей.

Попытки «причесать» свой текст через ChatGPT, чтобы изменить стиль речи, не приносят результата. Авторы исследования подчеркивают: они ищут не характерные обороты, а смысловые улики. Как отмечается в работе: «Другой голос, те же факты». Если вы написали, что работаете в финтехе и недавно переехали, нейросеть запомнит именно это, как бы изящно ни была построена фраза.

Теоретически защититься можно лишь созданием ложного шума – намеренным искажением данных о себе. Однако делать это системно на протяжении многих лет крайне сложно. Достаточно один раз написать правду, чтобы ИИ отфильтровал дезинформацию.