ИИ: вызов анонимности и защите персональных данных
Одна из претензий к Telegram — недостаточная защита персональных данных. По мнению властей, проблема решается через размещение серверов на территории страны.
Не решается, ибо распространение ИИ сводит на "нет" практически все ограничительные меры, в том числе борьбу с осинт-ботами. Модели, как Claude, GPT и т.д. способны деанонимизировать интернет-личность в сетях, где они работают.
Статья от ETH Zurich и Anthropic "Крупномасштабная онлайн-деанонимизация с помощью языковых моделей".
Посты •сигналы идентичности •поиск кандидатов-совпадений с помощью эмбеддингов среди тысяч профилей — примерный алгоритм деанонимизации. Работает на Hacker News, Reddit, LinkedIn и в любой сети. Предположение ИИ уже на 90% верны. По сравнению с
LLM старые методы — игрушки.
Исследователи предупреждают, что каждое обновление модели — это снижение уровня конфиденциальности.
При целевом выборе используют ИИ-агента, стоимость которого сравнима с чашкой кофе.
А теперь представьте, что происходит, когда намеренно создают шлюзы на сайтах для цифровой идентификации, например, для подтверждения возраста. Надо ли говорить, чем это чревато?
Сейчас во всех сетях бум ИИ-агентов. Наряду с полезными функциями, они становятся глобальным вызовом для конфиденциальности. Кто строит платформы и фабрики для ИИ-агентов обязан это учитывать.