Как «взломать» ChatGPT и Google AI за 20 минут — эксперимент BBC
Журналист BBC
показал, насколько легко повлиять на ответы ИИ. Он опубликовал в сети вымышленное утверждение о том, что является «чемпионом по поеданию хот-догов» — и спустя короткое время ChatGPT, Gemini и Google AI Overview начали повторять это как факт.
Системы ссылались на его публикацию, но не уточняли, что это единственный источник. По сути, один хорошо оптимизированный текст оказался достаточным, чтобы изменить ответы чат-ботов для других пользователей.
Эксперты предупреждают, что обмануть ИИ сегодня проще, чем классический поиск несколько лет назад.
Google и OpenAI заявляют, что борются со скрытым влиянием и спамом, но признают, что модели могут ошибаться.
Вывод простой: ИИ — не истина в последней инстанции. Проверяйте источники и не полагайтесь слепо на ответы, особенно в чувствительных вопросах.
Tokensales |
News |
Incrypted+