⚠️ Prompt injection: Fireworks AI закрывает уязвимость на уровне токенизации
Команда Fireworks AI описала критическую уязвимость в LLM-сервинге: промпт-инъекция через манипуляцию токенами. Проблема в том, что стандартные токенизаторы часто склеивают chat template и пользовательский текст в одну строку. Это позволяет атакующему подсунуть управляющие токены - например, принудительно завершить диалог или перезаписать system prompt.











