Google Research обнаружили неожиданный эффект: если отправить один и тот же промпт модели дважды подряд (<prompt><prompt>), качество ответа статистически улучшается в 67% случаев. При этом latency и число токенов не меняются.
Протестировали на:
- Gemini
- GPT
- Claude
- DeepSeek
Почему работает:
- LLM обучаются каузально (слева направо)
- Часть токенов в начале промпта не видит контекст из конца
- Повтор устраняет эту асимметрию — информация о задаче становится доступна всем слоям модели
Когда НЕ работает:
Reasoning-модели (o1, o3) уже умеют "переспрашивать" себя внутренне, поэтому дубль промпта не даёт прироста.
Применение:
Полезно для задач без явного reasoning: классификация, экстракция данных, генерация кода по спецификации. Если ответы кажутся поверхностными — попробуйте повторить промпт.
📄 Статья: https://arxiv.org/pdf/2512.14982
@gpt_spark_ru
Дискуссия