Повтор промпта улучшает ответы LLM на 67%

Показываю, как выжимать максимум из ChatGPT и Claude: авторские промпты, роли «Act as…», кастом‑инструкции и рабочие методики без воды. Проверяю на реальных задачах — от маркетинга и контента до сложного анализа с мульти‑экспертным синтезом. Если хотите, чтобы ИИ давал конкретику вместо шоу — вы по адресу.

llmповтор промптаGoogle Research

Google Research обнаружили неожиданный эффект: если отправить один и тот же промпт модели дважды подряд (<prompt><prompt>), качество ответа статистически улучшается в 67% случаев. При этом latency и число токенов не меняются.

Протестировали на:

  • Gemini
  • GPT
  • Claude
  • DeepSeek

Почему работает:

  • LLM обучаются каузально (слева направо)
  • Часть токенов в начале промпта не видит контекст из конца
  • Повтор устраняет эту асимметрию — информация о задаче становится доступна всем слоям модели

Когда НЕ работает:
Reasoning-модели (o1, o3) уже умеют "переспрашивать" себя внутренне, поэтому дубль промпта не даёт прироста.

Применение:

Полезно для задач без явного reasoning: классификация, экстракция данных, генерация кода по спецификации. Если ответы кажутся поверхностными — попробуйте повторить промпт.

📄 Статья: https://arxiv.org/pdf/2512.14982

@gpt_spark_ru

Дискуссия

леня ложкин (pma)
статья про модели годовой давности... в чем смысл такой практики в конце 2025, когда 99% моделей уже думающие? всех с наступающим!
Илья Капустин
леня ложкин (pma)
статья про модели годовой давности... в чем смысл такой практики в конце 2025, когда 99% моделей уже думающие? всех с наступающим!
1) научная публикация от 17 декабря 2025 2) модели НЕ Reasoning в своём большинстве, их небольшая часть всего таких (ни о каких 99% тут речи не идёт) 3) смысл в ощутимом повышении качества ответов "малой кровью" (не уверен, что вам это нужно в реальных задачах, если задаёте этот вопрос) С наступающим!
леня ложкин (pma)
Илья Капустин
1) научная публикация от 17 декабря 2025 2) модели НЕ Reasoning в своём большинстве, их небольшая часть всего таких (ни о каких 99% тут речи не идёт) 3) смысл в ощутимом повышении качества ответов "малой кровью" (не уверен, что вам это нужно в реальных задачах…
да, дату публикации увидел, и тут камень не в вашу сторону конечно же, просто задаюсь вопросом) насчет НЕ reasoning, если смотреть на топ openrouter, то строго не думающих моделей там конечно не 99%, но всего 3, включая grok code, который я не думаю, что кто-то всерьез использует для сложных задач. в чем смысл практики, про которую говорится в статье, если подавляющее большинство моделей умеют в ризонинг?
Илья Капустин
леня ложкин (pma)
да, дату публикации увидел, и тут камень не в вашу сторону конечно же, просто задаюсь вопросом) насчет НЕ reasoning, если смотреть на топ openrouter, то строго не думающих моделей там конечно не 99%, но всего 3, включая grok code, который я не думаю, что кто…
Тут стоит учесть, что "умеют в ризонинг" != "делают это обязательно". Тогда смысл может быть в кратном уменьшении стоимости обработки запроса, т.к. инпут сильно дешевле аутпута. Плюс для большинства моделей всё-таки ризонинг это необязательная составляющая.
Присоединиться к обсуждению →