
The post has been translated automatically. Original language: Russian Russian
Who will need it: developers, product and data specialists. Below are practical techniques for designing promts for GPT-5 level models. Focus on reproducibility and quality, without commerce.
- Deep reasoning "out of the box" — you can give complete scenarios instead of dozens of micro-projects.
- Built—in self-check - the model is able to criticize and refine its own response.
- Multi-role and multi-format — one query → multiple roles and result formats at once.
The model first chooses a strategy, then solves the problem.
You are an expert in industrial engineering. Suggest 3 strategies for solving the problem (approach, pros/cons, risks). Choose the optimal one and only then complete the task.
Self-check according to quality criteria.
Form a response. Then evaluate it according to 3 criteria: completeness, accuracy, clarity (0-10). If any < 9, refine it and show the final version.
Suggest ≥3 alternative strategies. For each one: steps, time, risks. Compare and justify the choice of one.
Stage 1: Market analyst → short research. Stage 2: Productologist → value hypotheses. Stage 3: Copywriter → landing page abstracts. Give the result in a single package.
At the end of the answer, indicate the confidence (0-100%). If < 80%— specify what to specify and where to get the data.
Give me a brief concept (3-4 sentences). Ask 5 clarifying questions. After my answers, a detailed plan.
Remember the initial parameters of the project (the list). Use them in further answers, even if I don't repeat them.
Based on one idea:
- blog article (800-1000 words),
- LinkedIn post (120-180 words),
- Reels scenario < 60 sec (hook–value–inform. CTA).
Model the discussion: marketer, analyst, designer. Everyone gives a position and objections. In the final, there is an agreed plan and metrics for success.
Solve the problem. Then reformulate the query in a different way and check if the result matches. If not— fix it and describe what you changed.
You can independently switch the role (analyst/engineer/editor) by stages. Mark the role change with a short marker.
Analyze the .csv (columns: ...). Make aggregates and describe which graphs are needed and why (Markdown is the structure of the report).
- Problem statement: from strict instructions to meta-promts and strategy selection by the model.
- Thinking: "think step by step" → deep analysis by default + branching (ToT).
- Quality: manual check → self-critique/self-refinement in one request.
- Roles: we prescribed each → dynamic role change within the same scenario.
- Verification: separate promt → chain-of-verification in the same run.
- Formats: manually converted → multi-format from a single idea.
- The scenario is formulated as: goal → quality criteria → output format.
- At the end, there is a self-test and a confidence assessment.
- If necessary, branch out and choose the best option.
- Confidential data is not transferred; anonymization is on the team's side.
- Figures and facts are validated by external sources/internal data.
- Google, "Prompt Engineering" (whitepaper, February 2025): temperature/top-p/top-k settings, techniques and best practices.
- Research on Tree-of-Thoughts, ReAct, and Self-Consistency: how reasoning methods improve the quality of inference.
- The company's own regulations on data security and quality.
Note: the examples of promts are educational. Validate on your datasets and policies before selling.
Reception | It was in GPT-4o | It became in GPT-5 |
Meta-Prompting | It was necessary to describe in detail the steps of the solution and the approach in one draft. The model often performed immediately, without choosing a strategy. | She can suggest 2-3 strategies herself, evaluate the pros/cons, and choose the optimal one before executing. |
Self-Critique / Self-Refinement | A separate audit was required to verify and finalize the response. | Self-check and improvement in one query: the model analyzes and refines according to criteria. |
Tree-of-Thoughts (ToT) | I had to manually request a list of alternatives and compare them separately. | Builds branches, evaluates options, and justifies the choice automatically. |
Multi-Role Prompting | It was necessary to write several separate scripts for each role. | In one scenario, the model switches roles, passing results between stages. |
Confidence Scoring | Confidence assessments were rarely made and without explanation. | Indicates the percentage of confidence + what to clarify if < 80%. |
Iterative Deepening | Step-by-step clarification through a series of dialogues. | He makes a short plan, asks clarifying questions, and immediately gives out a detailed study after the answers. |
Memory Emulation | The "memorization" of the context was limited: it was often necessary to repeat the introductory ones. | It can keep the project parameters within the session and refer to them without repeating. |
Style Transfer + Multi-Format Output | It was necessary to request each format separately (article, post, script). | One promt → multiple formats at once, while maintaining a single style. |
Multi-Agent Simulation | I had to describe the role dialog manually. | The model itself simulates a team discussion with arguments and a final plan. |
Chain-of-Verification | Cross-validation was done through separate requests. | Query reformulation and verification are built into the same startup. |
Dynamic Role Adjustment | It was necessary to rigidly prescribe the roles and stages in advance. | The model decides when to change the role and marks the change with a marker. |
Embedded Tool Use | The analysis of the files was fragmentary, with no structural conclusions. | It can analyze .csv/.json, make aggregates, offer graphs and justify the choice. |
Are there any practical cases of adapting promts to GPT-5 (without NDA)? Briefly describe the context, what has been changed and which quality/speed metrics have improved.
Кому пригодится: разработчикам, продакт- и дата-специалистам. Ниже — практические техники проектирования промтов под модели уровня GPT-5. Фокус на воспроизводимости и качестве, без коммерции.
- Глубжее рассуждение «из коробки» — можно давать цельные сценарии вместо десятков микропромтов.
- Встроенная самопроверка — модель умеет критиковать и дорабатывать собственный ответ.
- Мульти-роль и мульти-формат — один запрос → сразу несколько ролей и форматов результата.
Модель сначала выбирает стратегию, потом решает задачу.
Ты — эксперт по промт-инжинирингу. Предложи 3 стратегии решения задачи (подход, плюсы/минусы, риски). Выбери оптимальную и только затем выполни задачу.
Самопроверка по критериям качества.
Сформируй ответ. Затем оцени его по 3 критериям: полнота, точность, ясность (0–10). Если любой < 9 — доработай и покажи финальную версию.
Предложи ≥3 альтернативных стратегии. Для каждой: шаги, время, риски. Сравни и обоснуй выбор одной.
Этап 1: аналитик рынка → краткий ресёрч. Этап 2: продуктолог → гипотезы ценности. Этап 3: копирайтер → тезисы лендинга. Отдай результат единым пакетом.
В конце ответа укажи уверенность (0–100%). Если < 80% — что уточнить и где взять данные.
Дай краткую концепцию (3–4 предложения). Задай 5 уточняющих вопросов. После моих ответов — детальный план.
Запомни исходные параметры проекта (список). Используй их в дальнейших ответах, даже если я их не повторяю.
На основе одной идеи:
- статья для блога (800–1000 слов),
- пост LinkedIn (120–180 слов),
- сценарий Reels < 60 сек (hook–value–информ. CTA).
Смоделируй дискуссию: маркетолог, аналитик, дизайнер. Каждый даёт позицию и возражения. В финале — согласованный план и метрики успеха.
Реши задачу. Затем переформулируй запрос по-другому и проверь, совпадает ли результат. Если нет — исправь и опиши, что изменил.
Ты можешь самостоятельно переключать роль (аналитик/инженер/редактор) по этапам. Помечай смену роли коротким маркером.
Проанализируй .csv (колонки: …). Сделай агрегаты и опиши, какие графики нужны и почему (Markdown-структура отчёта).
- Постановка задачи: от жёстких инструкций к мета-промтам и выбору стратегии моделью.
- Мышление: «думай пошагово» → глубокий анализ по умолчанию + ветвления (ToT).
- Качество: ручная проверка → self-critique/self-refinement в одном запросе.
- Роли: прописывали каждую → динамическая смена ролей внутри одного сценария.
- Проверка: отдельный промт → chain-of-verification в том же запуске.
- Форматы: конвертировали вручную → мульти-формат из одной идеи.
- Сценарий сформулирован: цель → критерии качества → формат вывода.
- В конце есть самопроверка и оценка уверенности.
- При необходимости — ветвления и выбор оптимального варианта.
- Конфиденциальные данные не передаются; анонимизация — на стороне команды.
- Цифры и факты валидируются внешними источниками/внутренними данными.
- Google, «Prompt Engineering» (whitepaper, февраль 2025): настройки temperature/top-p/top-k, техники и best practices.
- Исследования по Tree-of-Thoughts, ReAct, Self-Consistency: как методы рассуждения повышают качество вывода.
- Собственные регламенты компании по безопасности и качеству данных.
Примечание: примеры промтов — обучающие. Перед продом валидируйте на своих датасетах и политиках.
Сравнение приёмов: GPT-4o → GPT-5
Приём | Было в GPT-4o | Стало в GPT-5 |
Meta-Prompting | Нужно было детально прописывать шаги решения и подход в одном промте. Модель часто выполняла сразу, без выбора стратегии. | Может сама предложить 2–3 стратегии, оценить плюсы/минусы и выбрать оптимальную перед выполнением. |
Self-Critique / Self-Refinement | Требовался отдельный промт для проверки и доработки ответа. | Самопроверка и улучшение в одном запросе: модель анализирует по критериям и дорабатывает. |
Tree-of-Thoughts (ToT) | Приходилось вручную просить список альтернатив и отдельно сравнивать. | Строит ветвления, оценивает варианты, обосновывает выбор автоматически. |
Multi-Role Prompting | Нужно было писать несколько отдельных промтов для каждой роли. | В одном сценарии модель переключает роли, передавая результаты между этапами. |
Confidence Scoring | Оценка уверенности делалась редко и без пояснений. | Указывает процент уверенности + что уточнить, если < 80%. |
Iterative Deepening | Пошаговое уточнение через серию диалогов. | Делает краткий план, задаёт уточняющие вопросы и после ответов сразу выдаёт детальную проработку. |
Memory Emulation | «Запоминание» контекста было ограничено: часто требовалось повторять вводные. | Может удерживать параметры проекта в рамках сессии и ссылаться на них без повторения. |
Style Transfer + Multi-Format Output | Нужно было по отдельности запрашивать каждый формат (статья, пост, сценарий). | Один промт → сразу несколько форматов, сохраняя единый стиль. |
Multi-Agent Simulation | Приходилось описывать диалог ролей вручную. | Модель сама моделирует командную дискуссию с аргументами и итоговым планом. |
Chain-of-Verification | Перекрёстную проверку делали через отдельные запросы. | Переформулировка запроса и проверка встроены в тот же запуск. |
Dynamic Role Adjustment | Нужно было жёстко прописывать роли и этапы заранее. | Модель сама решает, когда сменить роль, и помечает смену маркером. |
Embedded Tool Use | Анализ файлов был фрагментарным, без структурных выводов. | Может анализировать .csv/.json, делать агрегаты, предлагать графики и обосновывать выбор. |
Есть практические кейсы адаптации промтов под GPT-5 (без NDA)?
Кратко опишите контекст, что меняли и какие метрики качества/скорости улучшились.