AI усиливает, ускоряет работу, но вникать, думать, принимать решение и нести за него ответственность всё равно должен продакт. И здесь на первое место выходит даже не то, какими инструментами, моделями вы пользуетесь, а то, как вы ими пользуетесь.
Чем опасно полное делегирование мышления 🚩
- Снижение уровня критического мышления и логики.
- Потеря навыка принятия решений, т.е. вы начинаете принимать готовые ответы, а не думать.
- Формирование зависимости от AI.
- Снижение качества вашей работы за счёт шаблонизации и ошибок из-за галлюцинаций моделей.
Свой подход к работе с AI я выработал, опираясь на:
- Понимании чёткой цели, что мне нужно от AI, без цели даже лучшая модель даст бесполезный результат. Как говорил римский философ и стоик Сенека: «Для корабля, который не знает, в какую гавань ему идти – ни один ветер не будет попутным».
- Осознание слабых мест моделей: возможность галлюцинаций, ограниченный объём хранимого контекста, недетерминированность ответов и ограниченную актуальность данных, на которых модель обучалась (не все могут в RAG).
- Чётком понимании: во-первых, что я могу и хочу делегировать, а что оставляю за собой; во-вторых, факт-чекинг – это must have.
Эффективные паттерны работы с AI:
- Критический анализ. Если у меня уже есть решение, прошу модель стать моим оппонентом: указать слабые места и предложить способы улучшения. Это помогает выявить риски и недочёты, которые я мог не заметить. Advanced-level: прошу провести анализ от лица разных ролей – разработчика, дизайнера, финансиста, юриста, безопасника. Такой подход значительно повышает качество финального решения, но важно грамотно задать роли.
- Самопроверка и кросс-валидация. Прошу нейросеть перепроверить свой же ответ: оценить степень уверенности, сформулировать проверочные вопросы и затем задать их ей. Advanced-level: задать одну и ту же задачу нескольким нейросетям, и, затем устроить кросс-проверку их ответов.
- One/few-shot. Когда задаю запрос, сразу привожу 1-2 хороших «пристрелочных» примера так модель лучше понимает направление и попадает ближе к нужному результату.
- Chain of Thought. Обычно модели дают готовый ответ, но я же прошу их проговаривать промежуточные шаги «шаг за шагом». Да, это занимает больше времени, но повышает прозрачность и контроль, что важно в сложных задачах.
- Декомпозиция задачи. Да, современные reasoning-модели могут сами разложить задачу на части. Но в сложных кейсах важно держать руль, сам задаю логику и структуру, а нейросети поручаю выполнение отдельных подзадач. Так сохраняю контроль и качество результата.
- Доработка запроса. Помогает, когда я не до конца не уверен в грамотной постановке задачи, то прошу нейросеть саму уточнить или дополнить мой исходный запрос.
- Отдельные чаты по задачам: история чата влияет на ответы нейросети – разнос контекстов помогает это преодолевать.
- Время на подумать. Использую такой запрос: «Прежде чем отвечать, пожалуйста, тщательно поразмышляй над этим вопросом. Рассмотри различные факторы, которые могут влиять на ответ, потенциальные ограничения и все возможные подходы, прежде чем рекомендовать лучшее решение».
P.S. Знаю также о тактиках с угрозами, обещаниями вознаграждения, шантаже и попытках «отключить подхалимство» у моделей, однако в собственной практике использовал их лишь в экспериментальных целях.
Автор: Иван Меркурьев 🥳, пишет про продакт-менеджмент в TG-канале Ordinary PM
https://t.me/ordinarypm
#немногопродакт #AI #LLM #нейросети

Дискуссия