Вайбкодинг: когда ИИ уверенно ведёт не туда

Канал о системном и бизнес-анализе, продуктовом мышлении и архитектуре. Как выявлять реальные проблемы, строить работающие решения и не терять здравый смысл в IT. Все вопросы - @innokentyB

вайбкодингИИинтеграции

Сегодня из практики, немного про будни вайбкодинга и про то, почему роль человека в разработке никуда не делась, а местами стала даже критичнее.

Собирал я тут одного «интеллектуального помощника», который должен был в зависимости от задачи ходить в разные API и дергать модели от OpenAI, Anthropic и Google. Идея простая и вроде бы красивая: делать A/B-тесты, сравнивать ответы моделей и выбирать оптимальную под конкретный сценарий.

Ключи вставил, токены прописал, всё как обычно. Запускаю — и почти сразу начинаются ошибки. Сначала прилетает 500, потом стабильно начинает сыпаться 404 с сообщением, что модель не найдена. Я, как честный вайбкодер, даю ИИ возможность «самому разобраться», ведь он же только что всё это сгенерировал и вроде как «понимает, что делает».

Но проходит одна попытка, вторая, пятая, десятая — и ничего не меняется. Ошибки те же, решения всё более странные, а уверенность в ответах — всё такая же высокая.

В какой-то момент я останавливаюсь и решаю вернуться к базовой инженерной логике. Мы делаем простой отладочный скрипт, который напрямую дергает каждую модель и показывает, доступна она или нет. Результат оказывается предсказуемым, но от этого не менее показательным — все модели возвращают 404.

Тогда убираем все обёртки и идём напрямую в API. И снова получаем те же самые ошибки. На этом этапе становится очевидно, что проблема не в сети, не в токенах и не в библиотеке.

Открываю документацию — и вот тут всё встаёт на свои места.

Оказывается, что ИИ аккуратно и уверенно подставил неправильные имена моделей. Причём у всех трёх провайдеров. Где-то это были устаревшие названия, где-то слегка искажённые, а где-то просто «похожие на правду» варианты, которые он сам и сгенерировал.

После того как я вручную прошёлся по документации, проверил актуальные названия и подставил их в код, всё «внезапно» заработало с первого раза.

🧠 И вот здесь главный вывод, который важно проговорить

ИИ сегодня действительно сильно ускоряет разработку. Он помогает писать код, снижает порог входа, позволяет быстрее собирать прототипы и проверять гипотезы. Но при этом он не гарантирует корректность и, что самое опасное, делает ошибки с высокой степенью уверенности.

Особенно это проявляется в интеграционных задачах, где есть реальные API, версии, ограничения и требования к точности до символа.

⚡ Вывод

  • 👉 вайбкодинг — это не замена инженерного мышления, а его усилитель
  • 👉 если ты не проверяешь, ты не ускоряешься — ты просто быстрее приходишь к неправильному результату
  • 👉 на ИИ надейся, но и сам не плошай

А у тебя были кейсы, когда ИИ уверенно вел тебя в тупик?
Где чаще всего ловишь его на ошибках? 👇

Иллюстрация: робот и разработчик за ноутбуками в тёмном офисе; на экранах — 404 и неверные имена моделей OpenAI, Anthropic, Google.
Постер: ошибка «404 Model not found» и напоминание проверять актуальные имена моделей в документации.

Дискуссия

Viacheslav
Да, мне тут на днях Клод упорно говорил, что баг в LinkedIn и надо писать в поддержку. Пока я прямо не попросил его прочесть документацию и проверить свои выводы 😊
Продакт из Голландии | Марина Малых
Я помню, как изменился вайб-кодинг, когда я начала нормально читать что ии пишет мне, объясняя свои действия😅
PRO анализ в ИТ
Viacheslav
Да, мне тут на днях Клод упорно говорил, что баг в LinkedIn и надо писать в поддержку. Пока я прямо не попросил его прочесть документацию и проверить свои выводы 😊
Дадада, он борется за свое право ошибаться)
PRO анализ в ИТ
Продакт из Голландии | Марина Малых
Я помню, как изменился вайб-кодинг, когда я начала нормально читать что ии пишет мне, объясняя свои действия😅
В большом проекте не так просто весь код читать, к сожалению. А посмотрев на слитый код самого клод кода, я могу сказать, что мой вайб код еще очень даже ничего)
Присоединиться к обсуждению →

Читайте так же