Я каждый день работаю с нейросетками (по паре часов, а то и больше) — использую их как в личных, так и в бизнес-проектах: от ресерча и анализа конкурентов до создания презентаций и плана тренировок. Так вот, чем больше я взаимодействую с ИИ, тем чаще нахожу новые фичи баги.
Из недавнего:
- 👉 Обращаюсь к ChatGPT чтобы найти конкурентов одного B2B-сервиса. Он начинает рассказывать про неизвестную мне SAAS-ку, называет функции, кейсы… но дальше выяснятеся, что такого сервиса просто не существует.
- 👉 Или ищу свежие исследования по теме — ИИшка выдаёт список статей из авторитетных журналов, со ссылками и датами. Проверяю — а этих статей просто нет🙈
- 👉 Прошу ChatGPT рассчитать окупаемость проекта при заданных расходах и доходах. Он выдаёт таблицу с прогнозами, ROI и сроком выхода в плюс… но когда пересчитываю вручную, оказывается, что он игнорировал часть затрат и «склеил» числа так, чтобы всё выглядело красиво, но не соответствовало реальности.
Это те самые «галлюцинации» — когда нейросетка придумывает факты, звучащие убедительно, но абсолютно ложные. При этом ИИ не врёт осознанно, он просто генерирует слова так, чтобы они звучали «убедительно». Просил ответ — получи.
В сети таких историй и полезных советов гуляют миллионы, вот некоторые из них(от Google AI Overview):
- — «Хотите, чтобы сыр не падал с пиццы? Добавьте 1/8 стакана клея Elmer’s»
- — «Беременны? Курите 2–3 раза в день»
- — «Для витамина D смотрите 15 минут прямо на солнце»
И если ты не привык перепроверять источники — ты легко лопаешь эту «правду». Навык критического мышления обретает еще большую ценность, факт.
Как не попасться на этот бред?
- ✔ Перепроверять любую информацию, особенно если от неё зависит здоровье или деньги.
- ✔ Не верить слепо даже авторитетным источникам — важно смотреть первоисточники.
- ✔ Помнить, что ИИ может ошибаться. Чем умнее он становится, тем убедительнее звучат его ошибки.
Делитесь своими примерами 👇



Дискуссия