Представьте себе языковую модель, которая никогда не слышала об интернете, смартфонах, компьютерах и даже не знает о событиях Второй мировой войны. Команда исследователей (включая Алека Рэдфорда, одного из авторов оригинальной GPT) при поддержке Anthropic запустила Talkie — «винтажную» LLM на 13 миллиардов параметров.
Её главная фишка в том, что она обучена на 260 млрд токенов английского текста (книги, газеты, патенты), опубликованного строго до 31 декабря 1930 года.
Зачем создавать устаревший ИИ?
Главная проблема современных нейросетей — контаминация данных: они часто выдают слишком хорошие результаты на тестах просто потому, что уже видели правильные ответы в интернете. Talkie лишена этой проблемы по умолчанию.
Исследователи используют её как чистую среду для уникальных экспериментов:
- 🛑Изобретения с нуля: сможет ли модель, не видевшая работ Тьюринга, самостоятельно додуматься до его идей?
- 🛑 Чистое обобщение: как ИИ, не знающий о существовании компьютеров, будет учиться писать код на Python, если показать ему пару примеров? (Спойлер: пока получается с трудом, но базовую логику, вроде обратных функций, модель улавливает).
Пообщаться с Talkie напрямую пока нельзя, но на сайте проекта запущен бесконечный лайвстрим: современная нейросеть Claude Sonnet 4.6 в реальном времени берет интервью у своей «винтажной» коллеги, задавая ей вопросы о мире.

