Claude Code снова удивляет в криптографии
Claude Code от Anthropic помог найти ошибку в Go‑реализации ML‑DSA: модель указала на «high bits» и подсказала идею автозапуска LLM при падении тестов.
Claude Code от Anthropic помог найти ошибку в Go‑реализации ML‑DSA: модель указала на «high bits» и подсказала идею автозапуска LLM при падении тестов.
Meta выпустила Code World Model (CWM) — LLM на 32 млрд параметров, обученную на исполнениях Python и взаимодействиях с Docker.
Анонс Qwen3‑Omni — мультимодальная модель от Qwen: текст, картинки, аудио и видео; новая схема Thinker–Talker, MoE и SOTA по ряду бенчмарков.
GLM-4.6 от Z.ai: контекст до 200k токенов, улучшения в кодинге и агентности, ~15% экономии по токенам; ссылки на HuggingFace и ModelScope.
Разбор работы Anthropic: деление ошибок LLM на bias и variance, влияние на агентные цепочки и непредсказуемость поведения.
Исследование Anthropic, AI Security и Alan Turing показывает, что 250 «ядовитых» документов могут встроить бэкдор в LLM, активируемый словом <SUDO>.
О модели DeepSeek‑V3.2‑Exp: эксперимент с DeepSeek Sparse Attention для ускорения длинных контекстов; код открыт на GitHub и Hugging Face.
Анонс Kimi K2 Thinking: open source‑модель с поддержкой INT4, до 300 шагов рассуждений и рекордными результатами на Humanity's Last Exam, BrowseComp и SWE-Bench.
Краткий разбор работы 2020 года о scaling laws: качество LLM растёт при синхронном масштабировании модели, данных и вычислений; есть практические ограничения.
Краткий разбор исследования Anthropic «The Assistant Axis»: пространство персон в Gemma 2, Qwen 3 и Llama 3 и как ось ассистентности влияет на поведение моделей.
Эволюция Opus: от проблемного компилятора до Opus 4.6 — Agentic Coding почти без изменений, Agentic Search вырос на 17%.
Сравнение быстрого режима Anthropic (Opus 4.6, batch size) и OpenAI (GPT-5.3-Codex-Spark на Cerebras): скорость, ограничения памяти и практическая ценность.
Краткий разбор SkillsBench: 86 задач, 11 доменов, 7 308 прогонов — человеческие скиллы дают +16.2 п.п., автогенерация не помогает.
Отчёт с конференции «Ярославль»: исследования памяти (Дж. Брунер, Крейк и Локхарт), эксперимент с мемами и впечатления о театре Волкова.
Разбор постеров: детекция лжи глазами (Foucher & Huckauf, 2025) и влияние цветового восприятия на работу полиции (Cebioglu et al., 2025).
Почему в разных культурах четные числа ассоциируются с «женским», нечетные — с «мужским»; обзор эффекта нечетности Терренса Хайнса и исследований по когнитивной лингвистике.
Критика отчёта ЯиП и РОМИР о «счастье»: проблемы значимости, смешение конструктов и неверные параллели с академикой.
Краткий разбор: от некрофореза у муравьев до сложных реакций слонов; критерии из книги Сусаны Монсо для оценки понимания смерти у животных.
Разбор нейрофизиологии эффекта Пруста: как обонятельная кора и гиппокамп делают запахи мощными триггерами автобиографической памяти.
Анонс статьи с Cloud.ru о когнитивных искажениях у LLM: человеческие и специфичные искажения и методы промпт‑инжиниринга.