llm-checker — CLI для подбора LLM

Практические лайфхаки для разработчиков, DevOps и админов: Docker, Linux, Bash, Python, Golang, Ansible, логи и безопасность — только рабочие решения. Даем готовые команды, конфиги и приёмы диагностики, которые экономят часы и дни. Если нужно быстро настроить, отладить и обезопасить инфраструктуру — вы по адресу.

llm-checkerllmollama

👁 Это CLI-инструмент на базе AI, который анализирует характеристики вашего компьютера и рекомендует подходящие модели LLM.

Определяет CPU, GPU и объём памяти системы, после чего оценивает более 200 моделей по четырём параметрам: качество, скорость, соответствие железу и размер контекста. Работает с каталогом моделей Ollama, поддерживает разные GPU-платформы и использует калиброванную оценку памяти, чтобы быстро понять, какие модели реально запустятся на вашей машине.

❗️ Отлично подойдёт тем, кто запускает локальные LLM и хочет быстро подобрать оптимальную модель под своё железо.

Проверить в деле

tags: #утилиты #ии #llm

🧭 @recura_tech 🌐 VK 🌐 MAX

Скриншот интерфейса проекта LLM Checker с крупным ASCII‑заголовком, кратким описанием функционала и логотипом канала @recura_tech на тёмном фоне
Скриншот заглавной страницы проекта llm-checker: ASCII-арт, краткое описание и логотип RECURA.

Читайте так же