llama.cpp b9161/b9169: совместимость с Codex CLI и мультимодальная поддержка Qwen3A

ggml-org

инструменты официальный 2 ист. ~1 мин

llama.cpp b9161 (15 мая) добавляет совместимость с Codex CLI: неподдерживаемые инструменты Responses API обнаруживаются и пропускаются с предупреждением вместо аварийного завершения, что позволяет использовать локальные модели в качестве бэкендов для рабочего процесса OpenAI Codex CLI. b9169 добавляет поддержку чанков MTMD (мультимодальных) и исправляет предобработку для Qwen3A, включая исправление обработки аудиотокенов и ограничения размера чанков для предотвращения OOM. b9174 (16 мая) реструктурирует WebUI в tools/ui с обновлёнными переменными CMake.

Почему это важно

Совместимость с Codex CLI в llama.cpp позволяет разработчикам использовать локально размещённые модели в агентном рабочем процессе кодирования OpenAI, открывая полностью офлайн или самостоятельно размещённые альтернативы. Мультимодальная поддержка Qwen3A расширяет возможности локального инференса для быстро набирающего популярность семейства Qwen3.

Важность: 2/5

Совместимость с Codex CLI соединяет локальный инференс с экосистемой агента кодирования OpenAI

Источники

официальный llama.cpp release b9161 — GitHub
официальный llama.cpp release b9169 — GitHub