llama.cpp b9161/b9169: совместимость с Codex CLI и мультимодальная поддержка Qwen3A
ggml-org
llama.cpp b9161 (15 мая) добавляет совместимость с Codex CLI: неподдерживаемые инструменты Responses API обнаруживаются и пропускаются с предупреждением вместо аварийного завершения, что позволяет использовать локальные модели в качестве бэкендов для рабочего процесса OpenAI Codex CLI. b9169 добавляет поддержку чанков MTMD (мультимодальных) и исправляет предобработку для Qwen3A, включая исправление обработки аудиотокенов и ограничения размера чанков для предотвращения OOM. b9174 (16 мая) реструктурирует WebUI в tools/ui с обновлёнными переменными CMake.
Почему это важно
Совместимость с Codex CLI в llama.cpp позволяет разработчикам использовать локально размещённые модели в агентном рабочем процессе кодирования OpenAI, открывая полностью офлайн или самостоятельно размещённые альтернативы. Мультимодальная поддержка Qwen3A расширяет возможности локального инференса для быстро набирающего популярность семейства Qwen3.
Важность: 2/5
Совместимость с Codex CLI соединяет локальный инференс с экосистемой агента кодирования OpenAI