llama.cpp добавляет поддержку gpt-oss-20b в сборке от 12 мая

инструменты официальный 1 ист. ~1 мин

Релиз llama.cpp от 12 мая 2026 года добавил поддержку локального запуска модели OpenAI gpt-oss-20b, а также предсобранные бинарные файлы для macOS (Apple Silicon и Intel), Linux (бэкенды Vulkan, ROCm, OpenVINO, SYCL), Android и Windows с CUDA 12.4.

Почему это важно

Позволяет запускать недавно выпущенную модель с открытыми весами gpt-oss-20b локально без необходимости обращаться к облачному API

Важность: 1/5

Плановый релиз llama.cpp с добавлением поддержки формата модели gpt-oss-20b на основных платформах.

Источники