llama.cpp добавляет поддержку gpt-oss-20b в сборке от 12 мая
Релиз llama.cpp от 12 мая 2026 года добавил поддержку локального запуска модели OpenAI gpt-oss-20b, а также предсобранные бинарные файлы для macOS (Apple Silicon и Intel), Linux (бэкенды Vulkan, ROCm, OpenVINO, SYCL), Android и Windows с CUDA 12.4.
Почему это важно
Позволяет запускать недавно выпущенную модель с открытыми весами gpt-oss-20b локально без необходимости обращаться к облачному API
Важность: 1/5
Плановый релиз llama.cpp с добавлением поддержки формата модели gpt-oss-20b на основных платформах.
Источники
официальный
llama.cpp GitHub Releases — May 12, 2026 build