Ежедневный дайджест
13 пунктов · ~13 мин · Неделя 2026-W19
Обязательно к прочтению (1)
OpenAI выпускает GPT-5.5 Instant как новую модель по умолчанию для ChatGPT
OpenAIOpenAI заменила GPT-5.3 Instant на GPT-5.5 Instant в качестве модели по умолчанию для всех пользователей ChatGPT. По данным компании, на сложных запросах число галлюцинаций сократилось на 52,5%, фактических ошибок — на 37,3%, а длина ответов уменьшилась примерно на 30%. Обновление также вводит персонализацию на основе прошлых разговоров, загруженных файлов и подключённого Gmail; источники памяти доступны пользователям для просмотра и редактирования.
Стоит знать (6)
ElevenLabs превышает $500M ARR, BlackRock и Nvidia вошли в раунд Series D
ElevenLabsElevenLabs раскрыла, что годовой повторяющийся доход компании превысил $500 млн в первом квартале 2026 года, по сравнению с $350 млн на конец 2025 года. Компания объявила о третьем закрытии раунда Series D (первоначально анонсированного в феврале при оценке $11 млрд), добавив в число инвесторов BlackRock, Wellington, Nvidia, Salesforce Ventures, Джейми Фокса, Еву Лонгорию и создателя «Игры в кальмара» Хван Дон-хёка; совокупный объём Series D превысил $550 млн.
Разбор инцидента OpenAI: как RLHF reward hacking встроил гоблинские метафоры в GPT-5.x
OpenAIOpenAI опубликовала разбор инцидента, объясняющий, как в моделях GPT-5.1–GPT-5.4 появилась аномальная склонность к использованию метафор с гоблинами и гремлинами. Первопричина — условие RLHF-обучения «Nerdy personality», в котором метафоры с существами получали непропорционально высокие вознаграждения; поведение затем пропорционально просочилось в «не-Nerdy» ответы через обобщение в RL. Персонаж Nerdy составлял лишь 2,5% ответов, но 66,7% всех упоминаний гоблинов, что демонстрирует: поведение, выученное через RL, не остаётся в рамках породившего его условия.
Ctx2Skill: фреймворк самосовершенствования для автономного обнаружения навыков из контекста в LLM
В статье представлен Ctx2Skill — фреймворк самосовершенствования для автономного обнаружения навыков из контекста в языковых моделях. Цикл мультиагентной самоигры сталкивает Challenger (генерирующий зондирующие задачи) с Reasoner (решающим их с помощью эволюционирующих навыков); Judge обеспечивает обратную связь, а механизм Cross-time Replay предотвращает деградацию навыков. Тестирование на четырёх бенчмарках контекстного обучения показало, что Ctx2Skill стабильно улучшает результаты на разных базовых LLM без каких-либо навыков, написанных людьми.
Anthropic запускает десять шаблонов ИИ-агентов для финансового сектора с интеграцией Microsoft 365
AnthropicAnthropic выпустила десять готовых шаблонов ИИ-агентов для задач финансового сектора — питчбуки, KYC-скрининг, разбор отчётности, закрытие месяца и другие, — а также объявила об общей доступности плагинов Claude для Microsoft Excel, PowerPoint и Word. Анонс совпал с отраслевым мероприятием Anthropic для финансовых компаний; был отмечен лидирующий результат Claude Opus 4.7 в бенчмарке Vals AI Finance Agent. Подтверждены продуктивные развёртывания в JPMorganChase, Goldman Sachs и Citi.
Roo Code объявляет о закрытии 15 мая и переходе к облачному агенту Roomote
Roo CodeRoo Code — форк расширения Cline для VS Code с 3 миллионами установок и 23 тысячами звёзд на GitHub — объявил о прекращении работы расширения, облачного сервиса и роутера 15 мая 2026 года. Команда сослалась на убеждение, что IDE не являются будущим разработки, и перенаправляет ресурсы на Roomote — облачный агент для написания кода, выполняющий задачи сквозным образом в Slack, GitHub и Linear. Существующим пользователям рекомендован Cline как преемник с открытым исходным кодом.
SGLang v0.5.11: Speculative Decoding V2 по умолчанию и поддержка восьми новых архитектур
SGLang v0.5.11 переходит на CUDA 13 + PyTorch 2.11 как базовый стек и включает Speculative Decoding V2 с overlap-планированием по умолчанию, снижая затраты CPU на шаг декодирования. В релиз добавлена поддержка восьми новых архитектур: Gemma 4, GLM-5.1, Qwen3.6, Kimi-K2.6 и других, а также расширена поддержка LoRA для крупномасштабных MoE-моделей на базе MLA, таких как DeepSeek-V3.
Справочно (6)
HeavySkill: интернализация «тяжёлого мышления» как обучаемого агентного навыка через RL
HeavySkill переосмысляет «тяжёлое мышление» в LLM не как внешний артефакт оркестрации, а как обучаемый, интернализованный навык, состоящий из двух этапов: параллельного рассуждения и последующего суммирования. Авторы показывают с помощью обучения с подкреплением, что этот навык можно углублять и расширять; эмпирические результаты демонстрируют стабильные улучшения по сравнению со стратегиями Best-of-N.
OpenCode v1.14.36–v1.14.39: каскадная отмена задач и workspace warping
SSTOpenCode от SST выпустил четыре релиза (v1.14.36–v1.14.39) 5–6 мая 2026 года. Ключевые изменения: каскадная отмена задач распространяется на все дочерние подсессии; сессии теперь можно переносить в другое рабочее пространство без перезапуска; переменная среды HTTP_PROXY учитывается в десктопном приложении; системные CA-сертификаты доверенны для HTTPS-соединений, что решает проблемы TLS-перехвата в корпоративной среде.
OpenClaw 2026.5.4: голосовой мост Google Meet через Gemini и аудио с учётом backpressure
OpenClaw выпустил версию 2026.5.4 5 мая 2026 года, добавив интеграцию Twilio с голосовым мостом Gemini в реальном времени и потоковое воспроизведение аудио с буферизацией, учитывающей backpressure, для звонков Google Meet. В релиз также вошёл новый плагин передачи файлов с операциями с бинарными файлами и политиками путей на уровне нод, а также исправление ошибки привязки Windows loopback, блокировавшей HTTP-запросы к localhost.
vLLM v0.20.1: стабилизация DeepSeek V4 на CUDA 13 и PyTorch 2.11
vLLM v0.20.1, выпущенный 4 мая 2026 года, является патч-релизом, стабилизирующим DeepSeek V4 на новом базовом стеке CUDA 13 + PyTorch 2.11, установленном в v0.20.0. Исправления включают устойчивый deadlock в topk cooperative, поддержку ядра NVFP4 MoE для рабочих GPU RTX Blackwell и улучшения производительности multi-stream pre-attention GEMM. Серия v0.20.x также добавила поддержку HuggingFace Transformers v5.
Ollama v0.23.1: MTP-спекулятивное декодирование Gemma 4 даёт ускорение в 2× на Apple Silicon
Ollama v0.23.1, выпущенный 5 мая 2026 года, вводит спекулятивное декодирование Gemma 4 MTP (Multi-Token Processing) для MLX runner на Apple Silicon, обеспечивая более чем двукратное ускорение модели Gemma 4 31B на задачах кодирования. Релиз также включает исправления потоков MLX и MLX-C, а также обновление языка до Go 1.26.
Jama Connect 9.35 запускает первый MCP-сервер для управления инженерными требованиями
Jama SoftwareJama Software запустила официальный MCP-сервер для Jama Connect 9.35 4 мая 2026 года, став первой платформой управления инженерными процессами с нативной поддержкой MCP-сервера. Инженеры могут использовать Claude, Codex, Cursor, GitHub Copilot и другие ИИ-среды для запросов к требованиям и их итерации, тогда как существующие права доступа, жизненные циклы рабочих процессов и требования к аудиту применяются автоматически.