Ежедневный дайджест
13 пунктов · ~13 мин · Неделя 2026-W20
Обязательно к прочтению (1)
Google анонсировала Gemini Intelligence для Android с автоматизацией задач между приложениями
GoogleНа мероприятии Android Show: I/O Edition 12 мая 2026 года Google представила Gemini Intelligence — набор AI-функций, обеспечивающих многошаговую автоматизацию задач между приложениями, интеллектуальное автозаполнение, инструмент преобразования речи в текст Rambler и конструктор виджетов на естественном языке. Gemini в Chrome позволит пользователям резюмировать и запрашивать веб-контент. Функции будут доступны на устройствах Samsung Galaxy и Pixel летом 2026 года, на остальных Android-устройствах — позднее в том же году.
Стоит знать (6)
Anthropic ведёт переговоры о привлечении $30 млрд при оценке $900 млрд
AnthropicBloomberg сообщил 12 мая 2026 года, что Anthropic ведёт предварительные переговоры о привлечении не менее $30 млрд при оценке, превышающей $900 млрд, — что сделает компанию дороже OpenAI. Раунд может закрыться уже в конце мая и предназначен для финансирования вычислительной инфраструктуры в целях удовлетворения растущего спроса на Claude. По имеющимся данным, Anthropic также рассматривает возможность IPO уже в октябре 2026 года.
DeepSeek привлекает $7,35 млрд в первом внешнем раунде при оценке $50 млрд
DeepSeekDeepSeek ведёт переговоры о привлечении до CNY 50 млрд (~$7,35 млрд) в своём первом внешнем раунде финансирования, что оценит ранее самофинансируемую ханчжоускую лабораторию примерно в $50–51,5 млрд. Государственный Национальный инвестиционный фонд AI-индустрии Китая ведёт переговоры о лидерстве в раунде; по имеющимся данным, к участию также рассматриваются Tencent и Alibaba.
Qwen-Image-2.0: унифицированная генерация и редактирование изображений в разрешении 2K, первое место на AI Arena
AlibabaQwen-Image-2.0 — унифицированная модель генерации и редактирования изображений, объединяющая Qwen3-VL в качестве энкодера условий с Multimodal Diffusion Transformer. Поддерживает промпты до 1000 токенов, генерирует изображения в нативном разрешении 2K и занимает первое место на AI Arena в категориях text-to-image и редактирования изображений — при этом сокращая число параметров с 20B до 7B по сравнению с предшественником.
Google DeepMind переосмысляет курсор мыши с AI-интеграцией Gemini
Google DeepMindGoogle DeepMind опубликовала исследовательский блог 12 мая 2026 года, описывающий AI-курсор на базе Gemini, способный понимать как то, на что указывает пользователь, так и контекстуальное значение этого объекта. Технология интегрируется в Chrome и новое устройство Googlebook; экспериментальные демо доступны в Google AI Studio для редактирования изображений и навигации по картам. Система основана на четырёх принципах взаимодействия: поддерживать поток, показывай-и-говори, принимай естественные сокращения, превращай пиксели в действенные сущности.
OpenAI запускает кибербезопасностную инициативу Daybreak на базе моделей GPT-5.5
OpenAI12 мая 2026 года OpenAI запустила Daybreak — кибербезопасностную инициативу на основе AI, объединяющую GPT-5.5 и Codex Security для помощи организациям в обнаружении, верификации и устранении уязвимостей до их эксплуатации. Платформа предлагает три уровня: стандартный GPT-5.5, вариант Trusted Access for Cyber для авторизованной защитной работы и GPT-5.5-Cyber для red teaming. В числе партнёров-основателей — Akamai, Cisco, Cloudflare, CrowdStrike, Fortinet, Oracle, Palo Alto Networks и Zscaler.
Видеомодель Google Gemini «Omni» появляется в ранних демо накануне I/O 2026
Google DeepMind11 мая 2026 года в интерфейсе приложения Gemini появилась новая видеомодель «Omni»; ранние демо от пользователей Gemini Pro демонстрируют сильные возможности редактирования — удаление водяных знаков, замену объектов в чате и переработку сцен. Модель описывается как «микшируй свои видео, редактируй прямо в чате» и, по имеющимся данным, потребляла 86% дневной квоты AI Pro пользователя на одну генерацию, что указывает на высокие вычислительные требования.
Справочно (6)
NanoResearch: совместная эволюция навыков, памяти и политики для персонализированной AI-автоматизации исследований
Shanghai AI LabNanoResearch — мультиагентный фреймворк для персонализированной AI-автоматизации исследований, в котором совместно эволюционируют три компонента: банк навыков с переиспользуемыми процедурными знаниями, модуль памяти, сохраняющий историю пользователя и проекта, и безлейбловый механизм обучения политике, интернализирующий предпочтения пользователя через свободную обратную связь. Система достигает 100% успешности сквозного пайплайна в раунде 1, превосходя все базовые решения.
TMAS: масштабирование тестового вычисления через синергию мультиагентов с иерархической памятью
TMAS масштабирует тестовое вычисление посредством структурированной мультиагентной координации, используя две иерархические системы памяти — банк опыта для надёжных промежуточных результатов и банк рекомендаций для исследованных стратегий — наряду с гибридной схемой обучения с подкреплением на основе вознаграждений. Подход предотвращает избыточные вычисления в параллельных траекториях рассуждений и обеспечивает превосходное масштабирование на сложных бенчмарках по рассуждению.
vLLM v0.21.0rc1: поддержка Python 3.14, CUDA 13.0 и Transformers v5
vLLM опубликовал релиз-кандидат v0.21.0rc1 12 мая 2026 года, включающий PyTorch 2.11, поддержку Python 3.14, CUDA 13.0 в качестве нового дефолта и совместимость с Transformers v5. Этому предшествовал v0.20.2 (10 мая), который был отозван из-за ошибки в tensor parallelism.
Alibaba обновляет Qwen AI Glasses S1, добавляя проактивный AI и пространственный 3D-дисплей
AlibabaAlibaba выпустила значительное программное обновление для своих умных очков Qwen AI Glasses S1, добавив проактивный AI, который выводит контекстуальные напоминания на основе данных о погоде, местоположении и календаре без участия пользователя, а также систему пространственного 3D-дисплея. Обновление углубляет интеграцию с китайскими суперприложениями для вызова такси, доставки еды и планирования поездок; устройство остаётся эксклюзивным для Китая по цене ¥3 799 (~$537).
Яндекс Карты добавили AI-генерируемые голосовые подсказки по ориентирам по всей России
YandexЯндекс объявил 12 мая 2026 года, что приложения Карты и Навигатор теперь произносят AI-генерируемые голосовые подсказки с упоминанием узнаваемых городских ориентиров — например, «Поверните направо у магазина» или «Держитесь левее у памятника через 200 метров». Система охватывает более 10 000 ориентиров по всей России; AI определяет оптимальное расположение подсказок по ориентирам вдоль каждого маршрута.
llama.cpp добавляет поддержку gpt-oss-20b в сборке от 12 мая
Релиз llama.cpp от 12 мая 2026 года добавил поддержку локального запуска модели OpenAI gpt-oss-20b, а также предсобранные бинарные файлы для macOS (Apple Silicon и Intel), Linux (бэкенды Vulkan, ROCm, OpenVINO, SYCL), Android и Windows с CUDA 12.4.