За последние пару дней мир ИИ собрал сразу несколько сигналов о том, что агентные системы выходят из лабораторий в продукты, а рядом с ними эволюционируют модели для науки, инструменты для разработчиков и требования к безопасности. Я выбрал самые важные анонсы — от роботов, которые воспринимают и используют инструменты, до решений для безопасного запуска агентов и оптимизации инфраструктуры.
DeepMind представил практичный шаг в сторону автономных машин: Gemini Robotics — модель, которая умеет воспринимать окружение, рассуждать, использовать инструменты и взаимодействовать с людьми и объектами, что приближает роботов к реальным задачам вне цеха.
В дополнение к этому DeepMind выпустил агентную платформу для виртуальных миров — SIMA 2, агент, который играет, рассуждает и учится вместе с пользователем, давая удобную среду для исследований обучения с подкреплением и мультизадачных навыков.
DeepMind не ограничивается агентами: их проект AlphaFold снова напоминает, как большие модели меняют науку — точное предсказание белковых структур продолжает ускорять биологические исследования и разработку лекарств.
Чтобы связать моделирование и клиническую диагностику, DeepMind опубликовал каталог AlphaMissense, помогающий находить причины редких генетических заболеваний через анализ вариаций в белках.
На макроуровне DeepMind показал, как модели помогают картографировать планету: AlphaEarth Foundations обещает беспрецедентную детализацию для наблюдения за землепользованием и экологией.
В области предсказания погоды DeepMind представил WeatherNext — быструю и точную систему на базе ИИ для краткосрочных прогнозов, что уже влияет на сельское хозяйство, энергетику и логистику.
Пока технологии ускоряются, вопросы безопасности становятся критичнее: OpenAI опубликовала практики по безопасности для агентов, которые кликают ссылки и взаимодействуют с внешними ресурсами, предлагая рекомендации по снижению рисков фишинга и исполнения вредоносного кода.
Аудиторы и консультанты бьют тревогу: Deloitte предупреждает, что развертывание агентных систем опережает создание адекватных нормативов и фреймворков безопасности, и предлагает компаниям срочно выстраивать внутренние правила.
Исследователи Google обсуждают, когда и почему масштабирование агентных систем действительно работает: в материале Towards a science of scaling agent systems — практические наблюдения и методики для тех, кто строит сложные многозадачные агенты.
Браузеры и платформы становятся хозяевами агентов: Chrome усиливает интеграцию с Gemini, добавляя агентные функции для автономных веб‑задач — это шаг к браузеру как роботу‑ассистенту.
Игровой и рабочий мир тоже меняется: Moonshot показал Kimi K2.5, инструмент для быстрого развёртывания «роев» агентов, что облегчает эксперименты с координацией множества ИИ‑агентов.
Между тем производственные и корпоративные сценарии получают инфраструктурную поддержку: Model Vault от Cohere предлагает выделённую защищённую платформу для запуска моделей — важно для компаний, которые хотят контролировать приватность и соответствие при выводе моделей в продакшен.
Конкуренция в моделях рассуждения растёт: Alibaba анонсировала Qwen3‑Max‑Thinking, тестируемую модель с нативной поддержкой использования инструментов, ориентированную на агентные рабочие нагрузки и сложное рассуждение.
Anthropic продолжает интегрировать ИИ в рабочие процессы: Claude теперь может работать с Slack, Figma и Asana, превращая чат в командный центр; одновременно ServiceNow выбрал Claude для своих клиентских приложений, а интеграция Asana с Claude подчёркивает, что модели нуждаются в бизнес‑данных, чтобы решать реальные задачи.
Наконец, стартапы и инструменты для надёжности разработки получают инвестиции: Theorem привлёк $6M на предотвращение багов, сгенерированных ИИ, а Handshake приобрёл Cleanlab, усилив возможности по чистке и маркировке данных для обучения.
