В мае этого года прошла конференция Google I/O 2025, где компания представила целый ряд технологических новинок и обновлений своих флагманских продуктов. В этой статье подробно пройдёмся по ключевым анонсам мероприятия.

Google Beam

Beam — это система для трёхмерных видеозвонков с эффектом присутствия собеседника. Проект основан на экспериментальной технологии Project Starline, но, в отличие от оригинала, стал более компактным, доступным и ориентированным под офисы и переговорные комнаты.

Главная особенность Beam — создание трёхмерной модели человека в реальном времени без применения AR и VR-гарнитуры. Для этого система использует:

  • Массив из 6 камер, которые снимают собеседника под разными углами и точно передают его мимику, жесты и микродвижения.  

  • ИИ и объёмную видеомодель. ИИ превращает отснятое видео в динамическую трёхмерную модель: воссоздаёт недостающие части, устраняет артефакты и делает проекцию максимально реалистичной.

  • Световое поле. Готовое трёхмерное изображение транслируется на специальный light-field дисплей — это создаёт эффект глубины и перспективы без дополнительной гарнитуры.

  • Пространственный звук с трекингом, который отслеживает положение головы и рта человека, чтобы точно синхронизировать аудио с виртуальным образом.

Кроме того, система практически сразу переводит иностранную речь, сохраняя тон, голос и мимику говорящего. 

Beam уже интегрирован с Google Meet и Zoom. Также планируется сотрудничество с Deloitte, Salesforce, Recruit и другими крупными брендами.

Gemini в Chrome

C 21 мая 2025 года Gemini доступен в Chrome для Windows и macOS, включая бета/канареечные/Dev‑сборки. Пока что нейросеть доступна только на английском языке и только для подписчиков Google AI Pro/Ultra в США. 

Gemini умеет:

  • извлекать ключевые тезисы из статьи или сайта; 

  • объяснять сложные термины и уточнять содержание страницы;

  • сравнивать характеристики, описания или идеи в пределах одной вкладки;

  • определять и описывать объекты на изображениях;

  • распознавать, что происходит на видео — например, может сформировать список ингредиентов и пошаговый рецепт из кулинарного ролика;

  • перефразировать текст страницы в нужном стиле. 

При этом нейросеть не может объединять данные из разных страниц — эта функция запланирована на будущее. Также разработчики обещают добавить поддержку новых регионов, а с 19 июня через Gemini в Chrome можно планировать действия для предстоящих задач и раз в неделю получать новости на релевантные темы. 

Imagen 4 и Veo 3

Veo 3 — новейшая ИИ-модель для создания реалистичных видео из текстовых подсказок. В отличие от прошлой версии, здесь можно генерировать ролики сразу со звуком — от диалогов и фонового шума до звуковых эффектов и музыки. 

Veo 3 поддерживает 4K-разрешение, лучше понимает промпты и отлично имитирует физику реального мира — учитывает массу объектов, скорость движения, поведение света и теней. Система использует возможности DeepMind в области video-to-audio ИИ и автоматически генерирует звук к видео. Также здесь можно использовать референсные изображения для сцен, объектов и персонажей.

В июне 2025 года у Veo 3 появился новый режим Fast — более быстрая и дешевая модель, которая рендерит ролики за 1-3 минуты и расходует на это в 5 раз меньше кредитов, чем оригинальная версия. При этом разрешение сгенерированных видео — от 720p до 1080p (в зависимости от подписки). 

Imagen 4 —  новая версия нейросети для генерации фотореалистичных изображений. Модель работает на Google DeepMind и поддерживает 2K-разрешение, лучше отрисовывает текст, четче выражает текстуры и отлично справляется со сбалансированным кадрированием. 

24 июня 2025 Imagen 4 официально доступен в Gemini API и Google AI Studio и состоит из двух пакетов — Ultra и Standard.   

Flow

ИИ-платформа для создания полноценных фильмов, которая сочетает возможности Veo 3, Imagen 4 и Gemini, где:

  • Veo 3 отвечает за реалистичную графику, физику мира, движения камеры и генерацию звука;

  • Imagen 4 дополняет Veo и прорабатывает мельчайшие визуальные детали: текстуры, освещение, отражения, фоновые элементы и художественные акценты;

  • Gemini управляет всей системой: интерпретирует текстовые запросы, помогает настроить сцену, отредактировать ролик или составить логичную последовательность видео. 

Ключевая особенность Flow — поддержка визуальной и сюжетной целостности между сценами. ИИ запоминает вид и поведение персонажей, объектов и окружения, а затем сохраняет их от сцены к сцене. Так ролики выглядят как полноценная история, а не набор случайных клипов.

Gemini 2.5 Pro с Deep Think

Deep Think — это экспериментальный режим для Gemini 2.5 Pro, который использует параллельное мышление и рассматривает несколько вероятных гипотез для решения одной и той же задачи.

Модуль Deep Think показал значительные успехи в высшей математике, программировании и мультимодальных рабочих процессах — здесь он опередил простую версию Gemini 2.5 Pro в среднем на 9%.

Также он стал лидером рейтингов WebDev Arena и LMArena, обогнав ChatGPT o3 Pro и DeepSeek.

Кроме того, 17.06.2025 состоялся релиз самой дешевой и быстрой модели Gemini 2.5 Flash-Lite. Она доступна в Google AI Studio, Gemini API, Vertex AI и оперирует данными от января 2025 года.

Project Aura

Это новые смарт-очки на базе ОС Android XR. Они немного крупнее обычных солнцезащитных аксессуаров и оснащены микрофонами, камерами, дисплеями, динамиками и чипом Qualcomm.

С помощью гаджета можно переводить меню в ресторане, слушать музыку, отвечать на звонки, делать фото, строить маршруты, а также распознавать объекты в реальном времени — например, если посмотреть на городскую достопримечательность, ИИ от Gemini покажет её историю. При этом очки можно в любой момент отрегулировать и переключиться с цифрового контента на реальный мир.

Разработчики обещают подробнее рассказать о Project Aura на будущей выставке Augmented World Expo. Релиз очков ожидается не раньше начала 2026 года.   

Stitch 

Stitch — инструмент для проектирования интерфейсов веб-приложений через текстовые подсказки, скетчи или скриншоты. Платформа сочетает визуальный редактор, ИИ-генератор кода и поддержку пользовательской логики внутри макета. 

Здесь можно настроить цветовую палитру, визуальный стиль, пользовательский путь, типографику и сценарии поведения интерфейса. На выходе получается один или несколько вариантов дизайна, которые можно:

  • скачать как HTML/CSS;

  • экспортировать в Figma с полноценными слоями;

  • продолжить редактировать внутри системы.

Бесплатная версия Stitch работает на Gemini 2.5 Flash, но пользователям Google One AI Premium доступна версия с Gemini 2.5 Pro — с глубоким анализом скриншотов, лучшим пониманием промптов и мультимодальностью.

Jules

Jules — это автономный ИИ-агент для кодирования, который напрямую подключается к репозиторию, копирует проект в изолированную среду Google Cloud и одновременно выполняет несколько задач:

  • анализ кода;

  • тестирование;

  • добавление новых функций;

  • исправление багов;

  • обновление зависимостей.

Система построена на Gemini 2.5 Pro и работает в фоновом режиме. При этом агент анализирует всю кодовую базу и принимает решения с учетом архитектуры, зависимостей и бизнес-логики проекта. В конце работы Jules показывает план действий, аргументацию решений и список изменений в коде.   

Протестировать новинку можно через Google Labs после регистрации. Также Google ведет открытый репозиторий на GitHub с примерами запросов, которые помогут быстрее освоить Jules.

AI Mode

Новая вкладка в Google Search на базе кастомизированной версии Gemini 2.5. Нейросеть работает с ChromeOS нативно и учитывает происходящее не только в браузере, но и в других приложениях. 

Из ключевых функций ассистента:

  • Контекстная помощь. Фиксирует, чем занят пользователь — пишет письмо в Gmail, оформляет документ в Google Docs или кодит в IDE — и предлагает релевантную поддержку. Например, ИИ может переделать фразу, улучшить стиль текста или объяснить кусок кода.

  • Мгновенные резюме. Если пользователь выделит статью или длинную переписку, AI Mode поможет составить их сжатое содержание.

  • Инструменты для письма и редактирования. В интерфейс Google Docs и Gmail добавлена генерация абзацев по плану, улучшение формулировок и корректировка стиля — например, «вежливее», «короче» или «формальнее».

  • Работа с графикой. ИИ может сгенерировать и отредактировать изображение — например, создать иллюстрацию по текстовому описанию, изменить фон на фото или составить аватар для презентации.

  • Поддержка кода. В AI Mode встроены элементы Gemini Code Assist. Он может анализировать код, дополнять фрагменты, объяснять работу функций и генерировать тесты.

Также в Search Labs можно протестировать глубокий поиск, виртуальную примерку одежды, визуализацию данных и другие возможности AI Mode.

AI Mode официально доступен всем пользователям из США и через Google Labs — для жителей Индии. 

Что еще показали на I/O 2025

На мероприятии в Google представили более 100 анонсов — среди них также заслуживают внимания:

  • Google Meet с переводом в реальном времени. Система переводит речь практически мгновенно и учитывает тон, темп и интонацию говорящего.

  • AI Ultra. Новый тарифный план с самыми высокими лимитами и передовыми возможностями. Сюда входят последние модели Gemini, расширенные функции Deep Research, ранний доступ к Veo 3, инструменты Flow и Whisk, а также повышенные лимиты в NotebookLM.

  • Project Astra. Голосовой ИИ-ассистент нового поколения, который видит, слышит и анализирует окружающий мир в реальном времени через камеру.  

Кроме того, на конференции презентовали SynthID Detector, обновленный Google Workspace, Firebase AI Logic и другие инновационные проекты.

Заключение     

Google I/O 2025 показала полную переориентацию компании на ИИ. От новых режимов Gemini до современных AR/VR-систем — нейросети буквально пронизывают всю экосистему продуктов Google.

Этот подход не только повышает удобство и персонализацию технологий компании, но и определяет инструменты, которые будут формировать цифровой опыт в будущем.

Комментарии (0)