Обновления Google I/O 2025 интеграция ИИ в повседневную жизнь

Май 22, 2025 / 15:28

На конференции Google I/O 2025 компания анонсировала значительные обновления, сосредоточив внимание на внедрении искусственного интеллекта (ИИ) в повседневные задачи пользователей.

Эксперты говорили о том, как новые инструменты повлияют на поведение людей в интернете и какое влияние окажет интеграция нейросетей в их жизнь. Главное направление разработки – ИИ Gemini, который будет использоваться в различных сервисах.

Обновления Google I/O 2025 интеграция ИИ в повседневную жизнь

Например, Gmail будет генерировать «возможные ответы», основываясь на анализе содержимого электронных писем и документах на Google Диске. Это позволит пользователям получать подсказки не только на основе текущей переписки, но и других данных из аккаунта.

Кроме того, Google представила нейросетевой переводчик для платформы Google Meet, который обеспечит синхронный перевод с учетом интонации. Пользователи смогут выбирать язык перевода, что существенно упростит общение с зарубежными собеседниками.

Также ведутся работы над улучшением безопасности пользователей; браузер Google Chrome будет автоматически менять слабые пароли, генерируя новые варианты. Однако пользователи должны учитывать, что ИИ будет иметь доступ к информации из их Google аккаунта, что может вызывать определенные опасения.

В целях безопасности компания разрабатывает локальные модели, позволяющие выполнять операции без передачи данных в облако, а также инструмент SynthID Detector для проверки изображений на предмет синтетического происхождения, что поможет в борьбе с дезинформацией.

Полноценная безопасность данных зависит от настроек доступа, как у разработчиков, так и у пользователей, подчеркивает Иван Никанов, заместитель директора Исследовательского центра ИИ Университета Иннополис.

В рамках своих сервисов компания планирует внедрить функцию виртуальной примерки одежды, которая на основе фотографии пользователя в полный рост создаст ИИ-модель. Это даст возможность оценить, подходят ли обнаруженные вещи. Пользователи смогут сохранять и делиться сгенерированными изображениями.

Корпорация предлагает интеграцию ИИ в повседневные рабочие процессы, используя нейросеть как ИИ-агента. Новый инструмент «Gemini» объединит различные сервисы, позволяя искать информацию в интернете и контролировать выполнение до десяти задач одновременно.

Ведущий аналитик Mobile Research Group, Эльдар Муртазин, отмечает, что ИИ-агенты уже начинают занимать свою нишу, напоминая переход к использованию компьютеров или текстовых редакторов. Они не предназначены для замены профессионалов, а призваны повысить продуктивность и эффективность работы.

Несмотря на отсутствие широко используемых ИИ-продуктов в повседневной жизни, эксперты видят в этом только начало. В дополнение к этому, Google запускает генеративный инструмент «Stitch», предназначенный для разработки пользовательского интерфейса, что позволит значительно сократить время на создание дизайна благодаря полезным подсказкам.

Новый инструмент будет автоматически генерировать пользовательские интерфейсы, учитывая предпочтения в темах, цветовых палитрах и спецификациях использования.

Он также будет способен распознавать черновые схемы и создавать интерфейсы на их основе. Нейросети оказывают значительное влияние на создание контента, и Google активно делает ставку на разработчиков.

На недавней конференции компания представила инструменты для кодирования и генерации мультимедийного контента. Примеры включают бета-версию кода-агента «Jules», который работает в фоновом режиме, исправляя ошибки и добавляя новые функции для разработчиков.

Также был представлен новый план подписки «AI Ultra», стоимостью около 250 долларов в месяц, который предоставляет доступ к наиболее мощным моделям ИИ и сервисам, включая режим глубокого анализа для написания кода и инструмент «Flow» для создания изображений и видеороликов. Данный сервис позволит пользователям генерировать восьмисекундные видеоролики на основе фотографий и текстовых запросов.

Перемены затрагивают и поиск информации: в Google появились функции «AI Mode», позволяющий задавать более сложные вопросы, а также встроенная умная камера, которая может находить объекты в режиме реального времени.

Кроме того, была представлена разработка «Astra» — универсальный мультимодальный помощник, который в будущем объединит в себе возможности генерации контента и анализа больших данных.

По материалам: news.rambler.ru