Google представила крупное обновление своего AI-инструмента Stitch — теперь сервис умеет генерировать интерфейсы не только по текстовым запросам, но и по «настроению», голосу и абстрактным идеям. Фактически речь идёт о переходе к новому подходу в создании UI — без классических wireframe и прототипов.
Если коротко: Google продолжает двигать тему генеративного дизайна, и Stitch становится чем-то гораздо более гибким, чем просто инструмент для прототипирования. Напомню, сервис был впервые показан на Google I/O 2025 и до сих пор остаётся экспериментальным продуктом внутри Google Labs.
Что изменилось в Stitch
Главное нововведение — это так называемый «vibe design». Вместо того чтобы описывать интерфейс через конкретные элементы, можно задать общее настроение или идею, а AI уже сам предложит варианты дизайна. По сути, это попытка уйти от жёсткой логики UX к более интуитивному процессу.
Второй важный момент — бесконечный AI-холст. Google добавила полноценное пространство, где можно одновременно работать с текстом, изображениями и кодом. Всё это объединено в единый рабочий процесс — от идеи до прототипа.
Отдельно отмечу голосовое управление через Gemini Live. Теперь с интерфейсом можно буквально разговаривать: попросить показать несколько вариантов меню, изменить цветовую палитру или перестроить экран — и всё это в реальном времени.
Также появился агентный подход. Новый design-агент анализирует проект целиком, а Agent Manager помогает управлять задачами и идеями. Это уже напоминает концепцию агентных систем, о которых сейчас всё чаще говорят в индустрии.
Из практичных вещей — Stitch теперь может извлекать дизайн-систему прямо из URL. Плюс добавили поддержку файла DESIGN.md, который позволяет переносить правила дизайна между проектами и инструментами.
Почему это важно
Если смотреть шире, Google фактически пытается изменить сам процесс создания интерфейсов. То, что раньше требовало работы в Figma или других инструментах, постепенно превращается в диалог с AI.
И это напрямую пересекается с тем, о чём я уже писал в материале про практическое применение ИИ: инструменты перестают быть вспомогательными и начинают брать на себя основную часть работы.
Stitch уже умеет превращать статичные макеты в интерактивные прототипы. Можно запустить сценарий, «кликать» по интерфейсу и получать автоматически сгенерированные следующие экраны. Это сильно ускоряет этап тестирования идей.
Пока это всё выглядит как эксперимент, но тренд очевиден: UI-дизайн всё больше уходит в сторону генерации и автоматизации. Вопрос уже не в том, заменит ли AI дизайнеров, а в том, как сильно изменится их роль.
Интересно, что Google также открывает интеграции через MCP-сервер и SDK, позволяя подключать сторонние AI-инструменты вроде Cursor или Gemini CLI. Это делает Stitch частью более широкой экосистемы.
Источник: Neowin




