В этой статье я дал вам один инструмент (отвертку), а в телеграм канале лежит много пользы, инструментов и видео.

Перейти в канал

Строительство агентов в opal gemini

Всю эту неделю я отстроил разных агентов. Не могу сказать, что все агенты были как агент 007. Часть из них была скорее как агент 007 в исполнении мистера Бина или Галустяна.

Расскажу про Opal от Gemini. Про Claude Code не буду рассказывать, про него многие рассказывают. А Opal от Gemini — интересный инструмент с каким-то печальным пиаром. Например, на Reddit на сообщество подписано 13 человек. Кейсы на Reddit в большинстве своем от Джулиана Голди. Не исключаю, что за него робот писал.

В чем его фишка — это в том, что не нужно API, смены платформ. Достаточно задать вопрос с описанием идеи приложения (например: «вот выжимка, сделай из нее инфографику и видео»), и он автоматически создает схему с блоками обработки данных. Как идея — супер, но реализация ужасающая. Он создает контент-завод так, как если бы это был завод, который развалили после приватизации: картинки с бредотекстами, ролики попсовые, тексты банальные. Юридически не подкопаешься: контент есть, но реализация ужасающая.

Это я не отвращаю, просто говорю, что путь работы с ним нелегкий.

Кейсы использования Opal c реддит

Вот реальные кейсы использования Google Opal — только то, что люди реально делали, без сложных интеграций и подключений сторонних сервисов. Чисто работа с самим Opal и его возможностями:

Кейс 1. Empathy‑карта пользователя (Мэрили, рассылка PM‑guide)

Что сделали: ввели промпт «Любители сериальных марафонов на Netflix».

Что получилось: Opal сгенерировал визуальную персону «Хлоя "Уютный стример"» с разделами Говорит / Думает / Делает / Чувствует и добавил изображение.

Сколько времени заняло: 10 минут вместо нескольких часов ручной работы.

Нюанс: если промпт слишком общий, результат будет шаблонным. Чем детальнее запрос, тем лучше итог.

Кейс 2. User Journey Map (Мэрили)

Что сделали: дали промпт «Старшеклассник, подающий документы в колледжи онлайн».

Что получилось: Opal построил визуальный путь пользователя и создал роли (визуальный рассказчик, дотошный составитель выжимок).

Сколько времени заняло: около 5–7 минут.

Нюанс: для финальной презентации всё равно нужно доработать в Figma — Opal даёт только быстрый прототип.

Кейс 3. Генератор обучающих викторин (Грейс Люнг)

Что сделали: загрузили в Opal текст учебного модуля (например, по основам маркетинга — 500–700 слов).

Что получилось: Opal выделил ключевые понятия и термины, составил 10 тестовых вопросов с 4 вариантами ответа и добавил краткие пояснения к правильным ответам.

Сколько времени экономит: до 2 часов ручной работы на создание викторины.

Нюанс: иногда вопросы получаются слишком простыми — стоит добавить уровень сложности в промпт.

Кейс 4. Анализ отзывов клиентов (Джулиан Голди)

Что сделали: скопировали 15–20 отзывов о продукте из Google Maps и вставили в Opal.

Что получилось: Opal сгруппировал отзывы по темам (цена, качество, сервис), выделил общие плюсы и минусы, составил краткий отчёт с выводами.

Сколько времени заняло: 8–10 минут.

Нюанс: с очень короткими отзывами (1–2 слова) система работает хуже — лучше выбирать развёрнутые комментарии.

Кейс 5. Создание структуры презентации (Алекс Финн)

Что сделали: ввели промпт с темой презентации («Как внедрить ИИ в малый бизнес») и указали целевую аудиторию (владельцы кафе и магазинов).

Что получилось: Opal сгенерировал план из 8 слайдов с заголовками, краткие тезисы для каждого слайда и рекомендации по визуалу (где добавить график, фото, схему).

Сколько времени экономит: около часа ручной проработки структуры.

Нюанс: финальный дизайн и детализация всё равно требуют ручной работы — Opal даёт каркас.

Кейс 6. Извлечение данных из чеков (Грейс Люнг)

Что сделали: загрузили PDF‑чек в Opal.

Что получилось: система распознала и выписала дату покупки, общую сумму и категорию расхода (офис, еда, транспорт и т. д.).

Сколько времени экономит: до 15 часов в месяц при регулярной обработке.

Нюанс: хуже справляется с рукописными чеками или нестандартными форматами — лучше проверять результат.

Кейс 7. Прототип лендинга (Энди Ло)

Что сделали: описали в промпте концепцию продукта и целевую аудиторию.

Что получилось: Opal сгенерировал макет лендинга с заголовком и подзаголовком, блоком преимуществ и формой квиза (3–4 вопроса).

Сколько времени заняло: 15 минут на черновик.

Нюанс: это только прототип — для публикации нужно доработать дизайн и структуру.

Итоги

По сути, это крутая история для теста и медитаций, чтобы создать схему в других инструментах. Например: делаете, возникает на азарте идея, и вы бежите реализовывать ее в n8n. Подходит для быстрой генерации идей и черновиков: обработка данных, макеты, тесты, прототипы.

Реальные кейсы использования Opal в Gemini

Как я в нем работаю в начале: просто даю какую-нибудь команду (действительно это могу делать внутри Gemini Gems или захожу на страницу Opal), и мне автоматом создается какой-то сценарий. Я уже дальше смотрю внутренности блоков. По умолчанию Google очень жадный. Он ставит самые тупые модели внутрь блоков и количество блоков он сокращает. Например, вам нужно сделать выжимку транскрипта по разным вопросам — он вместо создания многих блоков размещает все в один. В результате слабая модель невнимательно смотрит текст, и на выходе мы получаем поверхностный ответ.

Я вот много экспериментировал, покажу внизу конкретные скриншоты своих схем, и что заметил: работает, конечно же, тут история, когда вы делаете много блоков. Например, вот сделал себе агента, который задает вопросы по транскрипту. Вопросы он должен задавать для написания статей, причем эти вопросы должны быть для NotebookLM, а не просто интервью. Поэтому у меня один блок задает вопросы в стилистике крутых ведущих: Ксении Собчак, Опры Уинфри, Познера. В другом блоке задаются вопросы для адаптации контента транскрипта под vc.ru и Дзен. Третий блок уже отвечает за SEO, и там вопросы для оптимизации по брендовой семантике.

Также у меня есть бот, который из транскрипта выявляет SEO-сущности: сторителлинг, проблемы и решения, полезняшки. И эти данные я потом отдаю ИИ, и она пишет супер-статьи. При этом сам Opal жадный, у него внутри модели пишут плохо статьи. Там нет даже последних версий Gemini 3.1 Pro, а на версию 3.0 Pro заканчиваются квоты.

Хорошая новость: недавно они туда разместили агента. То есть я могу выбрать не ИИ, а агента. Тогда уже нейронная сеть начинает подтягивать еще и огненные функции. То есть выбирает сама модель, что необходимо для действий, может перераспределять задачи по оркестрации между блоками (с переменным успехом). Я вот делал схему, когда ИИ должна была разбить текст на части, и видел: Gemini написал код на питоне для этой задачи. То есть агент не просто в ИИ засунул задачу, но и еще делал там оркестраторские задачи. При этом сценарий сломался, так как не хватило квоты.

Opal обновил список моделей. Главное изменение — агент теперь первый в списке

Раньше при создании ноды нужно было выбирать модель вручную: Gemini 3 Flash, 2.5 Flash, 2.5 Pro, 3 Pro, Plan and Execute, Deep Research — длинный список, в котором легко ошибиться. Flash терял середину длинных текстов, Pro падал по таймауту, Plan and Execute не всегда понимал задачу правильно.

Теперь список сократили вдвое. Убрали промежуточные версии и специализированные режимы. Вместо них — Agent первым пунктом с описанием "может использовать любые модели".

Логика простая: не выбирай модель сам, поставь агента — он разберётся.

На практике это выглядит так: агент получает задачу, сам решает нужен ли здесь код или промпт, берёт подходящую модель и выполняет. При работе с трёхчасовым транскриптом он написал Python-скрипт для разбивки на чанки за несколько минут — без инструкций какую модель использовать и как именно резать текст.

Из минусов — квота API расходуется быстрее, потому что каждый шаг рассуждений агента это отдельный вызов. На большом неструктурированном тексте можно упереться в лимит раньше чем задача завершится.

Как мы полдня убили на пайплайн, который ИИ собрал за 10 минут

У меня был трёхчасовой транскрипт панельной дискуссии по арт-маркетингу. Реальные кейсы, живые цитаты, метрики. Задача — превратить это в три материала: статья для VC.ru, лонгрид для Дзена, пак постов для соцсетей.

Я собрал пайплайн из 5 параллельных нод в Opal. Каждая нода читала весь транскрипт и вытаскивала своё: имена, SEO-запросы, вирусные хуки, факты для VC.ru, темы для Дзена. Потом White Paper Writer собирал из этого статью, финальная нода склеивала всё через "---".

Логика железная. Результат — катастрофа.

Проблема первая: надувной слон везде

Все пять нод читали один и тот же текст. Все пять вытащили одни и те же яркие кейсы — надувного слона в ММОМА, светящегося паука, рассылку шарфов Disney с конверсией 50%. Финальная нода честно склеила пять копий одного и того же. Документ вырос в пять раз, полезная информация не прибавилась ни на байт.

Проблема вторая: середина транскрипта пропала

Flash-модели хорошо держат начало и конец длинного текста. Середина трёхчасового транскрипта — это тёмная зона. Ноды её просто не замечали. Ставишь дорогую модель — она падает по таймауту. Ставишь Flash — она теряет контекст.

Попытка первая: запреты на пересечение

Я переписал промпты. Layer 1 — только имена, никаких кейсов. Layer 3 — только цитаты, никаких имён. Layer 4a — только механики кейсов, никаких цитат. Дублирование между нодами снизилось. Но середина транскрипта всё равно терялась — каждая нода всё равно читала весь текст целиком.

Попытка вторая: чанкинг

Добавил нулевую ноду — она разбивала транскрипт на части по спикерам. Пять нод должны были получать разные куски. Но Opal устроен иначе: он передаёт полный вывод ноды дальше, а не выборочно. Все пять нод получали весь текст. Итог: пять почти идентичных JSON на один и тот же чанк, с разными написаниями одного имени ("Тащян" / "Тащн" / "Тащн") и разным количеством сущностей — от 9 до 17 штук на один блок.

Что сработало

Агент написал Python-скрипт, который разрезал транскрипт по изменениям спикеров и сгенерировал структурированный JSON с чёткими границами чанков. Не нода с промптом "раздели по смыслу" — а именно код. Дальше Flash обрабатывал простые задачи, Pro — сложные, агент сам решал что куда. Деdup-шаг убрал дубли после параллельной обработки.

Полдня ручной настройки нод против 10 минут агента. Разрыв не в скорости — в подходе. Ноды с промптами плохо справляются с неструктурированным длинным контентом. Код режет точно, агент маршрутизирует задачи правильно.

Главный инсайт

Самый ценный результат за весь эксперимент вышел не из пайплайна. Три инсайта — метод Эпине с управляемым скандалом, конверсия 50% на рассылке шарфов, читательский клуб Ruarts с LTV выше ожидаемого — их вытащил White Paper Writer поверх сырых данных одним запросом. Без пяти нод, без чанкинга, без дедупликации.

Иногда один хороший промпт лучше, чем архитектура из семи нод.

Made on
Tilda