Lucy 2.0: Аватар в вашей web камере - Видеопродакшн Zilant Pro

Lucy 2.0: Аватар в вашей web камере


ИИшница №92



Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.

Сегодня в выпуске: AI-новости недели: Lucy 2.0, Luma Agents, Runway Characters
Higgsfield Soul Cast и Soul Cinema — AI-актёры и кинематографичные кадры
Freepik Speak, LTX 2.3 и вертикальное AI-видео
OpenClaw AI-агенты и вирусный тренд AI-детского стендапа 🎬



#1. Lucy 2.0: Аватар в вашей web камере


Стартап Decart AI представил Lucy 2.0 — нейросеть, которая подключается к веб-камере и в реальном времени создаёт персонажа, повторяющего мимику, жесты и движения головы пользователя. На сайте доступна публичная демо-версия: после небольшой очереди нужно разрешить доступ к камере, выбрать одного из готовых персонажей или загрузить собственное изображение. Во время разговора аватар синхронно повторяет движения пользователя; при использовании загруженной фотографии реакция может происходить с заметной задержкой.

После окончания тестовой сессии сервис предлагает перейти на платформу DeluluStream. Это инструмент для интерактивных стримов, где зрители через чат могут менять происходящее в кадре: запускать эффекты, менять внешний вид стримера или окружение сцены. Такие действия можно привязать к донатам или платным реакциям, превращая их в часть монетизации трансляции. Платформа также позволяет отправлять поток сразу на YouTube, Twitch, TikTok и другие сервисы, а также делиться сигналом через OBS. Качество трансляций пока нестабильное, но идея интерактивного стриминга с управлением от зрителей уже тестируется в открытом доступе.



Источник: https://x.com/krea_ai/status/2028496804124496057?s=20



#2. Luma запускает AI-агентов для брендов



Luma AI представила Luma Agents — систему AI-агентов, которые помогают брендам создавать маркетинговые материалы через диалоговый интерфейс. После входа на сайт предлагается выбрать тип проекта: фирменный стиль, инфографику, продуктовые изображения, презентацию или рекламный ролик. Пользователь общается с агентом в чате, описывает продукт и задачи, после чего система задаёт уточняющие вопросы и помогает сформулировать концепцию будущей кампании. Даже без готовой идеи агент предлагает направления и варианты, которые можно утвердить или скорректировать.

Когда концепция согласована, агент собирает сториборд будущего ролика: генерирует сцены, создаёт изображения и подготавливает набор кадров, из которых затем формируется видео. В демонстрациях показано, что для генерации изображений используются внутренние инструменты Luma, включая Nano Banana Pro. Далее агент начинает создавать короткие видеосцены и объединять их в последовательность. В интерфейсе отображается весь процесс работы: какие задачи выполняются, какие сцены создаются и какие шаги система делает дальше. Таким образом ролик постепенно собирается прямо в ходе диалога с агентом.




Источник: https://x.com/gravicle/status/2031118874205368720?s=20




#3. Higgsfield Soul Cast решает проблему пластика в AI



Higgsfield представила Soul Cast — систему AI-кастинга в Cinema Studio 2.0, которая пытается решить одну из главных проблем AI-видео: неестественных «пластиковых» персонажей и эффект зловещей долины. Вместо простой генерации лица пользователю предлагают собрать актёра по параметрам, как на настоящем кастинге. Можно выбрать жанр будущего проекта — от хоррора до ситкома, задать эпоху, а также архетип персонажа: герой, бунтарь, мудрец или любовник. Дополнительно настраиваются возраст, внешность, телосложение, рост, цвет глаз и волос, причёска и детали вроде шрамов, веснушек или татуировок.

Созданный персонаж затем сохраняет консистентность во всех сценах, выступая как постоянный «актёр» для будущих генераций. В интерфейсе также есть необычный параметр — производственный бюджет в миллионах долларов: он влияет на общий визуальный стиль и уровень «полировки» сцены и персонажа. После генерации образ можно выкупить примерно за 5 долларов, получив права на его использование. Таким образом Higgsfield предлагает рассматривать создание персонажей как отдельный этап подготовки AI-фильма — аналог кастинга перед съёмками.


Источник: https://x.com/higgsfield/status/2031453962394906719?s=20




#4. Freepik Speak создаёт говорящее AI-видео на 5 минут



Freepik запустила инструмент Freepik Speak, который превращает статичное изображение в говорящий видеоролик с автоматическим липсинком. Пользователь загружает фото — например модель, продукт, иллюстрацию или AI-картинку — и добавляет текст либо голосовую запись. Система синтезирует речь и анимирует изображение, создавая talking-video. Поддерживаются кастомные голоса и более 30 языков, а заявленная длительность ролика может достигать пяти минут.

Инструмент доступен в тарифе Premium Freepik примерно за 15 долларов в месяц. Интерфейс позволяет загрузить изображение или видео, написать текст, записать голос или попробовать клонирование голоса через собственное аудио. Русский язык присутствует в списке и корректно озвучивается, также доступны разные эмоции речи. При тестировании короткий ролик около 12 секунд обошёлся примерно в 7 долларов, а качество липсинка выглядит средним по сравнению с HeyGen. Кроме того, загрузка аудио в интерфейсе ограничена примерно 15 секундами, поэтому не совсем ясно, где именно реализуется заявленная длительность ролика до пяти минут.




Источник: https://x.com/freepik/status/2031403530049957940?s=20




#5. AI-дети выходят на стендап на русском языке.



В соцсетях набирает популярность формат «детского AI-стендапа». В таких роликах маленький ребёнок выступает на сцене как стендап-комик: с микрофоном, прожектором и реакцией зала. Видео выглядит реалистично — с паузами перед панчлайнами, жестами и интонацией выступления. Контраст между образом ребёнка и «взрослым» юмором делает такие ролики особенно вирусными, поэтому формат быстро распространяется в коротких видео.

Один из способов собрать такой ролик — использовать несколько AI-инструментов. Сначала в Higgsfield через Nano Banana Pro создаётся изображение персонажа на основе нескольких фотографий ребёнка. Затем картинка анимируется в видео-генераторе Kling 3.0: модель генерирует короткую сцену стендап-выступления и озвучивает текст, обычно на английском языке. После этого ролик можно перевести на другой язык через инструмент перевода и дубляжа, который синхронизирует речь с губами персонажа. При таком переводе обычно меняется только голос, тогда как фоновые звуки вроде смеха аудитории могут не сохраняться.




Источник: https://www.instagram.com/reel/DVfjkKeE-CQ/


#6. Пенсионеры стоят за AI-агентами



В китайском городе Shenzhen люди выстроились в очередь, чтобы установить OpenClaw — систему автономных AI-агентов. Мероприятие организовала Tencent: участники приходили с ноутбуками и ждали помощи инженеров, чтобы установить агента на свой компьютер и сразу начать пользоваться. Среди посетителей были не только разработчики, но и школьники, молодые специалисты и пенсионеры. Сам формат выглядел необычно: вместо презентаций и лекций людям помогали прямо на месте развернуть AI-агента и настроить его работу.

OpenClaw позиционируется как автономный агент, способный выполнять цепочки задач без постоянного участия пользователя: искать информацию, анализировать данные, писать тексты, управлять сервисами и автоматизировать рабочие процессы. Параллельно власти района Лунган обсуждают поддержку концепции «компании одного человека», где предприниматель управляет бизнесом с помощью таких агентов. Один из пользователей, например, автоматизировал производство новостных роликов для соцсетей: агент собирает новости по заданной теме, генерирует текст и публикует видео с цифровым аватаром ведущего. При этом разработчики и эксперты отмечают, что подобные системы требуют аккуратной настройки прав доступа, поскольку агенты могут самостоятельно выполнять длинные цепочки действий и подключаться к внешним сервисам.


Источник: https://vc.ru/ai/2786215-pensionery-v-shenchzhene-ustanavlivayut-ii-agentov-openclaw



#7.  LTX Studio научили модель думать вертикально



LTX Studio выпустила обновлённую модель LTX 2.3, в которой переработана генерация вертикального видео. Теперь система изначально создаёт сцены под формат Shorts, TikTok и Reels, а не обрезает горизонтальный кадр, как это часто делают другие генераторы. Модель обучали на большом массиве вертикального контента, поэтому композиция кадра, движения камеры и расположение персонажей сразу рассчитываются под вертикальный экран.

Помимо этого улучшено понимание текстовых промптов, более стабильной стала генерация текста внутри кадра, а движения персонажей выглядят плавнее. Также появилась функция start и end frame: можно задать начальный и финальный кадр, а модель самостоятельно достроит промежуточную часть сцены. Вместе с обновлением представили LTX Desktop — отдельное приложение для локального запуска моделей, редактирования сцен, добавления звука и сборки роликов прямо на компьютере. Если локальное железо не справляется, интерфейс позволяет подключать API других видеомоделей и работать через ту же среду.



Источник: https://x.com/LTXStudio/status/2029655155847921875?s=20



#8. Runway запускает интерактивных AI-персонажей



Runway представила Runway Characters — инструмент для создания интерактивных AI-персонажей, которые могут общаться с пользователями в реальном времени. В интерфейсе Runway можно загрузить изображение персонажа, выбрать голос и настроить внешний вид. Далее добавляется база знаний во вкладке Knowledge — это могут быть документы, инструкции или любые материалы, на основе которых персонаж будет отвечать и взаимодействовать с пользователем.

Также задаётся роль и сценарий поведения персонажа: например дизайнер, повар, музыкант или любой другой образ. Можно использовать готовые шаблоны или прописать собственный характер и логику общения. После настройки персонаж начинает работать как интерактивный ассистент, который использует загруженную базу знаний. В одном из примеров разработчик загрузил карту игры Marathon, и AI-помощник может анализировать происходящее на экране и подсказывать игроку маршрут и ресурсы. Есть и экспериментальные персонажи, например ретро-комик, который намеренно рассказывает плохие шутки и объясняет их. Формат показывает, что AI-ассистенты всё чаще получают визуальную форму персонажа, а не остаются только текстовым интерфейсом.



Источник: https://x.com/runwayml/status/2031028120971571687?s=20



#9. Higgsfield Soul Cinema — кадр как из кино



Higgsfield AI показала превью новой модели Soul Cinema — системы генерации изображений с упором на кинематографическую эстетику. Разработчики пытаются решить частую проблему AI-картинок, которые выглядят слишком «пластиково». Soul Cinema ориентируется на визуальный стиль кино: глубокие текстуры, атмосферное освещение, зерно плёнки и кадры, напоминающие стоп-кадры из фильма. Сообщается, что модель создавалась при участии специалистов из креативной индустрии, поэтому в интерфейсе сделан акцент на режиссёрском контроле сцены, композиции и настроения.

В системе предусмотрены инструменты для работы с персонажами и визуальным стилем. Модуль Soul ID отвечает за консистентность героя, чтобы один и тот же персонаж выглядел одинаково в разных сценах. Инструмент Soul HEX позволяет управлять цветовой палитрой и поддерживать единый визуальный стиль проекта или рекламной кампании. Даже в версии Preview генерации выглядят как кинематографические кадры, которые можно использовать как ключевые изображения для последующей генерации видео в других моделях.


Источник: https://x.com/higgsfield/status/2030019338238087260



#10. VEO в Syntx AI теперь правит видео как Photoshop





В Syntx AI добавили новую функцию редактирования для генератора Google Veo. Теперь внутри уже сгенерированного ролика можно напрямую добавлять или удалять объекты без полной пересборки сцены. В режиме редактирования пользователь выбирает действие «вставить» или «удалить», выделяет нужную область кадра и описывает, что должно появиться или исчезнуть. После этого модель пытается встроить изменения так, чтобы сохранить движение камеры, освещение и общую атмосферу сцены.

Такой подход работает как локальное редактирование внутри видео. Можно убрать случайный логотип, лишнего человека или предмет на заднем плане, либо добавить новый объект в готовый кадр. При этом система старается сохранить согласованность движения и композиции, чтобы правка выглядела частью исходного ролика. Функция доступна прямо в редакторе Veo внутри платформы Syntx AI.




Источник: https://t.me/syntxfamily/4155





Смотреть на YouTube: https://youtu.be/Asc9Vmxvspw?si=hYYFbfwPQflkNM8N


Смотреть на Rutube: https://rutube.ru/video/d2926acb90611db50e70613b9154a384/



* * *

Если вы AI-креатор и хотите быть в курсе самых актуальных новостей про нейросети, AI-видео и цифровых аватаров, подписывайтесь на мой Telegram-канал «Гари ИИ-Аватар».
Там — больше новостей, разборов инструментов и моего практического опыта: https://t.me/gari_azat

Если вы уже работаете с нейросетями, создаёте AI-контент и видео для себя или клиентов и хотите получать больше заказов, выстроить системную работу, научиться делегировать и со временем создать собственный видеопродакшн, приходите на мой авторский курс:
https://aiavatar.school
Это про мышление креатора в AI-видеоиндустрии: от хаотичных заказов к понятной модели роста и работе с командой.

В нашем видеопродакшене мы используем сервис Syntx AI для создания нейросетевых видео в коммерческих проектах.
По моей ссылке вы можете получить подарочные токены и скидку 15% на подписку по промокоду GARI:
https://syntx.ai/welcome/jbgz60nM

AI-Аватары
Обсудить проект