Трендовые видео в паре Nano Banana 2 + Kling - Видеопродакшн Zilant Pro

Трендовые видео в паре Nano Banana 2 + Kling


ИИшница №93



Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок. Сегодня в выпуске: AI-новости недели: Grok, Higgsfield, Kling 3.0 Motion Control HeyGen Video Agent и ElevenLabs в Syntx Web Canva Magic Layers и Photoshop Rotate Object SkyReels V4 и AI-видео со звуком



#1. Трендовые видео в паре Nano Banana 2 + Kling


Связка Nano Banana 2 и Kling 3.0 используется для создания коротких трендовых видео: сначала генерируется изображение с деформацией, затем оно анимируется через Image to Video. В качестве примера показан процесс в Syntx AI: выбирается вертикальный формат 9:16, создаётся изображение с нужным эффектом, после чего оно переносится в Kling 3.0 для анимации с заданным движением и эмоциями. Разбираются четыре формата. Giant Head — увеличение головы на этапе генерации и последующая анимация. Body Gone — вариации с исчезающим телом, где ключ остаётся в корректном промпте на этапе изображения. Face Tray — эффект «упаковки» лица в плёнку, создаётся сначала как статичный кадр, затем оживляется. Fit Split — разделение одежды и модели с независимым движением, применяется для fashion-контента и маркетплейсов. Во всех случаях пайплайн одинаковый: Nano Banana 2 для визуала, Kling 3.0 для движения, длительность обычно 7–8 секунд, звук можно добавлять отдельно или накладывать на этапе монтажа.





#2. Grok Image обогнал всех в видеогенерации



Grok Image от xAI вышел в лидеры видеогенерации за счёт улучшенной консистентности сцен. По данным Artificial Analysis, модель заняла первую строчку рейтинга, о чём также сообщил Elon Musk. Ключевое обновление — способность удерживать до семи элементов одновременно: персонажей, объекты, окружение и стиль остаются согласованными внутри одного видео. Сцену можно собирать как конструктор: добавлять героев с разных ракурсов, комбинировать локации и предметы, задавая сюжет через промпт. Это закрывает одну из главных проблем ранних версий Grok — потерю согласованности между кадрами. При этом качество всё ещё нестабильно: встречаются артефакты и неестественные движения. Тем не менее по соотношению цены и результата модель показывает сильные показатели в слепых тестах и остаётся особенно востребованной для отдельных типов генерации.




Источник: https://x.com/grok/status/2032987659468156947?s=20




#3. Photoshop научился крутить фото в 3D




Adobe добавила в Photoshop инструмент Rotate Object, который превращает вырезанный объект в управляемую 3D-модель. После активации изображение обрабатывается на серверах Adobe и становится «болванкой», которую можно вращать, наклонять и менять перспективу. Когда нужный ракурс найден, Firefly дорисовывает недостающие части, формируя финальный кадр.

Ключевая особенность — контроль над геометрией сцены: пользователь сам задаёт угол и положение, в отличие от генерации, где результат заранее не фиксирован. При этом инструмент лучше работает на небольших поворотах, а при сильных изменениях, например развороте лица на 90 градусов, возможны искажения. Один поворот стоит около 20 кредитов, дальнейшие изменения ракурса выполняются без доплаты. Такой подход формирует новый пайплайн: сначала задаётся точная перспектива в Photoshop, затем результат можно доработать в других AI-инструментах.


Источник: https://x.com/chrisfirst/status/2032210264184000691?s=20



#4. За что Midjourney V8 захейтили пользователи?



Midjourney выпустила V8 Alpha, заявив ускорение до 5 раз, улучшенное понимание промптов и текста, нативное 2K, а также поддержку moodboards и sref. Обновления подаются как крупный шаг вперёд, особенно на фоне редких релизов модели. Однако первые тесты пользователей показывают, что текущая версия пока не даёт стабильного прироста качества.

В генерациях отмечают проблемы с анатомией и пропорциями, артефакты и «пластиковые» текстуры. В ряде кейсов результат уступает не только конкурентам, но и Midjourney V7. Дополнительно V8 опирается на профили предыдущей версии, что влияет на итоговую эстетику, а работа с moodboards остаётся нестабильной. Несмотря на узнаваемый визуальный стиль, рынок смещается в сторону контроля и предсказуемости, где другие модели уже показывают более ровные результаты.




Источник: https://x.com/jameygannon/status/2034055562317513087?s=20




#5. AI собрал мёртвых легенд на одной сцене



В сети распространяется AI-видео, где Kobe Bryant вручает награду Michael Jackson на вымышленной церемонии Legacy Honors. В зале при этом показаны Tupac Shakur, The Notorious B.I.G., Nipsey Hussle, Prince, Whitney Houston, Amy Winehouse и Bob Marley — артисты, которые не могли оказаться вместе в реальности. Ролик быстро набрал миллионы просмотров за счёт репостов и вирусного распространения.

Автором указывается nyei.ai. Появление видео совпало по времени с церемонией Academy Awards, что могло усилить его распространение. Подобные ролики демонстрируют, как AI позволяет собирать невозможные сцены с участием известных личностей, при этом эффект новизны постепенно снижается, и внимание смещается на идею и контекст, а не сам факт генерации.




Источник: https://www.instagram.com/reel/DVylizcjbpa/


#6. Kling 3.0: где тут реальные деньги?


Kling 3.0 с поддержкой motion control позволяет анимировать персонажей на основе реального движения, но ключевой вопрос — практическое применение. Технология уже показывает стабильные результаты в коротких форматах, тогда как длинные ролики остаются дорогими и менее предсказуемыми. Основной фокус сейчас смещается с демонстрации возможностей на поиск рабочих сценариев использования.

Один из таких сценариев — контент без съёмки лица, где автор управляет мимикой и жестами через персонажа. Второй — продуктовые видео: сначала записывается базовый аниматик на телефон, затем поверх накладывается сгенерированный герой, формируя ролик с эффектом полноценного продакшена. Третий — стилизованные видео и «псевдоанимация», где сохраняется движение и ритм реальной съёмки, но визуально это выглядит как мультфильм. Такой подход сокращает производство и делает Kling 3.0 инструментом для коммерческих задач, а не только демонстрацией технологий.



Источник: https://x.com/maxescu/status/2029223606048227706?s=20



#7.  Canva разбирает картинку на слои




Canva представила Magic Layers — функцию, которая автоматически разбирает изображение на отдельные элементы. После загрузки система делит картинку на фон, персонажей и объекты, превращая их в редактируемые слои. Их можно перемещать, удалять и пересобирать, меняя композицию без повторной генерации.

Инструмент работает как с AI-изображениями, так и с обычными фото. Например, картинку, созданную в Nano Banana, можно разобрать на части и заново собрать: изменить расположение объектов, масштаб или сцену в целом. При этом возможны неточности, так как скрытые части дорисовываются моделью. Magic Layers фактически меняет подход к работе с изображениями: генерация становится промежуточным этапом, после которого идёт ручная сборка под конкретную задачу.



Источник: https://www.canva.com/newsroom/news/magic-layers/




#8. ElevenLabs V2 и V3 в Syntx Web




В Syntx Web добавили интеграцию ElevenLabs, и теперь озвучка доступна прямо в браузере без отдельной регистрации. Поддерживаются две модели: ElevenLabs V2 для стабильных задач и ElevenLabs V3 с более точной передачей интонации. Это позволяет записывать голос, диалоги и менять голос внутри одного интерфейса, где уже создаются изображения и видео.

Доступны три режима. Speech — классический текст-в-речь с выбором модели и голосов из библиотеки. Dialogue Speech — генерация диалогов с несколькими голосами и сценарием, где можно задать реплики и распределить роли. Voice Changer — загрузка аудио с последующей заменой голоса при сохранении оригинальной подачи. Интеграция упрощает рабочий процесс, объединяя генерацию визуала и озвучки в одном месте, при этом функции вроде создания музыки и кастомных голосов пока остаются вне веб-версии.



Источник: https://x.com/matiii/status/2033571735757345035?s=20



#9. SkyReels V4 обошёл Veo и Kling?



SkyReels V4 от Skywork вышел в топ видеогенерации с поддержкой нативного звука и на короткое время обошёл такие модели, как Google Veo 3.1 и Kling 3.0. Это уже не узкоспециализированное решение, а мультимодальная система: на вход можно подавать текст, изображения, видео и аудио, а на выходе получать ролики до 15 секунд в Full HD сразу со звуковой дорожкой.

Фокус смещается с качества картинки на синхрон звука, речь и поведение сцены, и здесь SkyReels показывает конкурентный уровень. Отдельно выделяется ценовая модель: около $7.2 за минуту генерации со звуком, при этом вариант без звука оказывается дороже, что выглядит как особенность тарификации. На фоне этого рынок быстро насыщается новыми игроками, которые за короткое время догоняют лидеров по ключевым параметрам.




Источник: https://x.com/ArtificialAnlys/status/2034149355540897941?s=20



#10. Higgsfield уже снимает не AI-видео, а кино?



Higgsfield представила Cinema Studio 2.5 — обновление, которое переводит генерацию видео в сторону полноценной постановки сцен. В одном интерфейсе можно разместить до трёх Soul Cast актёров, зафиксировать локацию, задать ключевой кадр и собрать сцену через промпт. Дополнительно появился встроенный color grading, что помогает выровнять визуальный стиль и уменьшить характерный «AI-глянец».

Главное изменение — в качестве сцены и консистентности. Персонажи сохраняют поведение и внешний вид от кадра к кадру, а изображение выглядит ближе к киноязыку, чем к типичной генерации. Cinema Studio 2.5 фактически объединяет управление сценой, актёрами и постобработкой в одном инструменте, что сокращает разрыв между AI-видео и классическим продакшеном для коротких форматов.




Источник: https://x.com/higgsfield/status/2034362238526726624?s=20






Смотреть на YouTube: https://youtu.be/Qp9R-5Snzz0?si=-21qr3pZz3d-09PG


Смотреть на Rutube: https://rutube.ru/video/2b453b7c06674b879d56e6b08d77c886/



* * *

Если вы AI-креатор и хотите быть в курсе самых актуальных новостей про нейросети, AI-видео и цифровых аватаров, подписывайтесь на мой Telegram-канал «Гари ИИ-Аватар».
Там — больше новостей, разборов инструментов и моего практического опыта: https://t.me/gari_azat

Если вы уже работаете с нейросетями, создаёте AI-контент и видео для себя или клиентов и хотите получать больше заказов, выстроить системную работу, научиться делегировать и со временем создать собственный видеопродакшн, приходите на мой авторский курс:
https://aiavatar.school
Это про мышление креатора в AI-видеоиндустрии: от хаотичных заказов к понятной модели роста и работе с командой.

В нашем видеопродакшене мы используем сервис Syntx AI для создания нейросетевых видео в коммерческих проектах.
По моей ссылке вы можете получить подарочные токены и скидку 15% на подписку по промокоду GARI:
https://syntx.ai/welcome/jbgz60nM

AI-Аватары
Обсудить проект