Зачем вам новый Real-time редактор от Krea AI? - Видеопродакшн Zilant Pro

Зачем вам новый Real-time редактор от Krea AI?


ИИшница №91



Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.

Сегодня в выпуске: Krea выпустила новый инструмент для работы с изображениями в реальном времени, и он меняет правила игры

PixVerse выпустила флагманскую модель для генерации видео и готова побороться с крупными игроками рынка.

В LTX Studio добавили инструмент под названием Brush. И кажется, фотошоп становится менее актуальным. 



#10. PixVerse V5.6 наконец стал пригоден для продакшена

PixVerse представила версию V5.6, и модель заметно приблизилась к продакшен-уровню. Генерации стали стабильнее: движения выглядят спокойнее, сцены больше не «рассыпаются» через несколько секунд, а камера ведёт себя предсказуемо. Персонажи лучше сохраняют форму, а анимация выглядит более связной, без ощущения случайных решений модели.

Улучшения особенно заметны в динамичных сценах и сложных ракурсах, где ранее PixVerse часто давал сбои. Визуальная часть стала более киношной — с проработанной фактурой и атмосферой. Также сообщается об улучшенной озвучке: она звучит натуральнее по сравнению с предыдущими версиями. При этом реакция пользователей неоднозначная — некоторые примеры всё ещё выглядят неубедительно, а в сравнении с Sora 2 модель заметно уступает по реализму.

Несмотря на критику, PixVerse V5.6 демонстрирует поступательное развитие и постепенно сокращает разрыв с лидерами видеогенерации. Текущая версия уже выглядит как более надёжный инструмент для рабочих задач, хотя до уровня топ-моделей ей ещё есть куда расти.


Источник: https://x.com/PixVerse_/status/201648



#9. Runway Gen-4.5 выкатил Image to Video. Но не всё так гладко



Runway выпустила режим Image to Video для Gen-4.5: теперь одну статичную картинку можно анимировать и превратить в полноценный видеоклип. В промо и официальных примерах модель по-прежнему демонстрирует киношное качество, за которое Runway давно ценят — выразительное движение камеры, атмосферный свет и ощущение цельной сцены.

На практике впечатления у пользователей неоднозначные. Многие отмечают разрыв между демонстрациями и реальными результатами: получить стабильную и выразительную анимацию удаётся не всегда. При этом внутри сообщества Runway считают, что обновление действительно улучшило физику движения, стабильность деталей во времени и следование заданному сценарию, особенно по сравнению с предыдущими версиями.

Image to Video для Runway Gen-4.5 уже доступен и через Syntx AI: инструмент находится в разделе видео, где можно выбрать модель, загрузить изображение и задать параметры генерации. Дополнительно доступны готовые пресеты с заранее составленными промптами, что упрощает старт и снижает порог входа. Несмотря на спорные отзывы, обновление выглядит как шаг вперёд и потенциально может найти место в продакшен-пайплайне.


Источник: https://x.com/runwayml/status/2014090

#8. Freepik добавил функцию Color Grading для всех.


Freepik добавил функцию Color Grading в Clip Editor, открыв её для всех пользователей. По заявлению сервиса, процесс выглядит максимально простым: загрузка видео, выбор режима Color Grading, применение одного из готовых пресетов и быстрая настройка силы эффекта с получением финального ролика без сложной цветокоррекции.

На практике у инструмента оказалось заметное количество ограничений. Загружать можно только видео до 20 секунд, при этом неподготовленные или HDR-ролики не принимаются корректно. Видео с кодеком H.265 отображаются с ошибками, а сами пресеты часто дают посредственный результат даже при ручной регулировке интенсивности, которая сводится к одному ползунку. В тестах также возникали ошибки при обработке разных роликов, включая клипы со стока Freepik .

В текущем виде Color Grading в Freepik больше напоминает набор базовых фильтров, чем полноценный инструмент работы с цветом. Возможно, часть проблем связана с багами и будет исправлена, но пока функциональность выглядит ограниченной и вряд ли подходит для задач, где требуется точный контроль изображения.


Источник: https://x.com/freepik/status/20146716


#7. LumaLabs Ray3.14 ускорил видео в 4 раза. И это не хайп


Luma AI представила модель Ray 3.14, которая заметно ускоряет видеогенерацию и снижает её стоимость. По заявлению компании, новая версия работает примерно в четыре раза быстрее, чем Ray 3, генерирует видео нативно в Full HD и обходится примерно в три раза дешевле. Название Ray 3.14 отсылает к числу π, поэтому модель иногда называют RayPi.

По первым примерам Ray 3.14 демонстрирует стабильную работу в разных сценариях — от фотореалистичных сцен до динамичных анимаций, включая сложные движения и сочетание нескольких типов контента в одном клипе. Модель лучше следует текстовому описанию и корректно учитывает стартовые изображения, что делает результат более предсказуемым по сравнению с предыдущими версиями.

В соцсетях уже появилось много примеров генераций, и по ним видно, что упор сделан не только на скорость, но и на сохранение качества. Если заявленные характеристики подтвердятся в массовом использовании, Ray 3.14 может стать одним из заметных игроков среди современных видеогенераторов.


Источник: https://x.com/LumaLabsAI/status/20158


#6. LTX добавил Brush. Промпты больше не спасают?


LTX представила инструмент Brush для локальных правок изображений и видео. Теперь вместо повторного перепромптования и полного пересчёта сцены можно выделить проблемную область и описать желаемую правку текстом: смягчить улыбку, заменить фон, убрать лишний объект или добавить логотип. Модель изменяет только выбранный участок, оставляя остальную сцену нетронутой, что даёт точечный контроль, похожий на работу в Photoshop, но без ручной ретуши.

Ключевая разница между промптом и Brush в том, что первый задаёт глобальное направление, а кисть решает детали локально. Для продакшена это ускоряет работу, позволяет варьировать элементы сцены и корректировать артефакты без полного пересчёта. Похожий подход недавно представила Flora AI, где также можно регулировать крупность изменений, а нейросеть дорисовывает недостающие элементы по теме.



Источник: https://x.com/LTXStudio/status/201616


#5. Higgsfield Angles V2 меняет правила ракурсов


Higgsfield представила обновлённую функцию Angles V2 для генерации новых ракурсов изображений. В режиме Edit вы загружаете исходное фото и управляете виртуальной камерой по трём осям, приближая или поворачивая её для создания новых перспектив. Для точной настройки можно использовать ползунки или вращать сферу с камерой, а готовые кадры создаются быстро и без сложных настроек.

Особенность V2 — возможность одним нажатием сгенерировать сразу 12 новых ракурсов, выбрав уровень приближения. При этом качество сильно зависит от исходного изображения: на основе оригинального фото кадры получаются корректными, а с уже сгенерированных видов детали могут теряться. Такая скорость и простота делают инструмент удобным для продакшена, когда нужно быстро получить разнообразные ракурсы.

Источник: https://higgsfield.ai/app/angles

#4. LTX и ElevenLabs перевернули видеогенерацию звуком

LTX совместно с ElevenLabs представили режим Audio-to-Video, который строит видеогенерацию на основе звука. В отличие от привычных моделей вроде Veo или Kling, где аудио добавляется после генерации и выглядит «приклеенным», здесь звук задаёт структуру всего ролика: ритм речи влияет на темп, музыкальная энергия — на движение камеры, а смена сцен синхронизируется с аудио.

Модель работает с референсными изображениями и текстовыми промптами, поддерживает генерацию в 1080p и доступна через API и на GitHub. Такой подход позволяет создавать более естественные и согласованные ролики, где звук и изображение формируют единое целое, а не два отдельно сгенерированных слоя. Технология демонстрирует нестандартное решение в видеогенерации, выходя за рамки традиционных улучшений качества.



Источник: https://x.com/LTXStudio/status/201365


#3. Почему Лана Дубайская взорвала миллионы без фотореализма



На этой неделе популярность набрал мини-сериал про Лану Дубайскую от нейро-креатора Кристины. В отличие от предыдущих фотореалистичных роликов с известными персонажами вроде Трампа или Жигана, новый проект выполнен в стиле Барби и построен вокруг простой, но понятной идеи. Первые серии уже собрали более десяти миллионов просмотров, а последующие ролики стабильно набирают миллионы.

Сюжет минималистичен: девушка переезжает из условного Мухосранска в Дубай и сталкивается с новыми правилами, старыми друзьями и узнаваемыми ситуациями. Ключ к успеху сериала — не качество графики, а человеческая история с юмором и самоиронией. Проект показывает, что для AI-креаторов сейчас важнее идея, чем фотореализм, и открывает путь к созданию популярных цифровых брендов на базе контента.


Источник: https://www.instagram.com/krystalin/reels/


#2. Шесть промптов для управления камерой в создании клипового видео.



Движение камеры в нейрогенерации это важнейший элемент. Сейчас я вам расскажу как из обычных фото сделать клёвые кадры для ваших видео.

Захожу в Syntx, генерация видео, выбираю veo 3.1. Я буду делать ролики 9:16, но также это будет работать с горизонтальным форматам. Выбираю режим Image to Video, загружаю своё фото, сразу обрезаю, вставляю промпт и отправляю на генерацию.

Первое движение — Opening Shot. Это Нижний ракурс подчёркивает уверенность персонажа:
A cinematic fashion shot taken from a low angle in a photo studio with an orange wall, in which the model is dressed in a beige-gray casual suit and a light brown T-shirt. In the background, an orange-colored wall, sunlight pours from the large windows of the gallery.


Второй — Extreme Close Up. Максимальное приближение и фокус на лице, чтобы показать эмоции и подчеркнуть детали:
Extreme close-up on the model’s face, capturing the expression. Camera frames eyes, sunglasses, and detailed natural makeup. The studio background is completely blurred with a bokeh effect; faint hints of an orange wall and soft window light shapes in the blur.


Третий — High Angle Aerial. Камера перемещается вверх, будто на роборуке, показывает локацию и интерьер, создаёт ощущение простора:
High-angle view from the top corner of the photo studio, looking down at the model in a beige-gray casual suit and a light brown T-shirt. Camera glides gently downward, revealing the studio layout: an orange wall, minimal props, and large windows with warm sunlight spilling across the floor. Subtle movement in the fabric as the model holds a clean fashion pose.​


Четвертый — Slow Zoom. Плавное приближение создаёт интригу и делает кадр более вовлекающим:
Slow dolly-in from above toward the model’s face, moving slightly forward and down. Soft reflections appear on the smooth studio floor, while the orange wall and window highlights stay softly blurred in the background. Chic, cinematic lighting with warm sunlight as the key source.​


Пятый — Drone Shot. Камера будто отлетает на дроне и поднимается вверх, раскрывает масштаб пространства вокруг персонажа и показывает окружение:
Drone-style pull-back from a close-up to a full-body frame, rising up to reveal the entire photo studio space: orange wall backdrop, large windows, and a clean minimal set. Camera ascends and zooms out smoothly, emphasizing scale and the geometry of the studio.


Шестой — Loop Transition. Камера приближается к персонажу, фокусируясь на нём, затем резко отлетает, открывая пространство вокруг, и снова возвращается:
Photorealistic fashion ad sequence in a photo studio: starts with an extreme close-up on the model’s face and sunglasses → rapid zoom-out to full body in a beige-gray casual suit and a light brown T-shirt → smooth aerial/top-down sweep showing the studio layout with an orange wall and sunlit window areas → swoop back to an extreme close-up. Only the camera moves; the model keeps a strong fashion pose throughout.


#1. Почему Krea AI снова делает Realtime Edit актуальным


Krea AI вернула режим Realtime Edit, позволяющий редактировать изображения, видео и даже 3D в почти реальном времени с задержкой в десятки миллисекунд. Любые изменения промпта, перемещение объектов или настройка стиля отображаются мгновенно, как в обычном редакторе, но под капотом работает полноценный генеративный ИИ.

Прошлая версия была популярна, но имела два ограничения: высокую стоимость и среднее качество. Сейчас крупные модели лучше понимают промты, корректно работают с референсами и сохраняют детали неизменными, что повышает качество генераций. Новая версия Realtime Edit добавляет поддержку 3D-объектов и использует актуальные модели вроде Flux.Klein или Z-Image Turbo, предлагая быстрое и качественное редактирование с точным контролем.

Источник: https://x.com/krea_ai/status/20143630



Смотреть на YouTube: https://youtu.be/pRIa80R-Q6A?si=uHu_esAVUzsuQqrh


Смотреть на Rutube: https://rutube.ru/video/1f647c76b03a53bade9a5d372dae1191/



* * *

Если вы AI-креатор и хотите быть в курсе самых актуальных новостей про нейросети, AI-видео и цифровых аватаров, подписывайтесь на мой Telegram-канал «Гари ИИ-Аватар».
Там — больше новостей, разборов инструментов и моего практического опыта: https://t.me/gari_azat

Если вы уже работаете с нейросетями, создаёте AI-контент и видео для себя или клиентов и хотите получать больше заказов, выстроить системную работу, научиться делегировать и со временем создать собственный видеопродакшн, приходите на мой авторский курс:
https://aiavatar.school
Это про мышление креатора в AI-видеоиндустрии: от хаотичных заказов к понятной модели роста и работе с командой.

В нашем видеопродакшене мы используем сервис Syntx AI для создания нейросетевых видео в коммерческих проектах.
По моей ссылке вы можете получить подарочные токены и скидку 15% на подписку по промокоду GARI:
https://syntx.ai/welcome/jbgz60nM

AI-Аватары
Обсудить проект