Большой тест Kling O1: правда, о которой молчат - Видеопродакшн Zilant Pro

Большой тест Kling O1: правда, о которой молчат


ИИшница №82



Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.

Сегодня в выпуске: три мощных обновления: Kling О1 — долгожданную функция, которой так не хватало: загружай видео и достраивай его по любому промту. Z‑Image: сравнили один и тот же промпт через нее, Flux 2 и Nano Banana Pro — результаты вас удивят. Runway обновился до Gen‑4.5 и заявил, что «Sora и Veo — теперь позади». Я проверил и расскажу что на самом деле произошло. Все самые важные новости недели из мира нейросетей в одном видео.




#10. Новая Runway Gen-4.5 уделала Sora 2 Pro и Veo 3?


Runway представила Gen-4.5 и заявляет, что модель превосходит Google Veo 3 и Sora 2 Pro от OpenAI. В промо-материалах видны стабильные текстуры ткани, волос и стекла, которые не распадаются при движении, а также высокая темпоральная устойчивость. Модель работает в режимах Image-to-Video, Video-to-Video, по кейфреймам и анимирует персонажей с нюансами мимики.

На бенчмарке Artificial Analysis Text-to-Video Gen-4.5 получила 1247 Elo — заявлен новый максимум индустрии. Генерация ограничена 10 секундами и пока без звука. В интерфейсе Runway модель отображается, хотя может быть недоступной. Компания обещает доступ даже на бесплатном тарифе (125 кредитов), отмечая проблему с консистентностью персонажей. Пользовательских тестов почти нет, поэтому реальное качество пока под вопросом .


Источник: https://runwayml.com/research/introducing-runway-gen-4.5



#9. Ваш шанс «переснять» AI‑видео без повторного рендера — Retake



LTX-2 представила Retake — инструмент, который позволяет «переснять» часть AI-видео без полной регенерации. Пользователь загружает ролик, выделяет фрагмент длиной 2–16 секунд и переписывает задачу: можно сменить ракурс, реплику или добавить новый экшен. Retake встраивает обновлённый фрагмент в исходное видео, сохраняя свет, фон и общую динамику.

Стоимость — около $0.10 за секунду, инструмент уже доступен в API и Studio Gen. Создатели утверждают, что у конкурентов прямых аналогов пока нет. LTX-2 позиционируется как самостоятельная видеомодель уровня Kling, Veo или Sora и показывает высокие результаты на отдельных бенчмарках.


Источник: https://www.youtube.com/watch?v=XR9rmAq2-24



#8. Как сделать трендовую стилистику на Stranger Things, показываю



Показан способ стилизовать любое городское фото под Stranger Things. В Syntx AI с моделью Nano Banana Pro загружается изображение, к которому применяется промпт, превращающий сцену в Upside Down с красным туманом, Mind Flayer и хоррор-элементами. Затем кадр анимируют в Kling 2.5 Turbo, добавляя движения света, шаги персонажей и атмосферные эффекты.

На весь процесс у автора ушло пару минут и около 100 рублей. Такой визуальный стиль раньше требовал дорогостоящей постановки, а теперь воспроизводится за счёт двух сервисов и одного изображения.


Источник: https://www.instagram.com/reel/DRoZLE0jIB1/



#7. React‑1 меняет мимику и эмоции ПОСЛЕ генерации видео



Synclab представил react-1 — инструмент, который изменяет эмоции и манеру исполнения в уже готовом видео с аватаром. Можно корректировать тон, паузы, ритм речи, мимику, взгляд и всё это без разрушения исходной картинки. Модель перестраивает весь перформанс, а не только губы, включая движения головы и эмоциональные акценты.

Пользователь загружает видео, может добавить новое аудио или оставить существующее и описывает желаемую манеру речи. Инструмент ещё не в открытом доступе: тестирование возможно только после контакта с командой Synclab.


Источник: https://x.com/synclabs_so/status/1995556298419474665?s=20



#6. Z-Image против Flux 2 и Nano Banana Pro. Кто генерит лучше?



Alibaba представила Z-Image — компактную открытую модель генерации изображений, работающую даже на слабых компьютерах. Она выдаёт фотореалистичный результат и доступна бесплатно, а протестировать её можно через демо Z-Image Turbo на Hugging Face.

Автор сравнил одинаковые промпты в Z-Image, Flux 2 и Nano Banana Pro (через Syntx AI и Higgsfield). По итоговым картинкам сложно определить, какая сделана в бесплатной модели, хотя субъективно автор поставил первым Nano Banana Pro, затем Z-Image и Flux 2.



Источник: https://vc.ru/ai/2619191-alibaba-z-image-generatsiya-izobrazheniy



#5. Seedream 4.5 генерация и редактирование в одном движке?



ByteDance обновила Seedream до версии 4.5, заявив улучшение прилегания деталей, выравнивания и общей эстетики. По пользовательским ощущениям модель пока догоняет Nano Banana Pro, но уже поддерживает серийную генерацию с консистентностью и понимает сложные многоуровневые запросы.

Seedream 4.5 работает до 4K-разрешения и подходит для серий креативов, коллажей и баннеров. Higgsfield уже интегрировал обновлённую модель, и первые тесты показывают более аккуратную работу со стилем и чертами объектов.


Источник: https://seed.bytedance.com/en/seedream4_5





#4. Hyperlapse без боли: теперь достаточно двух кадров


Представлен альтернативный подход к hyperlapse: вместо сотен шагов и длительной съёмки достаточно двух кадров — стартового общего и финального крупного. Далее инструмент Start & End генерирует плавные переходы в Kling, Veo, Seedance и Midjourney.

В тестах Veo выдала наиболее цельный результат, корректируя облака, цвет и общую динамику сцены. Нейросети иногда ошибаются в мелких деталях, что приходится исправлять на посте, но порог входа в создание hyperlapse теперь значительно ниже: один набор снимков позволяет получить сразу несколько вариантов.



Источник: https://www.youtube.com/watch?v=8kUPz6YdMdY



#3. Synthesia выпустила бесплатного AI-Деда Мороза



Synthesia запустила бесплатный сервис для создания персонального видеопоздравления от Санта-Клауса. Не требуется регистрация: пользователь выбирает одного из трёх Санта-аватаров, вводит текст и оставляет e-mail, на который приходит готовый ролик.

По тесту автора, результат выглядит шаблонно, с заметным стыком между статичными фреймами и центральной речевой частью, но сервис работает стабильно. Акция выступает промо-входом в возможности Synthesia и даёт простой способ отправить нестандартное поздравление.


Источник: https://www.synthesia.io/santa-share?videoId=e0f889be-ff68-4856-a5e8-82e9a66fae7d



#2. Kling 2.6 — теперь с озвучкой и эмоциями



Вышла модель Kling 2.6, где главное обновление — генерация звука через промпт. Теперь персонажи могут говорить, петь или издавать любые шумы на английском и китайском. Также расширен контроль эмоций: персонажи синхронно двигают губами, телом, реагируют мимикой и управляются по заданному ритму.

Обновлён визуальный движок: видео до 1080p, реалистичный свет, глубина и плавность переходов. Промпты автоматически обогащаются для лучшей композиции. Доступны режимы text-to-video и image-to-video до 10 секунд — на 2 секунды больше, чем Veo 3.1. Отдельно подчёркивается улучшенная консистентность персонажей, хотя именно к ней у пользователей чаще всего есть вопросы.


Источник: https://x.com/Kling_ai/status/1996238606814593196?s=20




#1. В Kling O1 теперь можно поменять ВСЁ — фон, одежду и даже ракурсы


Kling выпустила модель O1, позволяющую менять фон, одежду, освещение и ракурсы в уже отснятом видео. Система генерирует несколько вариантов камеры из одной сцены и поддерживает ролики до 10 секунд, что визуально напоминает возможности Aleph от Runway.

Автор протестировал модель в Higgsfield, загрузив собственное видео. Генерация прошла без референс-фото, и результат оказался неоднородным: речь «плывёт», фон напоминает ранние игровые сцены. Вероятно, для стабильного качества нужны более тщательно снятые материалы или зелёный фон, как показывают некоторые пользователи.


Источник: https://x.com/Kling_ai/status/1995506929461002590?s=20




Смотреть на YouTube: https://youtu.be/QsxZaUdl1Sw


Смотреть на Rutube: https://rutube.ru/video/private/dec3d74e5d145383abf728b12f9facab/?p=hz9iuL7ah4mrjgq-Q5ygtQ



* * *

На этом всё. Если хотите узнать больше про цифровых аватаров и такие ролики — подписывайтесь на телеграм-канал Гари ИИ-Аватар.

А если хотите освоить этот навык и зарабатывать — приходите на мой авторский курс по профессиональному созданию AI-аватаров и монетизации этого навыка.

Нейросетевые ролики на миллионы просмотров создаются с помощью этого телеграм-бота.

Спасибо, что досмотрели! Увидимся в ИИШНИЦЕ на следующей неделе.

AI-Аватары
Обсудить проект