ИИшница №82
Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.
Сегодня в выпуске: три мощных обновления: Kling О1 — долгожданную функция, которой так не хватало: загружай видео и достраивай его по любому промту. Z‑Image: сравнили один и тот же промпт через нее, Flux 2 и Nano Banana Pro — результаты вас удивят. Runway обновился до Gen‑4.5 и заявил, что «Sora и Veo — теперь позади». Я проверил и расскажу что на самом деле произошло. Все самые важные новости недели из мира нейросетей в одном видео.
#10. Новая Runway Gen-4.5 уделала Sora 2 Pro и Veo 3?
Runway представила Gen-4.5 и заявляет, что модель превосходит Google Veo 3 и Sora 2 Pro от OpenAI. В промо-материалах видны стабильные текстуры ткани, волос и стекла, которые не распадаются при движении, а также высокая темпоральная устойчивость. Модель работает в режимах Image-to-Video, Video-to-Video, по кейфреймам и анимирует персонажей с нюансами мимики.
На бенчмарке Artificial Analysis Text-to-Video Gen-4.5 получила 1247 Elo — заявлен новый максимум индустрии. Генерация ограничена 10 секундами и пока без звука. В интерфейсе Runway модель отображается, хотя может быть недоступной. Компания обещает доступ даже на бесплатном тарифе (125 кредитов), отмечая проблему с консистентностью персонажей. Пользовательских тестов почти нет, поэтому реальное качество пока под вопросом .
Источник: https://runwayml.com/research/introducing-runway-gen-4.5
#9. Ваш шанс «переснять» AI‑видео без повторного рендера — Retake
LTX-2 представила Retake — инструмент, который позволяет «переснять» часть AI-видео без полной регенерации. Пользователь загружает ролик, выделяет фрагмент длиной 2–16 секунд и переписывает задачу: можно сменить ракурс, реплику или добавить новый экшен. Retake встраивает обновлённый фрагмент в исходное видео, сохраняя свет, фон и общую динамику.
Стоимость — около $0.10 за секунду, инструмент уже доступен в API и Studio Gen. Создатели утверждают, что у конкурентов прямых аналогов пока нет. LTX-2 позиционируется как самостоятельная видеомодель уровня Kling, Veo или Sora и показывает высокие результаты на отдельных бенчмарках.
Источник: https://www.youtube.com/watch?v=XR9rmAq2-24
#8. Как сделать трендовую стилистику на Stranger Things, показываю
Показан способ стилизовать любое городское фото под Stranger Things. В Syntx AI с моделью Nano Banana Pro загружается изображение, к которому применяется промпт, превращающий сцену в Upside Down с красным туманом, Mind Flayer и хоррор-элементами. Затем кадр анимируют в Kling 2.5 Turbo, добавляя движения света, шаги персонажей и атмосферные эффекты.
На весь процесс у автора ушло пару минут и около 100 рублей. Такой визуальный стиль раньше требовал дорогостоящей постановки, а теперь воспроизводится за счёт двух сервисов и одного изображения.
Источник: https://www.instagram.com/reel/DRoZLE0jIB1/
#7. React‑1 меняет мимику и эмоции ПОСЛЕ генерации видео
Synclab представил react-1 — инструмент, который изменяет эмоции и манеру исполнения в уже готовом видео с аватаром. Можно корректировать тон, паузы, ритм речи, мимику, взгляд и всё это без разрушения исходной картинки. Модель перестраивает весь перформанс, а не только губы, включая движения головы и эмоциональные акценты.
Пользователь загружает видео, может добавить новое аудио или оставить существующее и описывает желаемую манеру речи. Инструмент ещё не в открытом доступе: тестирование возможно только после контакта с командой Synclab.
Источник: https://x.com/synclabs_so/status/1995556298419474665?s=20
#6. Z-Image против Flux 2 и Nano Banana Pro. Кто генерит лучше?
Alibaba представила Z-Image — компактную открытую модель генерации изображений, работающую даже на слабых компьютерах. Она выдаёт фотореалистичный результат и доступна бесплатно, а протестировать её можно через демо Z-Image Turbo на Hugging Face.
Автор сравнил одинаковые промпты в Z-Image, Flux 2 и Nano Banana Pro (через Syntx AI и Higgsfield). По итоговым картинкам сложно определить, какая сделана в бесплатной модели, хотя субъективно автор поставил первым Nano Banana Pro, затем Z-Image и Flux 2.
Источник: https://vc.ru/ai/2619191-alibaba-z-image-generatsiya-izobrazheniy
#5. Seedream 4.5 генерация и редактирование в одном движке?
ByteDance обновила Seedream до версии 4.5, заявив улучшение прилегания деталей, выравнивания и общей эстетики. По пользовательским ощущениям модель пока догоняет Nano Banana Pro, но уже поддерживает серийную генерацию с консистентностью и понимает сложные многоуровневые запросы.
Seedream 4.5 работает до 4K-разрешения и подходит для серий креативов, коллажей и баннеров. Higgsfield уже интегрировал обновлённую модель, и первые тесты показывают более аккуратную работу со стилем и чертами объектов.
Источник: https://seed.bytedance.com/en/seedream4_5
#4. Hyperlapse без боли: теперь достаточно двух кадров
Представлен альтернативный подход к hyperlapse: вместо сотен шагов и длительной съёмки достаточно двух кадров — стартового общего и финального крупного. Далее инструмент Start & End генерирует плавные переходы в Kling, Veo, Seedance и Midjourney.
В тестах Veo выдала наиболее цельный результат, корректируя облака, цвет и общую динамику сцены. Нейросети иногда ошибаются в мелких деталях, что приходится исправлять на посте, но порог входа в создание hyperlapse теперь значительно ниже: один набор снимков позволяет получить сразу несколько вариантов.
Источник: https://www.youtube.com/watch?v=8kUPz6YdMdY
#3. Synthesia выпустила бесплатного AI-Деда Мороза
Synthesia запустила бесплатный сервис для создания персонального видеопоздравления от Санта-Клауса. Не требуется регистрация: пользователь выбирает одного из трёх Санта-аватаров, вводит текст и оставляет e-mail, на который приходит готовый ролик.
По тесту автора, результат выглядит шаблонно, с заметным стыком между статичными фреймами и центральной речевой частью, но сервис работает стабильно. Акция выступает промо-входом в возможности Synthesia и даёт простой способ отправить нестандартное поздравление.
Источник: https://www.synthesia.io/santa-share?videoId=e0f889be-ff68-4856-a5e8-82e9a66fae7d
#2. Kling 2.6 — теперь с озвучкой и эмоциями
Вышла модель Kling 2.6, где главное обновление — генерация звука через промпт. Теперь персонажи могут говорить, петь или издавать любые шумы на английском и китайском. Также расширен контроль эмоций: персонажи синхронно двигают губами, телом, реагируют мимикой и управляются по заданному ритму.
Обновлён визуальный движок: видео до 1080p, реалистичный свет, глубина и плавность переходов. Промпты автоматически обогащаются для лучшей композиции. Доступны режимы text-to-video и image-to-video до 10 секунд — на 2 секунды больше, чем Veo 3.1. Отдельно подчёркивается улучшенная консистентность персонажей, хотя именно к ней у пользователей чаще всего есть вопросы.
Источник: https://x.com/Kling_ai/status/1996238606814593196?s=20
#1. В Kling O1 теперь можно поменять ВСЁ — фон, одежду и даже ракурсы
Kling выпустила модель O1, позволяющую менять фон, одежду, освещение и ракурсы в уже отснятом видео. Система генерирует несколько вариантов камеры из одной сцены и поддерживает ролики до 10 секунд, что визуально напоминает возможности Aleph от Runway.
Автор протестировал модель в Higgsfield, загрузив собственное видео. Генерация прошла без референс-фото, и результат оказался неоднородным: речь «плывёт», фон напоминает ранние игровые сцены. Вероятно, для стабильного качества нужны более тщательно снятые материалы или зелёный фон, как показывают некоторые пользователи.
Источник: https://x.com/Kling_ai/status/1995506929461002590?s=20
Смотреть на YouTube: https://youtu.be/QsxZaUdl1Sw
Смотреть на Rutube: https://rutube.ru/video/private/dec3d74e5d145383abf728b12f9facab/?p=hz9iuL7ah4mrjgq-Q5ygtQ
* * *
На этом всё. Если хотите узнать больше про цифровых аватаров и такие ролики — подписывайтесь на телеграм-канал Гари ИИ-Аватар.
А если хотите освоить этот навык и зарабатывать — приходите на мой авторский курс по профессиональному созданию AI-аватаров и монетизации этого навыка.
Нейросетевые ролики на миллионы просмотров создаются с помощью этого телеграм-бота.
Спасибо, что досмотрели! Увидимся в ИИШНИЦЕ на следующей неделе.
