Wan 2.5 от Alibaba - первый конкурент Veo 3? - Видеопродакшн Zilant Pro

Wan 2.5 от Alibaba — первый конкурент Veo 3?


ИИшница №71



Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.

Сегодня: Ray3 от Luma превращает Вас в режиссёра — вам нужно только нарисовать сцену; Как делать Visual Prompting. Крутой лайфхак в генерации видео; у Veo 3 появился конкурент — Wan 2.5 от Alibaba, который оживляет персонажей и озвучивает их на русском, притом бесплатно.

Смотрите выпуск и решайте, достоин ли он лайка и подписки. Погнали!



#10. Luma Ray3 теперь не просто генератор — это киностудия в кармане

TНейросеть Ray3 от Luma теперь умеет «думать», как оператор или режиссёр. Вы просто рисуете схему сцены — и она понимает, где свет, где камера, как двигается тело.

Есть режим Draft — для быстрых черновиков. А когда нащупали идею, нажимаете «сгенерировать», и получаете 4K HDR-видео с физикой, движением и рефлексами.

Да, похожее было у Higgsfield, но Ray3 — на другом уровне. Напоминает Aleph от Runway, только работает в браузере. И его уже добавили в SYNTX, можно тестить.

Источник: https://x.com/CharaspowerAI/status/1970073109123191093



#9. ИИ-креатор сгенерил рекламу Starbucks за $150?



Создатель InVideo заявил, что сделал вирусную рекламу Starbucks (79 млн просмотров!) всего за один промпт и 150 долларов. Визуально это полная копия оригинала.

Но в комментариях сомневаются: автор не раскрывает детали, не ясно, использовал ли он оригинал. Спекуляция? Возможно. Но эффект есть.

Один вывод очевиден: классический видеопродакшн трещит по швам. Если разницы не видно — зачем платить больше?

Источник: https://vc.ru/ai/2220489-reklama-za-150-ii-servis-invideo



#8. ИИ-создал K-pop группе бэкстейдж которого не существовало.



В соцсетях завирусился якобы бекстейдж со съёмок лайв-экшена в стиле K-pop. Камера дрожит как будто в руках, девушки в кадре ведут себя естественно, и всё выглядит реалистично.

Но это видео полностью сгенерировано нейросетью. Никаких актрис, павильонов или операторов. Просто 35 секунд фейкового закулисья, которое повернули в правду. Кто-то считает, что это Dream Machine или Ray3, но автор не раскрывает инструменты.

В комментариях люди пишут, что несколько дней верили в происходящее, пока кто-то не заметил странности на фоне и «слишком идеальный пресс» у героя. Хотя, если честно, у меня такой же.

Источник: https://x.com/minchoi/status/1969982698044465413


#7. Higgsfield Photodump превращает ваши фото в вирус!



Higgsfield устроил флешмоб с новой фичей Photodump Studio. Люди кидают свои селфи — и получают 26 снимков в стиле Vogue, пижамной вечеринки или артхауса.

В X творится безумие: бородатым мужчинам нейросеть дорисовывает пачки и тортики, парней сажает на мини-велосипеды. А кто-то получает кадры, как с обложки Forbes.

Функция пока бесплатная, просто перейдите на пост Higgsfield и прикрепите свою фотку.
Промо, хайп и крах фотостудий — в одном кадре.

Источник: https://x.com/higgsfield_ai/status/1969177792920371330



#6. Как делать Visual Prompting



Google Flow напомнил, что видео можно не описывать словами, а рисовать. Генерите сцену в Midjourney или Nano Banana, делаете скрин и рисуете поверх — стрелки, надписи, диаграммы.

Промпт превращается в визуал. «Книги падают», «поезд мчится», «женщина отступает» — и всё это AI интерпретирует как действия.

Поддерживается в Flow, Veo 3, Pika Labs и Runway. Идеально, если у вас планшет и стилус. Но даже мышкой можно творить, как режиссёр раскадровки.

Источник: https://x.com/FlowbyGoogle/status/1969064585253560710



#5. PixVerse генерирует видео за 5 секунд



Появилась нейросеть, которая генерит видео в 360p за 5 секунд. HD за минуту. Это PixVerse, и она уже обгоняет по скорости большинство моделей.

Картинка стабильная. Цвет и атмосфера не скачут, как в Seedream. Есть шаблоны TikTok, Fusion, Restyle. Удобно для быстрого контента.

По качеству всё ещё проигрывает Veo 3 от Google и Kling. Но когда нужно быстро и массово, PixVerse выдаёт результат.

Источник: https://www.youtube.com/watch?v=lip333_7-sg



#4. Hailuo AI Agent — это MidJourney на стероидах?



Hailuo AI Agent работает как Midjourney, только сам всё решает. Загружаете фото, а он делает из него артбук или постер. Свет, стиль, атмосфера — всё подбирается автоматически.

Он сам выбирает лучшие нейросети под задачу. Не нужно писать промпты или собирать пайплайн. Просто загружаете фото и получаете результат, будто это рисовал художник.

Внутри доступны картинки, видео и даже звук. Но визуал особенно мощный. Яркий, чистый, без артефактов. Сейчас открыт доступ на неделю. Кто успеет, тот и тестит будущее.

Источник: https://x.com/Hailuo_AI/status/1970086888951394483



#3. Новинки YouTube: защита от дипфейков, дубляж всех языков.



Теперь вы можете найти все ролики, где используют ваше лицо, и потребовать их удаления. Это новая функция likeness detection. Пока она в бете и доступна партнёрам, но это первый шаг YouTube в борьбе с дипфейками.

Вторая новость — это авто-дубляж с липсинком. Переведённый текст теперь совпадает с движением губ. Хотите выйти на англоязычную аудиторию — вам больше не нужны субтитры и озвучка от фрилансеров.

YouTube делает то, за что другие берут сотни долларов. HeyGen явно стало не по себе.

Источник: https://techcrunch.com/2025/09/20/updates-to-studio-youtube-live-new-gen-ai-tools-and-everything-else-announced-at-made-on-youtube/



#2. Alibaba выкатили Wan2.2-Animate, Runway Act 2 больше не нужен?



Alibaba показала нейросеть, которая превращает любую картинку в анимированного героя. Берёт движения актёра, повторяет мимику, позы и даже освещение. Вы просто подменяете персонажа, и он встраивается в сцену как родной.

Работает на скелетных сигналах и лицевых подсказках. Специальный модуль маскирует склейки и швы. Видео выглядит как настоящее.

Нейросеть называется Wan2.2-Animate. И в отличие от Runway Act 2, она открытая. Можно скачать на GitHub и работать бесплатно. В комментах уже пишут, что Голливуд скоро не узнает себя.

Источник: https://x.com/heysirio_ai/status/1969801056050909668



#1. Wan 2.5 от Alibaba — первый реальный конкурент Veo 3?



Alibaba выкатили Wan 2.5 — нейросеть, которая оживляет изображение и синхронно озвучивает его под ваш текст. На русском. Персонаж двигает губами, выражает эмоции и звучит, как актёр из кино.

Можно добавить шум дождя, музыку или даже выстрел. Всё включается одной кнопкой. Качество — 1080p, продолжительность до 10 секунд. И всё это бесплатно.

Платформа уже сравнивается с Veo 3 от Google, только здесь доступ без бюджета. Есть очередь, но подписка её скипает. А если просто залогиниться и нажать Check-in, дадут 10 бесплатных кредитов.

Источник: https://vc.ru/ai/2234347-alibaba-besplatnaya-model-wan-2-5



Смотреть на YouTube: https://youtu.be/ta6MAqhEcV4


Смотреть на Rutube: https://rutube.ru/video/fbb5668d14f05801f80138b4bcadb7c5/



* * *

На этом всё. Если хотите узнать больше про цифровых аватаров и такие ролики — подписывайтесь на телеграм-канал Гари ИИ-Аватар.

А если хотите освоить этот навык и зарабатывать — приходите на мой авторский курс по профессиональному созданию AI-аватаров и монетизации этого навыка.

Нейросетевые ролики на миллионы просмотров создаются с помощью этого телеграм-бота.

Спасибо, что досмотрели! Увидимся в ИИШНИЦЕ на следующей неделе.

AI-Аватары
Обсудить проект