SORA 2 вышла! Отличная физика, озвучка и динамика. - Видеопродакшн Zilant Pro

SORA 2 вышла! Отличная физика, озвучка и динамика.


ИИшница №72



Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.

Сегодня: Kling 2.5 Turbo — новая модель, которая стала быстрее, умнее и дешевле; NanoBanana в HeyGen — теперь аватар можно переодеть и поставить в любую сцену; Sora 2 от OpenAI — с физикой, озвучкой и камео, которые не отличить от реальности.

Смотрите выпуск и решайте, достоин ли он лайка и подписки. Погнали!



#10. Kling 2.5 Turbo — новая модель, которая стала быстрее, умнее и дешевле

Kling выпустил обновление 2.5 Turbo и сразу поднял планку. Эта версия стала быстрее, умнее и, что удивительно, даже дешевле. Теперь итоговое качество сразу в FullHD и работает только в «профессиональном» режиме, но результат стоит того.

Turbo даёт больше деталей: волосы, ткань, мимика — всё выглядит чище и реалистичнее. Движения стали плавнее, физика объектов убедительнее, а стили варьируются от аниме до кинореализма. Самая приятная новость — Kling 2.5 Turbo дешевле 2.1 примерно на 30%.

Новая модель уже появилась в нейроагрегаторах в Syntx, Higgsfield, Freepik и Krea. А в Higgsfield на тарифе Ultimate за около 30 долларов в месяц Turbo доступен безлимитно.

Даже спортивные сцены — сальто, прыжки или сложная динамика — создаются нейросетью настолько физиологично и правдоподобно, что выглядят как реальная съёмка.

Источник: https://x.com/Kling_ai/status/1970439808901362155



#9. В HEYGEN ПОЯВИЛСЯ NANO BANANA



HeyGen выкатил апдейт, который делает работу с аватарами намного гибче. В AI Studio появилась функция NanoBanana. Теперь можно не просто оживить персонажа, а менять его образ: одежду, фон и даже позу.

Представьте: на футболке аватара — ваш логотип, а в руках он держит товар, про который рассказывает. Это не монтаж в стороннем редакторе, а простая команда в промпте. Нужно убрать лишний предмет из кадра или поменять фон на оживлённый город? NanoBanana справляется идеально, сохраняя идентичность персонажа.

Особенно круто NanoBanana работает для брендированных интеграций. Продукты, аксессуары, логотипы — всё можно добавить прямо в сцену. А если результат не идеален с первой попытки, есть параллельная генерация: запускаете несколько вариантов и выбираете лучший.

А в связке с Avatar 4 от HeyGen NanoBanana позволяет сначала довести кадр до совершенства, а потом оживить его анимацией. В будущем нам не нужно будет снимать свои видеоматрицы. А пока нужно. И если вы хотите разобраться как именно это делать, то проходите мои уроки по профессиональному созданию AI-аватаров и монетизации этого навыка.

Источник: https://www.youtube.com/watch?v=_NxLxSL-6q8



#8. Luma AI: Плюсы и минусы работы в Ray 3.



На прошлой неделе Luma Ai презентовала свою флагманскую модель Ray 3. Первые реальные тесты показали, что в портретах и деталях он слабее конкурентов, лица пока так сказать плывут. Но своё главное достоинство Ray 3 раскрыл в другом, а именно в работе с частицами.

Пыль, дым, брызги воды, огонь и даже разрушения выглядят с физикой и весом, будто их сделали в профессиональном VFX-редакторе. Взрывы расширяются, вода разлетается, а динамика сохраняет целостность сцены. По сути, Ray 3 даёт тот уровень, который раньше был доступен только специалистам по симуляциям. И главное, что  промпты теперь можно писать по-русски.

Источник: https://x.com/LumaLabsAI/status/1972703683902316783



#7. Wan 2.5: Что умеет делать нейросеть помимо разговоров на русском?



На прошлой мы уже посвящали новость стрельнувшей нейросети Wan 2.5 которую окрестили главным соперников Veo3 из-за её возможности генерировать слова на русском. Давайте поймём, что ещё умеет делать эта нейросеть от Алибаба.

Главный апгрейд — поддержка аудио-входа. Модель умеет автоматически генерировать озвучку/звук и даже принимать свой аудиофайл как ритм-референс

Пример: промпт с девушкой под водой. Камера делает плавный наезд, сквозь толщу воды пробиваются лучи света, а нейросеть сама добавляет подводный звук и эффекты.

Получается кадр, который держится как сцена из фильма. Нейросеть генерирует в вертикальном, квадратном, горизонтальном соотношении сторон. Это удобно под Reels/Short и другие форматы видео.

Русская речь и лип-синк. Можно вставить реплику в кавычках — модель озвучит её по-русски и синхронизирует губы.

Источник: https://x.com/Alibaba_Wan/status/1971485743194484880



#6. Start & End Frame — функция, которая переворачивает генерацию видео



Сейчас самый популярный приём в мире ИИ-видео это Start & End Frame. Когда вы загружаете первый и последний кадр, а нейросеть сама генерирует все движения между ними. Эта функция уже доступна в Kling, Seedance, Runway и Midjourney.

Давайте вместе с вами повторим этот приём.

Заходим всё в тот же Syntx Bot (ссылка в конце новости). Допустим мы хотим сделать ролик с этим бургером. Для начала идём в раздел Дизайн с ИИ. Выбираем нейросеть Nano Banana. Загружаем наш бургер и просим сделать его более аппетитным и в разных ракурсах. Далее идём в раздел Видео Будущего и выбираем например нейросеть SeeDance. Загружаем туда сначала фотографию, которое станет первым кадром в видео.
А потом вторую, которая станет последним кадром в видео.

Далее прописываем промпт, что мы хотим увидеть в движении между ними. В итоге получаем интересную анимацию. А далее по такому же алгоритму делаем анимации с других ракурсов. В конце собираем все анимации в один ролик и получаем отличный результат.

Приём Start & End Frame плюс небольшой монтаж открывают новый уровень создания контента. И на что раньше нужно было большое количество операторской техники или сложной графики, теперь можно сделать в пару кликов.

Грустно конечно от этого, возможно мы теперь все будем зарабатывать чуточку меньше. Или нет?

Источник: https://x.com/heydin_ai/status/1970467493274927239
https://t.me/syntxaibot?start=aff_1890541160



#5. Реклама Porsche — от хейта до успеха



Это история о том, как одно видео может изменить всё. Художник Стефан выложил ролик с Porsche, полностью собранный с помощью нейросетей. Для своего нейрошедевра он использовал Midjourney 6, Photoshop, Kling 1.6, Veo2. А потом ручная анимация, тряска камеры, световые эффекты, замена 3D-логотипа, After Effects и Topaz. Звук он сделал вместе с саунд-дизайнером Йоханом Сугаревым.

После первичной публикации реакция оказалась жёсткой: в Reddit его пост захватили, даже убедили удалить его так сказать с позором. Сам Стефан признался, что чувствовал унижение. 80 часов работы и 500 долларов в токенах — и всё ради того, чтобы его высмеяли.

Но спустя месяцы компания, ориентированная на ИИ, нашла это видео, куда он отправлял им своё портфолио. И что вы думаете? Они пригласили его на работу. А Стефан решился выложить ролик снова — и теперь он стал вирусным, собрав тысячи просмотров.

Стефан красавчик конечно. Ролик даже сегодня смотрится отлично. Хотя если вы обратили внимание в начале, он использовал старые модели нейросетей.

Источник: https://stefan-aberer.at/



#4. Фото с актёром — тренд в NanoBanana

Вы уже видели как в соцсетях вовсю гуляет новый вирусный тренд — фото рядом с любимыми актёрами и певцами. Как будто вы реально встретились и сделали снимок для семейного альбома. И да, это всё генерация.

Давайте вместе повторим этот тренд.

Например открываете Syntx Bot, ссылка на него есть в конце новости. Далее выбираете Дизайн Будущего, потом нейросеть Nano Banana.

И просто загружаете своё фото и фото звезды.

Дальше пишите промпт: «Сделай так, чтобы фото выглядело как поллароид. Лёгкий блюр, вспышка, фон в виде белой занавески, два человека стоят рядом и смотрят в камеру — будто случайный снимок без позирования».

И если не с первого раза, то со второй, третьей попытки у вас точно получится отличный результат. На вид получается реально как спонтанный кадр, а не работа нейросети.


Источник: https://t.me/syntxaibot?start=aff_1890541160
https://t.me/syntxfamily/2935



#3. Gamma 3.0 против GigaChat — кто сделает презентации лучше?



Gamma AI обновилась до версии 3.0 и теперь это уже не просто сервис для слайдов, а полноценный ИИ-агент. Вы задаёте тему, и система сама ищет свежие данные в интернете, строит структуру и оформляет презентацию в нужном стиле. Добавьте запрос «сделай её визуальнее», и агент сам подберёт картинки, таблицы и даже диаграммы. Можно загрузить заметки от руки или скриншот — Gamma превратит их в готовую колоду слайдов.


Главное — скорость. По тестам агент тратит всего 2 минуты, чтобы собрать 5-слайдовую презентацию. У человека на такой ресёрч уйдёт несколько часов. Появилась поддержка русского языка, интеграция референсов, API и даже автоматические рабочие процессы через Zapier: от заметок встречи до готового отчёта.

Но конкуренты тоже не спят. «Сбер» в GigaChat добавил генерацию презентаций: тема, количество слайдов, тон текста, плюс прикреплённые ссылки и документы. Картинки рисует Kandinsky, а итог можно скачать в PPTX или PDF. Пока это бета, но уже доступна всем.

Получается, выбор за вами: Gamma 3.0 — это почти автопилот для презентаций, а GigaChat — первая попытка локального конкурента в России. Это действительно новый виток борьбы за рынок.

Источник: https://x.com/MeetGamma/status/1967947521269043376



#2. ChatGPT на ТВ — первая реклама OpenAI



OpenAI запустила первую в истории рекламную кампанию ChatGPT на телевидении и в интернете. И в этот раз ставка сделана не на технологии, а на эмоции.

В одном из роликов парень спрашивает у чат-бота: «Нужен рецепт, который намекнёт девушке на симпатию, но без пафоса». GPT советует лимонно-чесночную пасту с томатами. В следующем кадре герой готовит ужин, а девушка удивлена и впечатлена. В других видео ChatGPT помогает планировать путешествия, подбирать упражнения для восстановления после травмы и решать повседневные задачи.

Компания сделала ставку не на сухую рекламу функций, а попытались «очеловечить» ChatGPT — показать его как полезного спутника, который помогает в жизни. И это важный шаг: конкуренция среди AI-сервисов растёт, и теперь даже OpenAI вынуждена бороться за внимание аудитории даже на телевиденье.


Источник: https://www.youtube.com/watch?v=To04SSylvVY




#1. SORA 2 вышла! Отличная физика, озвучка и динамика.


Мы все хотели генерации, где физика не ломается? И мы это получили. Наконец то вышла Sora 2. Потрясающе физика с людей и животных. Ни одна нейросеть до сегодняшнего дня не могла себе позволить себе такую реалистичность движения. Если раньше мы смотрели на тот же Kling, SeeDream или Midjourney и понимали, что это как бы сгенерировано. То теперь, то что сделала команда от Open Ai вообще невозможно отличить от реальных кадров. Новая модель стала физически точнее, реалистичнее и управляемее: понимает сложные многокадровые инструкции, держит состояние сцены и уверенно работает в реалистичном, кинематографичном и аниме-стилях. Плюс — аудио: синхронная речь и звуковые эффекты прямо из модели.

Гвоздь программы — камео. Короткая запись в приложении Sora — и Ваш облик и голос можно вживить в любую сцену с пугающей точностью. Генерите, ремиксуйте, добавляйте друзей; лента настраивается “человеческим” языком и оптимизируется под творчество, а не бесконечную прокрутку. Есть лимиты и родительский контроль для подростков, доступ к своим камео — под Вашим полным управлением.

Воспользоваться пока только можно по приглашениям в США и Канаде. Базовый доступ бесплатный, Pro-пользователям доступна некая Sora 2 Pro. Пока генерировать видео можно только по просту, а из фотографии делать видео не получится.

Так же сказано что будет Sora 2 API, а это значит что вся эта красота скоро появится в тех же Syntx, Higgsfield, Freepik Krea и других нейро агрегаторах.


Источник: https://openai.com/index/sora-2/




Смотреть на YouTube: https://youtu.be/J3BFIiPFYYs


Смотреть на Rutube: https://rutube.ru/video/3b942ad689cac6db9b073fe9da63fdf8/



* * *

На этом всё. Если хотите узнать больше про цифровых аватаров и такие ролики — подписывайтесь на телеграм-канал Гари ИИ-Аватар.

А если хотите освоить этот навык и зарабатывать — приходите на мой авторский курс по профессиональному созданию AI-аватаров и монетизации этого навыка.

Нейросетевые ролики на миллионы просмотров создаются с помощью этого телеграм-бота.

Спасибо, что досмотрели! Увидимся в ИИШНИЦЕ на следующей неделе.

AI-Аватары
Обсудить проект