ИИшница №72
Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.
Сегодня: Kling 2.5 Turbo — новая модель, которая стала быстрее, умнее и дешевле; NanoBanana в HeyGen — теперь аватар можно переодеть и поставить в любую сцену; Sora 2 от OpenAI — с физикой, озвучкой и камео, которые не отличить от реальности.
Смотрите выпуск и решайте, достоин ли он лайка и подписки. Погнали!
#10. Kling 2.5 Turbo — новая модель, которая стала быстрее, умнее и дешевле
Kling выпустил обновление 2.5 Turbo и сразу поднял планку. Эта версия стала быстрее, умнее и, что удивительно, даже дешевле. Теперь итоговое качество сразу в FullHD и работает только в «профессиональном» режиме, но результат стоит того.
Turbo даёт больше деталей: волосы, ткань, мимика — всё выглядит чище и реалистичнее. Движения стали плавнее, физика объектов убедительнее, а стили варьируются от аниме до кинореализма. Самая приятная новость — Kling 2.5 Turbo дешевле 2.1 примерно на 30%.
Новая модель уже появилась в нейроагрегаторах в Syntx, Higgsfield, Freepik и Krea. А в Higgsfield на тарифе Ultimate за около 30 долларов в месяц Turbo доступен безлимитно.
Даже спортивные сцены — сальто, прыжки или сложная динамика — создаются нейросетью настолько физиологично и правдоподобно, что выглядят как реальная съёмка.
Источник: https://x.com/Kling_ai/status/1970439808901362155
#9. В HEYGEN ПОЯВИЛСЯ NANO BANANA
HeyGen выкатил апдейт, который делает работу с аватарами намного гибче. В AI Studio появилась функция NanoBanana. Теперь можно не просто оживить персонажа, а менять его образ: одежду, фон и даже позу.
Представьте: на футболке аватара — ваш логотип, а в руках он держит товар, про который рассказывает. Это не монтаж в стороннем редакторе, а простая команда в промпте. Нужно убрать лишний предмет из кадра или поменять фон на оживлённый город? NanoBanana справляется идеально, сохраняя идентичность персонажа.
Особенно круто NanoBanana работает для брендированных интеграций. Продукты, аксессуары, логотипы — всё можно добавить прямо в сцену. А если результат не идеален с первой попытки, есть параллельная генерация: запускаете несколько вариантов и выбираете лучший.
А в связке с Avatar 4 от HeyGen NanoBanana позволяет сначала довести кадр до совершенства, а потом оживить его анимацией. В будущем нам не нужно будет снимать свои видеоматрицы. А пока нужно. И если вы хотите разобраться как именно это делать, то проходите мои уроки по профессиональному созданию AI-аватаров и монетизации этого навыка.
Источник: https://www.youtube.com/watch?v=_NxLxSL-6q8
#8. Luma AI: Плюсы и минусы работы в Ray 3.
На прошлой неделе Luma Ai презентовала свою флагманскую модель Ray 3. Первые реальные тесты показали, что в портретах и деталях он слабее конкурентов, лица пока так сказать плывут. Но своё главное достоинство Ray 3 раскрыл в другом, а именно в работе с частицами.
Пыль, дым, брызги воды, огонь и даже разрушения выглядят с физикой и весом, будто их сделали в профессиональном VFX-редакторе. Взрывы расширяются, вода разлетается, а динамика сохраняет целостность сцены. По сути, Ray 3 даёт тот уровень, который раньше был доступен только специалистам по симуляциям. И главное, что промпты теперь можно писать по-русски.
Источник: https://x.com/LumaLabsAI/status/1972703683902316783
#7. Wan 2.5: Что умеет делать нейросеть помимо разговоров на русском?
На прошлой мы уже посвящали новость стрельнувшей нейросети Wan 2.5 которую окрестили главным соперников Veo3 из-за её возможности генерировать слова на русском. Давайте поймём, что ещё умеет делать эта нейросеть от Алибаба.
Главный апгрейд — поддержка аудио-входа. Модель умеет автоматически генерировать озвучку/звук и даже принимать свой аудиофайл как ритм-референс
Пример: промпт с девушкой под водой. Камера делает плавный наезд, сквозь толщу воды пробиваются лучи света, а нейросеть сама добавляет подводный звук и эффекты.
Получается кадр, который держится как сцена из фильма. Нейросеть генерирует в вертикальном, квадратном, горизонтальном соотношении сторон. Это удобно под Reels/Short и другие форматы видео.
Русская речь и лип-синк. Можно вставить реплику в кавычках — модель озвучит её по-русски и синхронизирует губы.
Источник: https://x.com/Alibaba_Wan/status/1971485743194484880
#6. Start & End Frame — функция, которая переворачивает генерацию видео
Сейчас самый популярный приём в мире ИИ-видео это Start & End Frame. Когда вы загружаете первый и последний кадр, а нейросеть сама генерирует все движения между ними. Эта функция уже доступна в Kling, Seedance, Runway и Midjourney.
Давайте вместе с вами повторим этот приём.
Заходим всё в тот же Syntx Bot (ссылка в конце новости). Допустим мы хотим сделать ролик с этим бургером. Для начала идём в раздел Дизайн с ИИ. Выбираем нейросеть Nano Banana. Загружаем наш бургер и просим сделать его более аппетитным и в разных ракурсах. Далее идём в раздел Видео Будущего и выбираем например нейросеть SeeDance. Загружаем туда сначала фотографию, которое станет первым кадром в видео.
А потом вторую, которая станет последним кадром в видео.
Далее прописываем промпт, что мы хотим увидеть в движении между ними. В итоге получаем интересную анимацию. А далее по такому же алгоритму делаем анимации с других ракурсов. В конце собираем все анимации в один ролик и получаем отличный результат.
Приём Start & End Frame плюс небольшой монтаж открывают новый уровень создания контента. И на что раньше нужно было большое количество операторской техники или сложной графики, теперь можно сделать в пару кликов.
Грустно конечно от этого, возможно мы теперь все будем зарабатывать чуточку меньше. Или нет?
Источник: https://x.com/heydin_ai/status/1970467493274927239
https://t.me/syntxaibot?start=aff_1890541160
#5. Реклама Porsche — от хейта до успеха
Это история о том, как одно видео может изменить всё. Художник Стефан выложил ролик с Porsche, полностью собранный с помощью нейросетей. Для своего нейрошедевра он использовал Midjourney 6, Photoshop, Kling 1.6, Veo2. А потом ручная анимация, тряска камеры, световые эффекты, замена 3D-логотипа, After Effects и Topaz. Звук он сделал вместе с саунд-дизайнером Йоханом Сугаревым.
После первичной публикации реакция оказалась жёсткой: в Reddit его пост захватили, даже убедили удалить его так сказать с позором. Сам Стефан признался, что чувствовал унижение. 80 часов работы и 500 долларов в токенах — и всё ради того, чтобы его высмеяли.
Но спустя месяцы компания, ориентированная на ИИ, нашла это видео, куда он отправлял им своё портфолио. И что вы думаете? Они пригласили его на работу. А Стефан решился выложить ролик снова — и теперь он стал вирусным, собрав тысячи просмотров.
Стефан красавчик конечно. Ролик даже сегодня смотрится отлично. Хотя если вы обратили внимание в начале, он использовал старые модели нейросетей.
Источник: https://stefan-aberer.at/
#4. Фото с актёром — тренд в NanoBanana
Вы уже видели как в соцсетях вовсю гуляет новый вирусный тренд — фото рядом с любимыми актёрами и певцами. Как будто вы реально встретились и сделали снимок для семейного альбома. И да, это всё генерация.
Давайте вместе повторим этот тренд.
Например открываете Syntx Bot, ссылка на него есть в конце новости. Далее выбираете Дизайн Будущего, потом нейросеть Nano Banana.
И просто загружаете своё фото и фото звезды.
Дальше пишите промпт: «Сделай так, чтобы фото выглядело как поллароид. Лёгкий блюр, вспышка, фон в виде белой занавески, два человека стоят рядом и смотрят в камеру — будто случайный снимок без позирования».
И если не с первого раза, то со второй, третьей попытки у вас точно получится отличный результат. На вид получается реально как спонтанный кадр, а не работа нейросети.
Источник: https://t.me/syntxaibot?start=aff_1890541160
https://t.me/syntxfamily/2935
#3. Gamma 3.0 против GigaChat — кто сделает презентации лучше?
Gamma AI обновилась до версии 3.0 и теперь это уже не просто сервис для слайдов, а полноценный ИИ-агент. Вы задаёте тему, и система сама ищет свежие данные в интернете, строит структуру и оформляет презентацию в нужном стиле. Добавьте запрос «сделай её визуальнее», и агент сам подберёт картинки, таблицы и даже диаграммы. Можно загрузить заметки от руки или скриншот — Gamma превратит их в готовую колоду слайдов.
Главное — скорость. По тестам агент тратит всего 2 минуты, чтобы собрать 5-слайдовую презентацию. У человека на такой ресёрч уйдёт несколько часов. Появилась поддержка русского языка, интеграция референсов, API и даже автоматические рабочие процессы через Zapier: от заметок встречи до готового отчёта.
Но конкуренты тоже не спят. «Сбер» в GigaChat добавил генерацию презентаций: тема, количество слайдов, тон текста, плюс прикреплённые ссылки и документы. Картинки рисует Kandinsky, а итог можно скачать в PPTX или PDF. Пока это бета, но уже доступна всем.
Получается, выбор за вами: Gamma 3.0 — это почти автопилот для презентаций, а GigaChat — первая попытка локального конкурента в России. Это действительно новый виток борьбы за рынок.
Источник: https://x.com/MeetGamma/status/1967947521269043376
#2. ChatGPT на ТВ — первая реклама OpenAI
OpenAI запустила первую в истории рекламную кампанию ChatGPT на телевидении и в интернете. И в этот раз ставка сделана не на технологии, а на эмоции.
В одном из роликов парень спрашивает у чат-бота: «Нужен рецепт, который намекнёт девушке на симпатию, но без пафоса». GPT советует лимонно-чесночную пасту с томатами. В следующем кадре герой готовит ужин, а девушка удивлена и впечатлена. В других видео ChatGPT помогает планировать путешествия, подбирать упражнения для восстановления после травмы и решать повседневные задачи.
Компания сделала ставку не на сухую рекламу функций, а попытались «очеловечить» ChatGPT — показать его как полезного спутника, который помогает в жизни. И это важный шаг: конкуренция среди AI-сервисов растёт, и теперь даже OpenAI вынуждена бороться за внимание аудитории даже на телевиденье.
Источник: https://www.youtube.com/watch?v=To04SSylvVY
#1. SORA 2 вышла! Отличная физика, озвучка и динамика.
Мы все хотели генерации, где физика не ломается? И мы это получили. Наконец то вышла Sora 2. Потрясающе физика с людей и животных. Ни одна нейросеть до сегодняшнего дня не могла себе позволить себе такую реалистичность движения. Если раньше мы смотрели на тот же Kling, SeeDream или Midjourney и понимали, что это как бы сгенерировано. То теперь, то что сделала команда от Open Ai вообще невозможно отличить от реальных кадров. Новая модель стала физически точнее, реалистичнее и управляемее: понимает сложные многокадровые инструкции, держит состояние сцены и уверенно работает в реалистичном, кинематографичном и аниме-стилях. Плюс — аудио: синхронная речь и звуковые эффекты прямо из модели.
Гвоздь программы — камео. Короткая запись в приложении Sora — и Ваш облик и голос можно вживить в любую сцену с пугающей точностью. Генерите, ремиксуйте, добавляйте друзей; лента настраивается “человеческим” языком и оптимизируется под творчество, а не бесконечную прокрутку. Есть лимиты и родительский контроль для подростков, доступ к своим камео — под Вашим полным управлением.
Воспользоваться пока только можно по приглашениям в США и Канаде. Базовый доступ бесплатный, Pro-пользователям доступна некая Sora 2 Pro. Пока генерировать видео можно только по просту, а из фотографии делать видео не получится.
Так же сказано что будет Sora 2 API, а это значит что вся эта красота скоро появится в тех же Syntx, Higgsfield, Freepik Krea и других нейро агрегаторах.
Источник: https://openai.com/index/sora-2/
Смотреть на YouTube: https://youtu.be/J3BFIiPFYYs
Смотреть на Rutube: https://rutube.ru/video/3b942ad689cac6db9b073fe9da63fdf8/
* * *
На этом всё. Если хотите узнать больше про цифровых аватаров и такие ролики — подписывайтесь на телеграм-канал Гари ИИ-Аватар.
А если хотите освоить этот навык и зарабатывать — приходите на мой авторский курс по профессиональному созданию AI-аватаров и монетизации этого навыка.
Нейросетевые ролики на миллионы просмотров создаются с помощью этого телеграм-бота.
Спасибо, что досмотрели! Увидимся в ИИШНИЦЕ на следующей неделе.
