ИИшница №80
Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.
Сегодня в выпуске: три мощных обновления: новая Nano Banana Pro, свежий Kling 2.5 Turbo и битва Higgsfield против HeyGen. Google презентовал Nano Banana Pro — протестил сам и показываю плюсы. Тестируем новую Kling 2.5 Turbo в режиме Start & End Frames. Реклама по одному клику, или фича Click-To-Ad: протестили и сравнили ее в Higgsfield и HeyGen, результаты вас удивят. Все самые важные новости недели из мира нейросетей в одном видео.
#10. Higgsfield vs HeyGen: генерируй рекламу по клику
Higgsfield запустил Click-To-Ad: вы вставляете ссылку на продукт, выбираете стиль вроде «viral chaos», при необходимости добавляете скрипт, отмечаете удачные кадры товара — и через пару минут получаете готовое видеообъявление. Без промптов и без загрузки своих материалов, но сейчас без поддержки аватаров и глубокой кастомизации.
В HeyGen похожую задачу решает инструмент Video Agent. Вы вставляете ссылку, выбираете своего аватара, формат (горизонт или вертикаль), длительность и можете доработать ТЗ прямо в диалоге: попросить переписать текст на русский, прикрепить фото и видео, прописать реплики для аватара. После подтверждения Agent собирает ролик по веткам сценария. HeyGen даёт больше контроля и точности, а Higgsfield — максимально быстрый старт «по ссылке».
Источник: https://higgsfield.ai/app/link-to-video-ad
#9. Новое в Nano Banana: вырезай объект и сразу вставляй в свой ролик
Flow от Google добавил выборочную обработку: на фото можно выделить объект, фон или персонажа и применять промпты только к этой области. Например, заменить фон на нейтральный, изменить текстуру предмета или добавить мягкий свет, при этом остальная часть изображения остаётся исходной.
Такой подход удобнее, чем традиционная работа в Photoshop через маски, слои и кисти: Flow работает ближе к конвейеру «вырезал нужное — получил чистый элемент — вставил в ролик или рекламу». При этом в Nano Banana при вырезании сложных зон вроде волос и прозрачных объектов местами всё ещё появляются артефакты и шум, но сам формат точечного редактирования заметно упрощает подготовку визуала.
Источник: https://x.com/FlowbyGoogle/status/1989414536227819895?s=20
#8. Генерация Ai- фото и видео теперь и в ElevenLabs.
ElevenLabs, известный по голосовой генерации, добавил модуль Image & Video. В разделе одноимённого инструмента можно выбрать режим, задать текстовый промпт или загрузить референс и получить на выходе либо статичное изображение, либо видео. Под капотом используются модели Veo, Sora, Kling и Seedance, а результат сразу озвучивается внутри студии ElevenLabs — голосом, шумами или музыкой.
Так ElevenLabs превращается из сервиса голосов в более полный продакшн-контур, где генерация визуала и звука объединены в одной платформе. Похожую стратегию выбирают и другие игроки: HeyGen добавляет видеомодели поверх аватаров, Artlist расширяется от библиотеки музыки к генерации видео. Задача у всех одна — держать пользователя внутри своей экосистемы как можно дольше.
Источник: https://x.com/elevenlabsio/status/1990473617189015637?s=20
#7. Десятки ракурсов с одного фото: знакомьтесь с Higgsfield Angles
Higgsfield Angles позволяет из одной фотографии получить десятки новых ракурсов. Вы загружаете кадр с продуктом, человеком или сценой, а в интерфейсе крутите интерактивный 3D-куб или слайдеры: задаёте угол, зум, вертикальный ракурс — и модель генерирует изображение так, будто вы переставили камеру. Работает как с предметкой, так и с портретами.
Это полезно для e-commerce и продакшена: можно быстро добрать боковые и верхние виды товара, подготовить разные планы персонажа и затем анимировать их через функции Start/End или переходы. По словам автора, под капотом может быть родственная технология к модели Queen. Ограничение заметное: инструмент уверенно работает примерно в пределах 180 градусов «фронтальной» зоны, а полный обзор на 360° не заявлен.
Источник: https://x.com/higgsfield_ai/status/1988756919818022927?s=20
#6. Новый Kling 2.5 Turbo в режиме Start & End Frames. Что нового?
В Kling 2.5 Turbo появился режим Start & End Frames: вы задаёте два ключевых кадра — начальный и финальный — и модель сама строит между ними плавное видео, без ручного монтажа. В Syntx AI это реализовано через раздел «Видео» с выбором Kling, модели Keyframes, профессионального режима и версии Kling 2.5 Turbo; длительность ролика выставляется под задачу.
Пользователь загружает оба кадра, добавляет текстовый промпт, а промежуточные фазы движение модель рассчитывает автоматически. Теперь Kling, как и Veo, умеет генерировать звук, так что, например, шум переключения скоростей появляется сразу в клипе. По стоимости: раньше 5 секунд Start & End в Kling 2.1 стоили 21 токен, теперь в 2.5 Turbo — 17 токенов, что примерно равно 34 рублям.
Источник: https://x.com/Kling_ai/status/1988607170741702886?s=20
#5. У Hedra сразу четыре апдейта, и каждый экономит вам часы работы
Hedra представила пакет обновлений, который делает работу с персонажами и роликами более стабильной и предсказуемой. Появилась консистентность персонажа: один раз создаёте образ, и дальше используете его в разных сценах без потери черт лица, стиля и пропорций. Модель Character-3 HD отвечает за более детализированную внешность с улучшенной кожей, светом и ракурсами, приближая героя к цифровому актёру.
Prompt Enhancer берёт на себя оптимизацию запросов: достаточно описать идею, а Hedra сама адаптирует её под модель без долгой промт-инженерии. Параллельно добавлен режим 8x Output, который позволяет запускать до восьми потоков генерации изображений и видео одновременно, чтобы резко сократить время ожидания рендеров. В сумме Hedra становится ближе к формату AI-студии с постоянным персонажем, улучшенной картинкой и ускоренным производством контента.
Источник: https://x.com/hedra_labs/status/1988693924731613188?s=20
#4. FLORA AI v2: полноценное видео по вашему скетчу
FLORA AI выпустила вторую версию своего визуального движка, где ключевая механика — переход от скетча к видео. Пользователь рисует от руки грубый эскиз, загружает его в FLORA, добавляет визуальные референсы и запускает рендер. На выходе получается динамичное видео, которое помогает объяснить идею быстрее, чем набор статичных картинок.
Платформа использует узловую систему, похожую на Nodu: текст, изображение, видео и звук соединяются в единый workflow без привычных слоёв и масок. Во FLORA AI v2 переработан редактор блоков, сильнее связаны текстовые, аудио- и видеомодели, а сцены можно масштабировать, не ломая всю композицию. Команда заявляет, что реализовала пока около 34% задуманного потенциала, а автор дополнительно перевёл обзор о FLORA AI через HeyGen на русский язык.
Источник: https://x.com/florafaunaai/status/1990468218369020197?s=20
#3. Новый Ai-тренд, который “связал” весь мир
В соцсетях набирает обороты тренд «вязаных городов»: пользователи превращают реальные улицы Москвы, Петербурга, Алматы и других городов в анимации из пряжи и фетра. Сначала в Seedream или Dreamina (через VPN) берут фото города и промптом в духе «handmade thread art, diorama made of yarn and felt…» получают характерный «вязаный» кадр.
Затем этот кадр оживляют в Kling AI: загружают изображение и добавляют короткий промпт вроде «boats moving, snow falling, flag waving», чтобы модель анимировала основные элементы сцены. Syntx предлагает развивать тренд дальше — делать вязаных персонажей, предметы и сцены для креативов, рекламы и открыток. Такой пайплайн объединяет генерацию стиля, анимацию и адаптацию под коммерческие задачи.
Источник: https://vc.ru/ai/2407449-knitted-world-ai-trend
#2. Scribe v2 от ElevenLabs: теперь текст появляется ещё до того, как вы договорили фразу
ElevenLabs представили Scribe v2 Realtime — модель транскрибации, которая переводит речь в текст с задержкой около 150 миллисекунд, поддерживает 90+ языков, включая русский, и работает через API. Она использует предиктивную транскрибацию: начинает достраивать фразу и расставлять пунктуацию ещё до того, как вы договорили, и по тестам обходит GPT-4o, Gemini Flash и Deepgram Nova.
Модель автоматически определяет язык, разделяет голоса по спикерам и устойчиво работает с шумными записями и сложной речью, а на датасете FLEURS точность для русского заявлена до 93,5%. Параллельно ElevenLabs выпустили Fish Audio S1: она клонирует голос, управляет эмоциями и интонацией и озвучивает на 70+ языках, что позволяет собирать разные голосовые версии одного спикера. Вместе эти инструменты усиливают позицию ElevenLabs как универсального «голосового ядра» для приложений, видео и стриминговых сервисов.
Источник: https://elevenlabs.io/realtime-speech-to-text
#1. Google выкатил новую Nano Banana Pro. Показываю все новые фичи
Nano Banana Pro стала следующей версией модели от Google и теперь доступна в Google AI Studio и через API, хотя полноценный доступ открыт не всем. Модель поддерживает практически любые соотношения сторон и умеет рендерить в 1K, 2K и 4K с более чистой детализацией по сравнению с первой Nano Banana: текстуры тканей, металла и волос сохраняют микродетали при приближении.
Google также заявляет улучшенную работу с текстом в кадре: Nano Banana Pro генерирует разборчивые надписи, логотипы, плакаты и схемы, включая кириллицу, и позволяет имитировать разные шрифты и стили письма. Отдельный блок — объём и свет: модель лучше понимает поведение материалов, тени и освещение, даёт менять угол обзора, фокус, глубину резкости, тип света и цветокоррекцию.
Ещё одно отличие — стабильная мультигенерация: Nano Banana Pro может объединять до 14 объектов и до пяти персонажей из разных кадров, сохраняя их сходство и характеристики. Благодаря возможностям reasoning у Gemini 3 Pro модель способна строить инфографику, превращать рукописные заметки в схемы и рендерить сложные диаграммы по тексту или изображениям.
Источник: https://vc.ru/ai/2592828-nano-banana-2-obzor-novoy-generativnoy-modeli
Смотреть на YouTube: https://youtu.be/K3JWDlE-FX4
Смотреть на Rutube: https://rutube.ru/video/0b0dbe5759b5227b2325c260c752866d/
* * *
На этом всё. Если хотите узнать больше про цифровых аватаров и такие ролики — подписывайтесь на телеграм-канал Гари ИИ-Аватар.
А если хотите освоить этот навык и зарабатывать — приходите на мой авторский курс по профессиональному созданию AI-аватаров и монетизации этого навыка.
Нейросетевые ролики на миллионы просмотров создаются с помощью этого телеграм-бота.
Спасибо, что досмотрели! Увидимся в ИИШНИЦЕ на следующей неделе.
