Higgsfield AI Influencer Studio и монетизация аватаров - Видеопродакшн Zilant Pro

Higgsfield AI Influencer Studio и монетизация аватаров


ИИшница №90



Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.

Сегодня в выпуске: Higgsfield выпустили Influencer Studio. Я попробовал и расскажу как легко создать ИИ-аватара на любой вкус.
Ещё протестировал сервис 24ai, который должен заменить селлерам все другие нейросети.
И расскажу про новый FLUX 2 Klein, который побил все рекорды скорости генерации изображений.







#10. Flux на скорости света


Black Forest Labs выкатили FLUX.2 klein и сразу мимоходом разрушили миф про «облегчённые модели». Это не обрезок, это осознанный удар по скорости. Klein заточен под редактирование изображений и делает это почти без задержки. Текст в картинку, правки, несколько рефов — всё меньше секунды, даже на потребительских GPU.

Модель вышла сразу в четырёх версиях: 4 и 9 миллиардов параметров, каждая в вариантах Base и Distilled. Base можно дообучать под свои пайплайны, Distilled выжимает максимум скорости из коробки. 4B спокойно влезает в 13 гигов видеопамяти, 9B — около 29. RTX 3090, 4070 или 4090 — и Вы уже в игре.

Но ключевое здесь даже не скорость. А то, что веса открыты. Это меняет сам подход к генерации. Вы больше не ждёте результат. Вы буквально думаете визуально в реальном времени, как в графическом редакторе, только без интерфейса.

FLUX.2 klein — это не про картинки. Это про новый темп работы AI-креаторов. И к нему придётся привыкать.


Источник: https://x.com/bfl_ml/status/2011825819082244266?s=20



#9. Бесконечная видеогенерация



Вышла PixVerse R1 и это не просто очередной видеогенератор. Это попытка сделать модель мира. В отличие от Veo или Kling, которые продумывают кадр и рисуют его за 30–50 шагов, PixVerse делает всё за 1–4 шага и сразу выдаёт готовое видео с внутренней логикой происходящего.

Самое важное — мир не заканчивается. Сцена продолжается, реагирует на Вас, развивается. Меняете атмосферу, действие, стиль — и всё перестраивается на лету. Видео перестаёт быть файлом. Это уже процесс. Не результат, а поток.

По ощущениям, это не генерация, а симуляция. Как если бы кино внезапно получило джойстик. Вы не рендерите ролик, Вы управляете происходящим прямо в моменте.

Но давайте честно. Качество пока слабое. Физика кривая, объекты мутируют, картинка плывёт — уровень старых видеогенераторов. Зато ещё несколько месяцев назад было 360p, а сейчас уже 1080.

PixVerse R1 важен не тем, что он красивый. А тем, куда он ведёт. От видео как продукта — к видео как живому миру. И это только начало.


Источник: https://x.com/PixVerse_/status/2012120810509766780?s=20



#8. TikTok против стримеров



ByteDance выкатили FlowAct-R1 и это прямой удар по формату стриминга. Модель генерирует видео бесконечной длины, 480p, 25 FPS, с задержкой около полутора секунд. Это уже почти live, без «рендер подождите».

Самое болезненное для стримеров — one-shot контроль. Один референсный кадр, и дальше полный контроль тела, мимики и реакции на речь. Липсинк и движения дообучены вместе, поэтому нет эффекта говорящей маски. Персонаж реально ощущается живым, а не налепленным на звук.

В основе у них Seedance, но ключевое здесь архитектура. Они переделали DiT в стриминговую авторегрессию, добавили chunkwise diffusion и трёхуровневую память: короткую, длинную и референсную. В итоге аватар не плывёт, не забывает позу и ведёт себя стабильно, как человек.

Инференс ужали до трёх шагов диффузии. Три. Это уже не генерация, это поток. Такой аватар может вести стрим, зум-колл или саппорт без усталости и с идеальной реакцией.

Twitch пока жив. Но FlowAct — это демо будущего, где стримером становится нейромодель. И это будущее уже почти в эфире.


Источник: https://grisoon.github.io/FlowAct-R1/



#7. Камчатские фейки




На Камчатке реальный режим ЧС. Самые сильные снегопады за 30 лет, сугробы до 133 сантиметров, погибшие из-за схода снега. И на этом фоне соцсети взрываются ИИ-видео с фантастической версией реальности. Дети катаются с сугробов высотой девять этажей, как с горнолыжного курорта.

Проблема в том, что эти фейки начали попадать в зарубежные СМИ и новостные паблики вперемешку с реальными кадрами. И большинство просто не видит разницы. Я честно скажу, сам вначале поверил. Выглядит убедительно, драматично, идеально для алгоритмов.

Но местные жители быстро охлаждают хайп. Таких домов в Петропавловске просто нет. Реальная высота снега — максимум по второй этаж. Всё остальное — генерация, которая уже живёт своей жизнью.

И вот здесь важный момент. Мы вошли в фазу, где скорость генерации обгоняет скорость проверки. Если Вы не умеете отличать синтетику от реальности, за Вас это сделает чей-то алгоритм. И совсем не факт, что в пользу правды.


Источник: https://x.com/pamvonhadder/status/2012956097825374567?s=20



#6. Неоднозначный 24ai



Точка запустила 24ai — сервис, который обещает закрыть селлеру почти все задачи с нейросетями в одном окне. Я решил проверить без розовых очков.

Протестировал удаление фона на фото с кроссовками — модель справилась отлично. Плюс сразу можно выбрать формат под карточки, без лишних плясок.

Те же кроссовки нужно подставить на новый фон. Нейронка сама анализирует изображение и предлагает промпт. Я попробовал несколько вариантов. Генерация нормальная, но видно, что свой промпт дал бы лучше контроль.

Для смены ракурса взял другое, сложное фото с парой кроссовок. В итоге осталась одна, но детали и текстуры сохранились неожиданно хорошо.

Анимация карточек — сейчас must-have. Проверил на сковородке с овощами. Простой промпт, три секунды, ожидание пару минут — результат отличный. Анимировался только товар, текст остался статичным. Ровно то, что нужно маркетплейсам. Карточки с нижним бельём делает без проблем, результат чистый

Есть виртуальная примерка. Выбраешь модель, загружаешь пиджак, выбираешь тип одежды. Типа одежды «пиджак» нет, выбрал «куртка». Быстро, но результат слабый: другой пиджак, артефакты, пропал лацкан.

Перекраска кроссовок — чтобы из черных сделать белые, а шнурки красные. Сцена сложная. Получилось ужасно. Для сравнения прогнал тот же промпт в Synthx с Nano Banana Pro — там всё отлично.

Последнее — автогенератор Reels. Вставляете ссылку на карточку, выбираете аватар и сценарий, получаете черновик. Финальный рендер — 490 рублей. Генерация якобы безлимитная, платишь за экспорт.

Я попробовал. Не сработало. Оформил подписку со скидкой для клиентов Точки — снова не сработало. Платить ещё за сомнительный результат не стал.

Итог простой. 24ai — сильный хаб для базовых задач селлера. Что-то уже работает хорошо, но некоторые функции пока сыроваты. Подожду апдейтов. Потенциал есть, но стек нейросетей он пока не заменяет.



Источник: https://24ai.tech/ru/



#5. Nano Banana Pro vs Seedream 4.5



На прошлой неделе у всех лежала Nano Banana — и в Synthx, и в Higgsfield. Поэтому для обложки я взял Seedream. Не от безысходности, а из интереса. И он мне зашёл. В итоге я задал себе простой вопрос: а что вообще лучше — Seedream или Nano Banana?

Я взял несколько промптов. Не адаптировал под модели, без шаманства. Просто одинаковые запросы и прямое сравнение.

Первый промпт — сложная, хаотичная сцена со светом. У Seedream внезапно вылез водяной знак, странное ломаное освещение и лёгкий пластиковый вайб. Nano Banana справилась заметно лучше.

Nano Banana Pro
Seedream 4.5

Второй промпт. Обе модели в целом попали. Но у Seedream «закипел» мотоцикл и странный фотостиль. Banana сделала очень стильно, но плитка и бетонный столб выглядят так, будто их придумали в последний момент.

NB
SD

Третий промпт — и тут начинается самое интересное. Обе модели частично игнорируют запрос. Google-модель просто не показывает локти с заплатками, хотя это было явно указано. Зато картинка сочная, киношная. Китайская модель старается точнее следовать промпту и показать всё, что написано. Но при этом, несмотря на «no neon», зачем-то добавляет неон. С Seedream это стоит учитывать.

NB
SD

Четвёртый промпт. Лицо должно быть строго по центру. Banana вроде бы так и сделала, но слегка повернула голову и зачем-то размыла один глаз. У Seedream лицо по центру, но покраснение вокруг носа и губ получилось уже слишком агрессивным.

NB
SD

Пятый промпт — и тут я однозначно за Seedream. Обе модели следуют промпту, но поза у Banana такая, что человек в ней долго не проживёт.

NB
SD


Вывод простой. Каждая модель чудит по-своему и требует своего подхода. Однозначного победителя тут нет.

У меня есть ещё две генерации. Все оригиналы и промпты выложу в телеграме. Зайдите, сравните сами и напишите, на чьей Вы стороне.




#4. Heygen подорожал


HeyGen выкатил новый тариф для команд — HeyGen for Business. Сразу по сути: старый Team план исчез. Теперь есть только Business за 149 долларов в месяц.

Почему так? В 2025 году команда HeyGen пообщалась с сотнями компаний и выяснила одну вещь. Команды тормозят не большие фичи, а мелкие лимиты. Кредиты, слоты аватаров, ограничения на экспорт, невозможность встроить видео в LMS.

В новом тарифе лимиты реально раздвинули. В пять раз больше генераций, пять кастомных аватаров на команду, приоритетный рендер, переводы до 60 минут, SCORM экспорт, интеграции с Zapier, Make, N8N, HubSpot, SSO, интерактивные видео и совместная работа. Для продакшнов и эдтеха — жирно.

Но есть обратная сторона. Каждый участник команды — плюс 20 долларов. Базовый вход — 149. И если раньше Вы работали вдвоём или втроём на Team, теперь Вам просто некуда идти. Creator уже тесно. Business — избыточно и больно по бюджету.

Итог простой. HeyGen сделал идеальный тариф для больших команд и корпораций. Но полностью забыл про маленькие студии и инди. Для одних это апгрейд. Для других — прямой удар по экономике.



Источник: https://x.com/HeyGen/status/2011921247089934622?s=20


#3. Warner Music запустили ИИ-певицу



Warner Music China официально представили свою первую ИИ-певицу — AI-Hua. И это не демо и не концепт. Это полноценный релиз с клипом, который уже лежит на YouTube и Apple Music.

Видео сделали вместе с Kling AI от Kuaishou. По визуалу — уся, китайское фэнтези про воинов, полёты и судьбу. Только теперь всё это собрано нейросетью, от сцены до движения камеры.

Самый интересный момент — Warner даже не уточняют, есть ли в треке живой голос. Возможно, его там просто нет. И это важный сдвиг. Мы больше не в зоне эксперимента. Это уже бизнес-модель.

Напомню, в 2024 крупные лейблы, включая Warner, судились с Suno и Udio за авторские права. А в 2025 спокойно подписали партнёрства. Теперь артисты официально сдают свои голоса и образы в аренду нейросетям.

Схема простая. Сначала боремся с ИИ. Потом приручаем его. Потом начинаем штамповать собственных цифровых артистов.

По звуку AI-Hua — обычная попса. Без риска, без характера, идеально усреднённая. Зато полностью контролируемая. Для Warner — спорно. Для старта — возможно, нормально.

Интересно другое. Это музыка будущего или просто корпоративный аватар с микрофоном? Напишите, как Вам.


Источник: https://x.com/ELTIEMPO/status/2013695526017847422?s=20



#2. Видео, заполонившие интернет



Kling Motion Control сейчас поражает стабильностью и качеством. Ролики с ним заполнили весь интернет, и людям заходит именно реализм. Минимум артефактов, точные эмоции, чистые движения. Ещё месяц назад в такое просто не верилось.

Но ключевое здесь даже не качество. А скорость. Видеомодели развиваются быстрее, чем индустрия успевает реагировать. Обмен персонажей, лиц и сцен стремительно дешевеет и очень скоро станет почти бесплатным.

Видео перестаёт быть дорогим активом и превращается в расходник. А это уже прямая угроза привычной экономике контента. Kling показал не отдельную фичу. Он показал, куда всё едет.

В прошлом выпуске мы уже показывали, как повторять такие тренды. Но проблема глубже, чем танцы и визуальные эффекты. За обликом миловидной симпатичной девочки сегодня может скрываться совсем недобродушный персонаж.

И без насмотренности отличить это почти невозможно. Поэтому будьте осторожны. И по возможности контролируйте, какой контент смотрят аккаунты Ваших детей.

Источник: https://www.instagram.com/p/DTf-fWYiZ-T/




#1. Higgsfield — король аватаров


Higgsfield выкатил AI Influencer Studio — инструмент для создания вирусных ИИ-аватаров. Можно выбрать один из пресетов или собрать своего персонажа с нуля. Пол, глаза, витилиго, рога — всё под контролем. Я за пару минут сделал девочку-пришельца и игуану.

Попробовал оживить их через Motion Control. В Scene Control Mode генерация обрывалась из-за цензуры, хотя всё прилично, а вот в Photo режиме ролики делались без проблем. Сейчас генерация долгая — похоже, наплыв пользователей огромный.

Фишка интересная: один из сооснователей Higgsfield раньше был в команде Snapchat, которая прославилась масками и фильтрами. И логика нового продукта сильно напоминает именно ту философию, с которой они заходили в Snapchat. Facebook и другие компании потом массово копировали эту идею.

Ещё одна новинка — раздел EARN. Тут можно заработать на своих аватарах. Когда выходят новые функции, появляются кампании с требованиями. Создаёте ролик, публикуете на Instagram или YouTube и отправляете ссылку в Higgsfield. Платят за каждый ролик.

Сумма пока небольшая, но чем больше просмотров — тем выше награда. Точные цифры пока неизвестны. Судя по частоте обновлений, возможностей заработать будет много, но серьёзного дохода пока ждать не стоит.

Источник: https://x.com/higgsfield_ai/status/2013725784800927919?s=20




Смотреть на YouTube: https://www.youtube.com/watch?v=LnG7bS6c-to


Смотреть на Rutube: https://rutube.ru/video/9dae56818bcbd7994f8ac2c080537cf6/



* * *

Если вы AI-креатор и хотите быть в курсе самых актуальных новостей про нейросети, AI-видео и цифровых аватаров, подписывайтесь на мой Telegram-канал «Гари ИИ-Аватар».
Там — больше новостей, разборов инструментов и моего практического опыта: https://t.me/gari_azat

Если вы уже работаете с нейросетями, создаёте AI-контент и видео для себя или клиентов и хотите получать больше заказов, выстроить системную работу, научиться делегировать и со временем создать собственный видеопродакшн, приходите на мой авторский курс:
https://aiavatar.school
Это про мышление креатора в AI-видеоиндустрии: от хаотичных заказов к понятной модели роста и работе с командой.

В нашем видеопродакшене мы используем сервис Syntx AI для создания нейросетевых видео в коммерческих проектах.
По моей ссылке вы можете получить подарочные токены и скидку 15% на подписку по промокоду GARI:
https://syntx.ai/welcome/jbgz60nM

AI-Аватары
Обсудить проект