ИИ-Снегурочка стала вирусом на миллионы. - Видеопродакшн Zilant Pro

ИИ-Снегурочка стала вирусом на миллионы.


ИИшница №85



Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.

Сегодня в выпуске: ИИ-Снегурочка стала вирусом, но была заблокирована. Wan 2.6 от Alibaba предлагает новые возможности. Higgsfield представил инструмент Banana Inpaint для редактирования фото. Runway Gen 4.5 ограничен высокой стоимостью токенов. Seedance 1.5 от ByteDance конкурирует с Veo благодаря синхронизации губ с голосом.




#10. Banana Inpaint в Higgsfield


Higgsfield добавили Banana Inpaint: загружаете изображение, кистью отмечаете область правки и описываете изменение промптом. Инструмент меняет только замаскированную часть и старается сохранить всё остальное без искажений, чтобы замена выглядела «вклеенной» в исходный кадр по свету, перспективе и фактуре.

Сценарий использования сводится к трём шагам: загрузка, маска, промпт — дальше можно удалять и заменять объекты, «переодевать» персонажа, править фон или добавлять новые элементы; в материалах Higgsfield акцентируют точность и аккуратное смешивание без видимых границ редактирования. Нюанс по экономике в интерфейсе: за каждое изменение списывается 3 токена


Источник: https://x.com/higgsfield_ai/status/1999813967481581603?s=20


#9. Gen 4.5 от Runway — проверил лично



Runway активно продвигает Gen-4.5 как новый флагман, но при проверке упираешься в экономику и доступ. По тарифам Runway Gen-4.5 заявлена в подписках, а в бесплатном плане генерация недоступна: Free даёт разовый депозит кредитов, но без доступа к ключевым видеомоделям, тогда как Gen-4.5 появляется в Standard и выше. При этом Gen-4.5 списывает 25 credits за секунду: 5 секунд — 125 credits, а стандартные 625 credits в месяц — это всего около 25 секунд видео.

По качеству картинка может выглядеть «киношно», а апскейл до 4K считается отдельно и стоит 2 credits за секунду (для 5 секунд выходит 10 credits). Важно, что в Gen-4.5 звук не генерируется как часть видеоролика: в тарифах и справке отдельными пунктами идут операции с аудио (добавление/извлечение), а «video with audio» выделено отдельно для других моделей. На этом фоне самой практичной частью Runway выглядят Workflows — узловой редактор, где можно собирать повторяемые пайплайны генерации и постобработки.


Источник: https://x.com/runwayml/status/1999481621326729530?s=20



#8. Если ChatGPT 75 раз попросить «ничего не менять»



Исследователи взяли один портрет и попросили ChatGPT сделать «точную копию» без изменений — затем повторили ту же команду ещё 74 раза, каждый раз копируя уже предыдущий результат. На первых итерациях изображение выглядит почти нормально, но затем начинают накапливаться мелкие сдвиги: оттенки, текстуры и пропорции «плывут», а к концу цепочки картинка всё меньше похожа на исходник.

Идея в том, что модель не «копирует пиксели», а заново интерпретирует увиденное, поэтому каждый цикл становится интерпретацией интерпретации, и ошибки постепенно усиливаются. Этот эффект связывают с понятием model collapse: когда системы всё чаще опираются на собственные синтетические выходы и ошибки вместо свежих данных, из-за чего падает точность и теряется разнообразие

Источник: https://www.instagram.com/reel/DSFP2oqjILi/



#7. Seedance 1.5 от ByteDance




ByteDance обновила видеомодель Seedance до Seedance 1.5 Pro. В обсуждениях ей приписывают генерацию видео со звуком и липсинком — синхронизацию губ с голосом — а также поддержку региональных диалектов, включая варианты речи, которые пользователи относят к провинции Шэньси. По описанию из роликов, результат выглядит как речь актёра в кадре, без заметных рассинхронов, и по этой причине модель сравнивают с Google Veo 3 и с возможностями Kling 2.6.

Также отмечают, что Seedance используют через CapCut, поскольку сервисы принадлежат одной экосистеме ByteDance. Отдельно упоминается, что у автора сценария уже около двух недель не запускаются генерации Google Veo 3 в Syntx AI и Higgsfield, на фоне чего выход Seedance 1.5 Pro воспринимается как заметное обновление в сегменте «видео + звук», даже если по личным впечатлениям вау-эффекта не случилось.


Источник: https://x.com/HalimAlrasihi/status/2000941633538547771?s=20



#6. Wan 2.6 превращает видео в ролевую игру



Alibaba выпустила Wan 2.6 — обновление линейки Wan, которое делает акцент на «video roleplay»: вы даёте референс (в том числе видео с человеком), а модель старается перенести внешность и поведение персонажа в новую сцену по промпту. В официальном описании Wan 2.6 подчёркивают reference-to-video подход и цель — стабильная идентичность героя в сгенерированном ролике вместе с синхронизацией аудио и видео.

По заявленным возможностям Wan 2.6 генерирует клипы до 15 секунд в 1080p и умеет собирать повествование из нескольких планов: модель может разложить запрос на раскадровку и переключать «линзы» внутри одной сцены, сохраняя согласованность персонажей и окружения. Нативная генерация звука и AV sync упоминаются как ключевое отличие версии 2.6, но живых независимых тестов пока немного, поэтому реальная стабильность и качество озвучки в разных сценариях



Источник: https://wan.video/blog/wan2.6-introduction



#5. Kling O1 теперь в SYNTX



Kling O1 появился в Syntx AI и теперь доступен прямо внутри Web и Bot, без отдельного сервиса и смены интерфейса. Модель позиционируется как video-to-video инструмент: по исходному ролику она умеет менять фон и локацию, заменять объекты и реквизит, править детали окружения и материалы, а также перестраивать освещение, время суток, погоду и общую стилизацию кадра, стараясь удерживать персонажа стабильным без ручных масок и сложного композа.

В настройках также заявлены изменения ракурса и движения камеры (наезд, отъезд, панорамы) при сохранении идентичности героя. Для запуска в Syntx AI описывают загрузку короткого видео и референсов с выбором Kling O1 и Professional mode; по ограничениям длительности в сценарии встречаются разные цифры (3–10 секунд и «до 5 секунд, иначе ошибка»). Отдельно упоминается промо: скидка 30% на Kling Omni One до 1 января на все тарифы


Источник: https://t.me/syntxfamily/3491





#4. Higgsfield Shots


Higgsfield запустила Shots — инструмент, который из одной фотографии продукта собирает сет из девяти ракурсов. Загружаете один «хиро»-кадр, и модель генерирует 3×3 набор перспектив в той же сцене, стараясь сохранить свет, композицию и общий стиль, чтобы всё выглядело как серия кадров с одной съёмки.

Полный сет стоит 4 кредита, а каждую картинку можно отдельно апскейлить до 4K. В результате один исходник превращается в готовый комплект для креативов, лендингов и product pages, где нужны общий план, боковой ракурс, крупный план и верхний угол, но нет времени или бюджета на пересъёмку.



Источник: https://x.com/mikefutia/status/2000634119450193990?s=20



#3. Color Picker в LTX для точных цветов



В LTX появился Color Picker — инструмент для точного управления оттенками прямо в промпте. Он работает в Gen Space с моделями FLUX 2 и Nano Banana: вы пишете запрос, выбираете цвет в палитре, и система подставляет его в текст, чтобы вместо «тёплого синего» или «неонового розового» задавать конкретный оттенок.

Есть пипетка, которая позволяет считать цвет с элемента изображения и перенести его в новую сцену одним кликом, чтобы серия кадров держалась в одной палитре. Для брендовых задач предусмотрен ввод HEX-кода: можно фиксировать один и тот же цвет для баннеров, превью и визуалов, не вылавливая совпадение через десятки перегенераций

Источник: https://x.com/LTXStudio/status/1999536989360853093?s=20



#2. GPT Image 1.5



В обсуждениях вокруг генерации изображений в ChatGPT всё чаще всплывает условное название «GPT Image 1.5», но в самом интерфейсе OpenAI не показывает, какая именно image-модель сейчас работает. По словам пользователей, выбор модели включается автоматически и может зависеть от тарифа и региона, а обновления происходят без отдельных уведомлений — из-за этого тестировать «конкретную версию» и сравнивать её в лоб почти невозможно.

По практическим впечатлениям из сравнений в сообществе, генерация изображений в ChatGPT в целом работает, но по скорости и предсказуемости уступает Nano Banana, а доступность правок остаётся нестабильной: изменения могут не применяться или система возвращает пустой ответ. Запросы на стилевые трансформации тоже часто либо игнорируются, либо приводят к слишком буквальным изменениям, которые не совпадают с ожиданиями от промпта. В итоге «GPT Image 1.5» выглядит как тихой апдейт, но пока не как прямой конкурент Nano Banana Pro

Источник: https://x.com/OpenAI/status/2000990989629161873?s=20




#1. Полный разбор Kling O1 Video & Image.


Сгенерированный нейросетью кавер «Расскажи, Снегурочка» от креатора Саши Комович за неделю стал вирусным: ролик разошёлся на десятки миллионов просмотров, а образ «ИИ-Снегурочки» начали массово копировать и обыгрывать другие авторы. Затем проект столкнулся с блокировкой по авторским правам: в сценарии это связывают с претензиями и историей вокруг текста Юрия Энтина из «Ну, pogodi!».

Дальше, по словам автора, вместо публичного конфликта Комович вместе с мужем связалась с Soyuzmultfilm и официально запросила разрешение на использование песни. Итог описывается как полученное «добро» от правообладателя, после чего кавер позиционируется уже не как пиратская переработка, а как легально согласованный проект. Эта история подчёркивает, что в ИИ-контенте риск ошибиться с правами высок, а решающее значение имеет то, как быстро и корректно автор оформляет ситуацию после блокировки.

Источник: https://www.instagram.com/komovich.sasha/reels/




Смотреть на YouTube: https://youtu.be/rIkh3cgCiCo?si=_uSq5Bv0YEZKciZA


Смотреть на Rutube: https://rutube.ru/video/private/51c14e9999bf0710c1f629d0aab49168/?p=baj-Rul3GG329h5sGLSolA



* * *

На этом всё. Если хотите узнать больше про цифровых аватаров и такие ролики — подписывайтесь на телеграм-канал Гари ИИ-Аватар.

А если хотите освоить этот навык и зарабатывать — приходите на мой авторский курс по профессиональному созданию AI-аватаров и монетизации этого навыка.

Нейросетевые ролики на миллионы просмотров создаются с помощью этого телеграм-бота.

Спасибо, что досмотрели! Увидимся в ИИШНИЦЕ на следующей неделе.

AI-Аватары
Обсудить проект