ИИшница №88
Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.
Сегодня в выпуске: Relight и Cinema Studio v1.5 от Higgsfield управление светом и камерой в 3D. AI Stylist от Higgsfield сборка фэшн образов без съёмки и промптов. Nano Banana Pro в Syntx Web точечное редактирование изображений. AI slop слово года и сигнал кризиса ИИ контента. Kling трендовый танец через Motion Control
#10. AI Stylist в Higgsfield
Higgsfield представил AI Stylist — инструмент для создания фэшн-контента без текстовых промптов и студийной съёмки. Сервис работает как визуальный конструктор: пользователь загружает фото модели в полный рост и изображения одежды или аксессуаров, после чего собирает образ из отдельных предметов. Можно использовать готовые образы от Higgsfield или вручную комбинировать нужные вещи, включая собственные загрузки.
В AI Stylist доступны библиотеки поз, которые меняются в один клик и выглядят естественно без описания сцены текстом. Есть набор готовых фонов, при этом собственные фоны загрузить нельзя. После генерации можно создавать дополнительные изображения и использовать функции Angles для смены углов съёмки и Relight для полной перестройки световой схемы под нужный стиль. Стоимость одной генерации составляет 2 токена. Отмечается, что при скачивании изображений важно не переименовывать файл до сохранения, чтобы избежать ошибок загрузки.
Источник:https://higgsfield.ai/app/ai-stylist https://www.youtube.com/watch?v=Kc7xo710I2U
#9. Танцевальный тренд на миллионы просмотров
В TikTok и Reels набрал популярность тренд, где дети и животные танцуют как в клипах BTS. Такие ролики создаются с помощью Kling AI и выглядят так, будто персонажи прошли полноценную хореографическую подготовку. Повторить этот формат можно без съёмок, монтажа и сложного продакшна — достаточно одного фото и референсного видео.
Процесс запускается через Syntx WEB в разделе видео с выбором Kling AI и функции Kling Motion. В профессиональном режиме ориентация итогового ролика сохраняет формат исходного видео. Пользователь загружает вертикальное танцевальное видео в качестве референса, добавляет фото человека или животного в полный рост и использует готовый текстовый промпт. На тарифе Basic генерация занимает больше времени, на Pro результат появляется примерно через 15 минут. Стоимость одной попытки составляет около 60 токенов.
Для анимации питомцев рекомендуется использовать фото, где животное стоит на задних лапах — так движения получаются корректнее и ближе к референсу. Итогом становится короткое вертикальное видео, адаптированное под социальные сети и визуально совпадающее с популярным танцевальным трендом..
Источник: https://vc.ru/ai/2676495-kling-ai-tancevalnye-video-s-detmi-i-pitomtsami
#8. PsyopAnime превращает новости в аниме‑кино
PsyopAnime показывает формат, в котором актуальные мировые события превращаются в короткие аниме-истории. Автор берёт свежие новости, резонансные кадры и публичные заголовки и перерабатывает их в стилизованные видео, напоминающие тизеры или трейлеры аниме-фильмов. Всё создаётся без студии, команды и длительного продакшна — практически в день появления новостей.
В работах сочетаются генеративные AI-инструменты, классический монтаж, ритмичный тайминг и выразительный аниме-сторителлинг. Сюжеты строятся через смену настроений и визуальных акцентов: тревожные образы, нарастающий темп, эмоциональные сцены. Проекты на темы событий в Венесуэле и протестов в Иране подаются как цельные визуальные истории, которые читаются без слов и воспринимаются скорее как художественный трейлер, чем как новостной репортаж.
Формат PsyopAnime демонстрирует, как новости могут адаптироваться под разные аудитории через визуальный язык и стиль. Такой подход смещает акцент с сухой подачи фактов на эмоциональное восприятие и показывает возможное направление развития визуальных медиа в эпоху генеративного ИИ.
Источник:https://x.com/PsyopAnime
#7. Управление зубами в ИИ диалогах
При генерации говорящих персонажей часто возникает одна и та же проблема: идеально ровные и ослепительно белые зубы, которые выглядят неестественно и снижают реализм. В LTX показали приём, позволяющий взять под контроль эту деталь и сделать мимику более живой и правдоподобной.
Сценарий строится из двух шагов. Сначала персонаж собирается и дорабатывается в Nano Banana Pro: редактируется выражение лица, добавляется лёгкая асимметрия, настраивается улыбка и положение рта так, чтобы зубы выглядывали не идеально или выглядели неоднородно. Затем этот образ используется в LTX-2 fast для генерации диалога. В результате видео сохраняет синхронизацию губ, но при этом выглядит менее «пластиковым».
Комбинация Nano Banana Pro и LTX-2 fast даёт контроль не только над липсинком, но и над тем, как выглядит рот изнутри во время речи. Такой подход позволяет избавиться от стерильных улыбок и приблизить результат к живой человеческой мимике, где мелкие несовершенства работают на реализм.
Источник: https://x.com/LTXStudio/status/2006074215905255744
#6. Higgsfield обновил свою Cinema Studio до v1.5
Higgsfield обновил Cinema Studio до версии 1.5, добавив инструменты, которые сближают генеративное видео с привычной кинооптикой. Ключевое изменение — управление диафрагмой: теперь глубина резкости настраивается как в реальных объективах, а не через абстрактное «размытие». Значения вроде f/1.4 дают выраженное боке и свечение, тогда как f/11 формирует более жёсткую и холодную картинку с глубокой резкостью.
В Cinema Studio 1.5 также появился полный контроль соотношений сторон без обходных решений. Доступны пресеты, ориентированные на реальные кинокамеры и форматы, включая ARRI, RED, Panavision, Sony Venice и IMAX, что позволяет сразу мыслить категориями операторской работы. Это смещает фокус с экспериментов с нейросетью на осознанную постановку кадра.
Дополнительно расширено управление проектами и движением камеры. В демонстрационных фан-трейлерах один проект может включать несколько виртуальных камер, наборы объективов и десятки движений, что приближает пайплайн к полноценной киношной сборке сцены внутри AI-среды.
Источник: https://x.com/minchoi/status/2009390660470583357?s=20
#5. Topaz AI в Syntx Web
Topaz AI появился в Syntx Web как встроенный инструмент для финального улучшения видео. Сервис позволяет повышать разрешение вплоть до 4K, увеличивать частоту кадров до 60 fps и усиливать детализацию, особенно заметную на коже, текстурах и шерсти. Теперь для апскейла не требуется отдельный запуск через бота — обработка доступна прямо в веб-интерфейсе Syntx в разделе видео.
Пайплайн выглядит просто: пользователь загружает файл или выбирает ранее сгенерированное видео и настраивает параметры апскейла. Доступны разные модели Topaz AI под конкретные задачи: Proteus v4 как универсальный вариант для апскейла и слоумо без выраженных артефактов, Gaia для графики и 3D-контента, Iris для портретов и лиц. В профессиональных настройках можно управлять шумом, резкостью, компрессией, добавлять плёночное зерно и корректировать фокус.
При тесте с апскейлом 2× и частотой 60 fps разница между исходным и улучшенным видео заметна сразу: кожа выглядит чище и объёмнее, а шерсть — более детализированной и естественной. Интеграция Topaz AI в Syntx Web упрощает финальный этап работы с видео, когда вся анимация уже согласована и требуется аккуратно довести результат до презентационного качества.
Источник: https://t.me/syntxfamily/3622
https://www.youtube.com/watch?v=WV5_SuQ61IA
#4. Этот салат продаёт лучше любого рекламного ролика
В соцсетях начали набирать просмотры ролики, стилизованные под запись с камеры наблюдения: ребёнок спит, в комнату заходит Дед Мороз, кладёт подарок под ёлку, говорит несколько слов и исчезает. За счёт ночного света, статичного кадра и «камерного» ракурса видео выглядит как реальная съёмка, и именно это создаёт эффект настоящего чуда. На деле такие сцены собираются полностью с помощью AI-инструментов и делаются довольно быстро.
Процесс начинается с фотографии ребёнка в комнате, после чего изображение обрабатывается в Syntx WEB через режим Nano Banana Pro с эффектом ночной съёмки. Затем в тот же кадр добавляется персонаж Деда Мороза, а готовая сцена анимируется в Google Veo 3.1 Fast в режиме Image to Video, где можно задать движение и текст поздравления. Для более сложного появления персонажа, например входа в комнату или подхода к ёлке, используется Kling в режиме Keyframes. Финальный результат собирается в любом видеоредакторе с музыкой и шумами, что усиливает ощущение скрытой камеры.
В итоге получается короткий ролик, который воспринимается как реальная запись и работает именно за счёт правдоподобия, а не визуальных эффектов.
Источник: https://x.com/recap_david/status/2007987682681782457?s=20
#3. AI slop стал словом года. И это тревожный знак
В 2025 году Oxford Languages назвал словом года выражение AI slop — так описывают однотипный, перегруженный и бессодержательный контент, созданный с помощью ИИ. Это бесконечные видео и тексты, которые хорошо «заходят» алгоритмам, но всё хуже удерживают внимание людей. Абсурдные сюжеты и клики ради кликов заполняют ленты, превращая интернет в поток визуального шума.
Исследовательские отчёты показывают, что около 20% видео, которые YouTube предлагает новым пользователям, относятся именно к AI slop. В начале января глава Instagram Адам Моссери опубликовал большой материал об аутентичности, где прямо указал на сдвиг интересов аудитории. Идеальный глянцевый контент, вылизанные кадры и безупречная картинка теряют ценность, тогда как живые, несовершенные фото и видео всё чаще становятся тем, чем люди делятся друг с другом напрямую.
По словам Моссери, фокус смещается с формата и качества изображения на личность автора. Решающее значение имеют голос, точка зрения и стиль, а не фильтры и техническое совершенство. ИИ остаётся инструментом, но именно авторская позиция отличает живой контент от AI slop и определяет, кто будет заметен в лентах в ближайшие годы.
Источник: https://www.instagram.com/p/DS7pz7-DuZG/?utm_source=ig_embed&ig_rid=80756b4a-af75-4008-af82-ad39a1f70b21
#2. Nano Banana Pro появился в Syntx Web
Nano Banana Edit ранее уже был показан в Higgsfield как инструмент для точечного редактирования изображений без пересборки всей сцены, и теперь он появился в Syntx Web. Это редактор, рассчитанный на аккуратные локальные правки: пользователь загружает изображение в разделе дизайна, выбирает Nano Banana Pro и работает с кистью, вручную выделяя область для изменений. Маску можно уточнять ластиком, что даёт заметно больше контроля по сравнению с полной регенерацией кадра.
После выделения зоны задаётся текстовый промпт и прикрепляется изображение-референс для замены элемента, например логотипа или детали объекта. Такой подход позволяет менять отдельные фрагменты изображения, не затрагивая остальную композицию. Однако в версии для Syntx Web есть важное ограничение: отсутствует история изменений и сравнение вариантов. Кнопки отмены и повтора не сохраняют предыдущие версии, поэтому каждую удачную правку нужно сразу скачивать — после следующего изменения предыдущий результат теряется.
В итоге Nano Banana Pro в Syntx Web лучше всего подходит для быстрых и одиночных корректировок, когда требуется заменить или поправить конкретную деталь. Для более масштабных изменений сцены удобнее использовать полноценную сборку в отдельном инструменте Nano Banana Pro. При понимании этих ограничений редактор экономит время и даёт точный контроль, но с точки зрения удобства интерфейса ему пока не хватает развитой системы версий.
Источник: https://vc.ru/ai/2678342-redaktor-nano-banana-pro-tocechnoe-redaktirovanie
#1. Kling 2.6 Motion Control управление движением
Higgsfield представил Relight — инструмент постпродакшн-освещения, который позволяет управлять светом уже после съёмки. Можно менять направление источников, цветовую температуру, интенсивность и жёсткость теней без пересъёмок и полноценной съёмочной команды. По задумке это даёт студийный контроль над светом в одиночном рабочем процессе и выглядит как серьёзный шаг в сторону виртуального продакшна.
На практике Relight действительно корректно работает с объёмом сцены и ведёт свет в 3D, что подтверждают примеры пользователей. Однако получение выразительного результата требует времени и понимания логики освещения: чтобы добиться «киношного» эффекта, приходится вручную разбираться, откуда и как должен работать свет. Это уже не автоматическая кнопка улучшения, а инструмент с порогом входа, ближе к классической световой настройке.
В этом и заключается нюанс: Relight способен на сильный результат, но требует вовлечённости и терпения. В ряде задач быстрее оказывается использовать референс с нужным светом и добиться похожего эффекта через Nano Banana за минимальное количество итераций. Поэтому Relight сегодня — скорее инструмент для тех, кто хочет и умеет работать со светом вручную, а не универсальное решение «для всех».
Источник: https://x.com/toolfolio/status/2008833569637175370?s=20
Смотреть на YouTube: https://youtu.be/rIkh3cgCiCo?si=Uj8JlTnO4n-NsU
Смотреть на Rutube: https://rutube.ru/video/private/488ac0628cd0dfae6249a184c1fa7124/?p=nq7X214nabgkDfnUzmF4Qg
* * *
На этом всё. Если хотите узнать больше про цифровых аватаров и такие ролики — подписывайтесь на телеграм-канал Гари ИИ-Аватар.
А если хотите освоить этот навык и зарабатывать — приходите на мой авторский курс по профессиональному созданию AI-аватаров и монетизации этого навыка.
Нейросетевые ролики на миллионы просмотров создаются с помощью этого телеграм-бота.
Спасибо, что досмотрели! Увидимся в ИИШНИЦЕ на следующей неделе.
