ИИшница №94
Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.
Сегодня в выпуске: Recraft выпустила V4 — первую модель, которая действует как дизайнер и может сама создавать стильные изображения.
Я протестировал новый Higgsfield Studio 2.0 и разочаровался, но нашёл пользу.
На Freepik теперь в один клик можно сделать сотню адаптаций изображения для разных форматов и рынков.
#10. Freepik Spaces масштабирование креатива
Freepik добавили инструмент List Nodes в разделе Spaces: он позволяет из одного исходного дизайна быстро получить десятки и сотни версий под разные рынки и форматы. По задумке это упрощает массовую локализацию кампаний и выпуск креативов без ручного пересобирания каждого варианта.
На практике берётся один макет, после чего система автоматически переводит текст, подстраивает визуал под аудиторию, меняет цветовую палитру под локальные предпочтения и сразу делает ресайзы под нужные размещения — от Stories и баннеров до обложек и performance-креативов.
Также заявлена вариативная адаптация внешности модели под конкретные рынки (например, европейский или азиатский): лицо и причёска досоздаются под задачу, а остальной шаблон остаётся неизменным. За счёт List Nodes процесс локализации описывается как генерация «пакетов» вариаций из одного визуала, когда вместо таблиц с правками настраивается повторяемая схема производства.
Источник: https://x.com/freepik/status/2023406511154937978?s=20
#9. ИИ-фильм за $200 млн
The Dor Brothers опубликовали короткометражку «Apex», которую в публикациях и по их словам позиционируют как «блокбастерный» ролик, собранный полностью с помощью ИИ примерно за сутки. В обсуждениях часть зрителей сомневается в сроках, но общий тезис понятен: большой по ощущению продакшн сделан без съёмочной группы и длинного производственного цикла.
Ролик связывают с Seedance 2.0 — видеомоделью ByteDance, официально представленной в феврале 2026 года. В кадрах отмечают кинематографичный свет, динамику камеры и более стабильных персонажей, хотя заметны типичные артефакты: местами странная физика разрушений и скачки фона при склейках между внешним планом и салоном автомобиля. Даже с этими огрехами кейс показывает, что генеративный пайплайн уже может быстро собирать «дорогую» картинку малыми командами — вопрос упирается в режиссуру, контроль стиля и консистентность.
Источник: https://www.youtube.com/watch?v=V5AFQaEbHQU
#8. Krea на iPad: новый подход к ИИ
Krea объявила о покупке iPad-приложения для рисования Wand и выпустила обновлённую версию с ключевой функцией Realtime Edit — режимом, где изображение пересчитывается почти мгновенно по мере того, как вы рисуете, меняете промпт или стиль.
Идея в том, чтобы убрать «перепрыжки» между наброском и финальной генерацией: вместо связки «скетч → отдельная генерация → правки → экспорт/импорт» появляется единый интерактивный холст, где результат обновляется в реальном времени и проще держать контроль над деталями на лету. Это не “новая модель” сама по себе, но меняет ощущение скорости итераций и делает iPad + Apple Pencil более естественной точкой входа в генеративный рабочий процесс.
Источник: https://x.com/krea_ai/status/2022071804739957218?s=20
#7. ElevenLabs: ИИ-агенты как живые
ElevenLabs провели саммит в Лондоне и показали Flow — новый инструмент с нодовым интерфейсом, который, по их словам, станет доступен всем в ближайшее время. Это единый холст, где в одном процессе можно комбинировать текст, звук, голос и изображения, собирая продакшн-цепочки и подключая несколько моделей одновременно.
Отдельно представили “Expressive Mode” для голосовых агентов: в демо агент меняет интонацию и стиль речи, чтобы звучать более «по-человечески» и снижать напряжение в конфликтных звонках. В примере с отменённым рейсом агент не читает заготовленный скрипт, а аккуратно ведёт диалог, предлагает варианты и оформляет новый билет, уточняя, что доплаты не потребуется. Демонстрационный ролик в X, как утверждается, набрал более 11 млн просмотров, что заметно выше обычных показателей аккаунта.
Источник: https://x.com/elevenlabsio/status/2023411664851279890?s=20
#6. Тест Cinema Studio 2.0
Higgsfield выпустили Cinema Studio 2.0, и в тесте упор был на новые функции: 3D-режим управления сценой, контроль скорости и эмоций. При сборке видео через несколько сцен удалось выбрать персонажа, стартовый кадр и промпт, задать движение камеры и скорость (пресеты, авто и ручная кривая по 5 точкам), а также применить общий пресет на весь ролик — в тесте выбран “action”.
По результатам камера отрабатывает уверенно: пролёты в целом получаются, и ограничения пайплайна понятны. При этом боёвка в первой сцене вышла слабой, а сцена с мотоциклом «сломалась». В 3D-режиме возникли проблемы с доступностью: при генерации сеткой 3×3 режим оказался недоступен, а при одиночной генерации 3D собирался отдельно и давал низкое качество — смена угла была быстрой, но персонажи почти не менялись, а детали окружения выглядели как попытка дорисовки. Эмоции тоже не проявились: в трёх сценах с разными состояниями (радость, шок, грусть) при выборе силы эмоции визуально почти не менялись, промпт слушался слабо, а повторные попытки и Single Shot с увеличением времени генерации ситуацию не улучшили.
Итог теста: из заявленных новинок стабильно работает только управление камерой, а скорость, эмоции и 3D-режим пока выглядят сырыми и дают непредсказуемый результат.
Источник: https://x.com/ImperfectEngel/status/2022351085655253030?s=20
#5. LTX представили Brand Kit
LTX Studio добавили Brand Kit — enterprise-функцию для централизованного управления бренд-элементами прямо внутри пайплайна генерации. В один набор собираются логотипы, типографика, персонажи, продукты и стили, чтобы команда получала более консистентный результат от кадра к кадру и не расходилась по «версии не те / цвет не тот» на этапе правок.
Кит создаёт Creative Admin: загружает и управляет элементами, публикует набор для команды, а участники проекта подключают его в работе и вызывают элементы в промптах через символ @. В LTX Studio подчёркивают, что изменения синхронизируются сразу для всех и могут использоваться в нескольких проектах, а также допускается работа с несколькими наборами в одном проекте — удобно для агентств и команд с несколькими брендами.
Вопрос про «случайный креатив» тут скорее упирается в настройки: Brand Kit фиксирует разрешённые ассеты и правила, но не запрещает экспериментировать в рамках этих ограничений — просто делает отклонения заметнее и управляемее на уровне системы.
Источник: https://x.com/LTXStudio/status/2021958448179773601?s=20
#4. Делаем трендовый ролик в Syntx
В соцсетях вирусится эффект, где размываются персонаж и окружение, и этот ролик показывает, как быстро повторить приём через Syntx AI: сначала берётся первый кадр из референса и адаптируется под формат 16:9. Параллельно тот же кадр прогоняется через Seedream 4.5 и Nano Banana Pro, обе модели с задачей справились.
Дальше в сцену аккуратно подставляется персонаж: загружается качественное фото, задаётся промпт на перенос внешности, и лучший результат в тесте даёт Nano Banana Pro, поэтому его используют как базовый стартовый кадр. Затем это изображение загружается в видеогенерацию, добавляется текстовое описание происходящего и нужных эффектов, после нескольких попыток на разных моделях итоговый клип получается собрать в Kling 3.0 Pro. Логику можно повторять для любых подобных роликов внутри Syntx AI.
Источник: https://www.instagram.com/p/DUvapqjDHFh/?img_index=1
#3. Хайп Seedance 2.0 уже не остановить
Seedance 2.0 активно расходится по соцсетям: пользователи публикуют реалистичные сцены с «киношным» светом и сложной физикой, которые, как утверждается, сделаны только по текстовому промпту — без LoRA, без набора референсов и долгой подготовки. На фоне отдельных удачных шотов здесь подчёркивают именно стабильность: появляется поток роликов, которые выглядят как дорогой продакшн с VFX и спецэффектами, а не разовые эксперименты.
Одновременно говорится, что Kling 3.0, вышедший недавно, почти потерялся в инфополе на фоне Seedance 2.0. При этом протестировать модель за пределами Китая сейчас сложно: «обходные» варианты описывают как дорогие или нестабильные, а полноценный доступ обещают до конца февраля. Если это подтвердится, фокус сместится с вопроса «можно ли сделать кино из текста» на вопрос о том, почему старые процессы всё ещё считаются нормой.
Источник: https://x.com/charliebcurran/status/2022463429823598999?s=20
#2.Phoenix-4 — эмоции в 40 FPS
Tavus представила Phoenix-4 — модель реального времени для рендеринга «цифрового человека», которая генерирует изображение целиком на лету, а не воспроизводит заранее записанные лупы. Заявлены 1080p при 40 fps и полный рендер лица с мимикой, поворотами головы, взглядом и деталями вроде волос, причём каждый кадр создаётся заново.
Ключевой акцент — поведение в диалоге: Phoenix-4 работает в полнодуплексном режиме и начинает реагировать, пока пользователь ещё говорит, добавляя кивки и микровыражения в такт разговору. Для выразительности заявлены более 10 эмоциональных состояний с плавными переходами, которыми можно управлять через LLM, либо отдать управление восприятию Raven-1, чтобы реакции формировались контекстно.
В личном впечатлении автора это выглядит убедительнее стриминговых аватаров в HeyGen и Synthesia. Потенциальные сценарии применения описываются как терапия, обучение и поддержка — везде, где важны эмпатия и «живое» присутствие, а не формат talking head.
Источник: https://x.com/antonello/status/2024389390936449406?s=20
#1. Recraft V4 — эстетика одной кнопкой
Recraft выпустили Recraft V4 и делают акцент не столько на «фотореализме», сколько на эстетике: по заявлению разработчиков, модель должна не просто следовать тексту, а учитывать композицию, цвет и «вкус» на уровне дизайнерского решения. В сравнении с Nano Banana Pro в сценарии отмечается разница в подаче: обе модели понимают промпт, но у V4 чаще получается более постановочный, «режиссёрский» кадр, тогда как у Nano Banana результат выглядит корректно, но более нейтрально и стерильно.
Отдельно подчёркивается типографика: в сложных постерных запросах V4 не просто накладывает текст поверх изображения, а пытается встроить его в композицию, делая буквы полноценным элементом дизайна. По доступности упоминаются два варианта: обычный V4 как более быстрый и дешёвый, и V3 Pro как более тяжёлый, дорогой и качественный. При этом автор отмечает расхождение между промо-примерами и опытом части пользователей, которые не получают сопоставимого результата в реальной генерации.
Источник: https://webflow.recraft.ai/blog/introducing-recraft-v4-design-taste-meets-image-generation
Смотреть на YouTube: https://youtu.be/yfFGE5JTTAU
Смотреть на Rutube: https://rutube.ru/video/7ae478d3641cc154cadb62119c1f2c18/
* * *
Если вы AI-креатор и хотите быть в курсе самых актуальных новостей про нейросети, AI-видео и цифровых аватаров, подписывайтесь на мой Telegram-канал «Гари ИИ-Аватар».
Там — больше новостей, разборов инструментов и моего практического опыта: https://t.me/gari_azat
Если вы уже работаете с нейросетями, создаёте AI-контент и видео для себя или клиентов и хотите получать больше заказов, выстроить системную работу, научиться делегировать и со временем создать собственный видеопродакшн, приходите на мой авторский курс:
https://aiavatar.school
Это про мышление креатора в AI-видеоиндустрии: от хаотичных заказов к понятной модели роста и работе с командой.
В нашем видеопродакшене мы используем сервис Syntx AI для создания нейросетевых видео в коммерческих проектах.
По моей ссылке вы можете получить подарочные токены и скидку 15% на подписку по промокоду GARI:
https://syntx.ai/welcome/jbgz60nM
