ИИшница №89
Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.
Сегодня в выпуске: RFreepik Change Camera 360 дал контроль ракурса, но консистентность пока хромает. ИИ-дуэт Димы Билана показал, как нейросети входят в поп-культуру. LTX-2 доказал, что open source видео стало быстрым и практичным. Выпуск — про переход от эффектов к осознанным инструментам креатора.
#10. LTX-2 открыли веса
Lightricks открыла LTX-2: в публичный доступ выложены не API-ключи и не демо, а сами веса модели, код обучения и тесты. Модель синхронно генерирует видео и звук и может запускаться локально на вашей видеокарте, без обязательной привязки к облаку.
По описанию в сценарии, LTX-2 заявляет нативное 4K-видео до 50 fps и ролики до 20 секунд с диалогами, музыкой и эффектами, а также сохранение идентичности персонажей, липсинк и сложные движения камеры. Поддерживаются text-to-video, image-to-video и video-to-video, карты глубины, ключевые кадры и LoRA под стили; отдельно отмечается «3D-логика камеры». Оптимизация заявлена под RTX, включая NVFP8 и пайплайны через ComfyUI; оценки скорости на RTX 4080 и «5060» приводятся со слов пользователей.
Тезис про «всё бесплатно» и «полное авторское право» зависит от лицензии и условий использования, но сам факт локального запуска с открытыми весами снижает зависимость от облачных кредитов и условий провайдера.
Источник: https://huggingface.co/Lightricks/LTX-2
#9. Mixed Media от Higgsfield делает стиль
Higgsfield запустила Mixed Media — инструмент, который стилизует исходное видео «в одну кнопку». Загружаете клип до 10 секунд (вертикальный или горизонтальный), выбираете стиль и получаете переработанный ролик без ручного монтажа и настройки параметров.
По описанию сервиса, это не фильтры поверх картинки: стилизация встраивается в сцену, а графика внутри кадра реагирует на свет, глубину и движение. Отдельно можно управлять цветами фона, среднего слоя и объекта, подгоняя результат под бренд или нужное настроение. Из ограничений отмечают, что часто итог выглядит как около 15 fps, при этом визуально сохраняется цельный «киношный/рекламный» вайб; автор сценария говорит, что результат можно публиковать без бесконечных перегенераций и заметного «AI-эффекта».
Источник: https://higgsfield.ai/mixed-media
#8. Freepik Variations это сториборд в один клик
Freepik показала Variations — инструмент, который собирает сториборд из одного изображения. Вы берёте исходный визуал, задаёте сетку (например 2×2 или 3×3), добавляете контекст — и сервис генерирует сразу последовательность кадров одной сцены с сохранением консистентности, причём одним мультисплит-файлом, который удобно дальше отправлять в анимацию, включая Sora 2.
По впечатлениям автора сценария, Variations работает быстро и заточен именно под этап «собрать последовательность», а не поштучную генерацию. Отдельно отмечается механика списаний: если конкретный кадр не сгенерировался, оплату за него не берут. Инструмент сравнивают с Popcorn от Higgsfield: у Freepik уже получается до 9 кадров и заявлено расширение до 16, тогда как у Higgsfield упоминается лимит в 7; при этом по субъективной оценке автора, Higgsfield может давать более «сочные» кадры, а Freepik выигрывает удобством и аккуратным пайплайном.
Источник: https://x.com/freepik/status/2009655244045848606?s=20
#7. ИИ-видео, от которых плачут миллионы
На этой неделе заметно разошлись ИИ-видео креатора Владимира Брагина: он показал постаревших и давно забытых мультгероев — узнаваемые образы из детства, но уже в тишине и одиночестве, с ощущением прошедшего времени. Акцент сделан не на технологии, а на эмоции: ностальгия, взросление и утрата считываются сразу, даже без объяснений.
Ролики начали набирать десятки миллионов просмотров и разлетелись по репостам, а в комментариях обсуждают не «в какой нейросети сделано», а собственные воспоминания и чувство потери. История здесь важнее инструмента: нейросети работают как способ быстро визуализировать идею и попасть в переживания аудитории, а вирусность создаёт именно точный эмоциональный ход.
Источник: https://www.instagram.com/braginfilm/reels/
#6. Дима Билан спел дуэтом с ИИ и это не шутка
Дима Билан выпустил трек «Границы», записанный дуэтом с нейросетевым персонажем — «Снегурочкой» Александры Кимович. По сценарию, это не кавер, а совместная работа: вокал Билана сочетается с цифровым голосом персонажа, а автором музыки и текста выступила Александра Кимович.
Проект подаётся как эксперимент с форматом «живой артист + цифровой герой»: подчёркивается, что персонаж создан человеком с использованием нейросетей, а сам Билан говорит, что готовых инструкций не было и всё собиралось через поиск и интуицию. Визуальная часть вызвала смешанную реакцию: «Снегурочка» выглядит достаточно реалистично, тогда как образ Билана в некоторых кадрах воспринимается более «пластиковым»; вокруг качества CGI и работы с текстурами в обсуждениях много споров. На фоне этого кейс уже стал узнаваемым примером, который зрители и клиенты упоминают как референс.
Источник: https://www.instagram.com/p/DTPcKrxDHSu/?img_index=4
#5. Freepik обещает идеальную кожу без пластика
Freepik продвигает Magnific Skin Enhancer как инструмент для «живой» кожи без глянца и пластиковых лиц: обещают микродетали, аккуратное усиление текстуры и мягкий свет без агрессивной ретуши. В промо акцент на тонких корректировках и последовательном апскейле, чтобы портреты выглядели более реалистично.
По опыту из сценария, в реальной работе есть нюансы. После улучшения кожи результат может автоматически кропнуться в портретный план, а полный кадр не выдаётся — из-за этого страдает композиция. Если вручную повторно выбрать инструмент и сохранить исходный кадр без кропа, эффект кожи заметно слабее, а нейросеть может менять посторонние детали вроде цвета головного убора. В целом Skin Enhancer лучше раскрывается на крупном портрете, а на более общих планах чаще ограничивается апскейлом и действует менее предсказуемо, плюс интерфейс легко вводит в заблуждение.
Источник: https://x.com/freepik/status/2008968162067534291?s=20
#4. Higgsfield What’s Next?
Higgsfield запустила What’s Next? — инструмент, который помогает придумать продолжение сцены, когда нет готовой идеи. Вместо полного сценария вы загружаете один визуал, а система предлагает направления развития: каким может быть следующий кадр, какое настроение и драматургия подходят, как может продолжиться история. Это подаётся не как генерация финального видео, а как навигация по вариантом будущего сюжета.
По сценарию, What’s Next? работает как визуальный брейншторм: даёт последовательность, которая ощущается цельной историей и помогает зацепиться за один из вариантов. Дальше уже начинается режиссура — из предложенной раскадровки выбираются ключевые кадры и отдельно генерируются сцены для итогового видео. Инструмент не заменяет мышление и вкус, а ускоряет старт и помогает выйти из творческого ступора за счёт наглядных вариантов.
Источник: https://x.com/higgsfield_ai/status/2009992555107143907?s=20
#3. Suno поёт Вашим голосом в Синтексе
В Syntx AI появилась возможность генерировать треки в Suno с опорой на загруженный голос. В самом Suno такой сценарий знаком давно: записываете вокал, используете его как референс, и модель строит композицию вокруг тембра. Новизна здесь в том, что функция доступна внутри Syntx AI, но работает по-разному в вебе и в Telegram.
По сценарию, стабильный вариант сейчас — Telegram-бот: там можно выбрать Suno v5, включить пользовательский режим, загрузить трек или напеть голосом и затем запустить генерацию «с помощью персоны», добавив текст и стиль. В веб-версии Syntx AI автор столкнулся с тем, что загрузка для продления трека даёт ошибки и непредсказуемые результаты, а микрофон не записывает вокал, а только переводит речь в текст, при этом токены списываются. Итоговый голос может совпадать не на 100%, но сам пайплайн в боте уже даёт воспроизводимый результат.
Источник: https://t.me/syntxfamily/3693
#2. Google Veo 3.1 вертикальные 9:16 в 4K в Vids
Google обновила Google Veo 3.1: теперь модель заявленно поддерживает генерацию вертикальных роликов 9:16 в 4K и глубже интегрирована в Gemini и Google Vids. В материалах Google акцентируют улучшения по консистентности персонажей: лица меньше меняются от кадра к кадру, мимика и движения выглядят более связно, а синтетические голоса — менее однотипно.
Google Vids при этом продвигается как AI-видеоредактор внутри Google Workspace с максимально «документным» сценарием работы: пишете текст, а сервис собирает ролик с говорящими персонажами и липсинком на базе Veo 3.1. Отдельно упоминают Ingredients to Video: загружаете 1–3 изображения, добавляете промпт — и система генерирует вертикальный 8-секундный клип, добавляя движение и переходы и стараясь сохранять лица, логотипы и стиль бренда. В демонстрации подчёркивают скорость пайплайна — один запрос и около 30 секунд ожидания.
Источник: https://x.com/GoogleWorkspace/status/2011136917941665862?s=20
#1. Freepik Change Camera 360
Freepik Change Camera 360 — инструмент для управления виртуальной камерой из одного изображения. Вы берёте один кадр и получаете круговой обзор сцены, меняя ракурс, высоту и перспективу, чтобы быстро подобрать композицию — удобно для сториборда и поиска угла съёмки.
По смыслу похожий пайплайн можно запустить и без подписок на Hugging Face: в более техническом виде он связывается с Qwen-Edit-2511 workflow и подходом к восстановлению/перерендерингу изображения как 3D-сцены. В процессе можно вращать и перемещать камеру, менять фокусное расстояние и перспективу; при приближении восстанавливаются детали, при отдалении достраивается окружение. В одном из вариантов workflow (sharp) из изображения генерируется PLY-файл, который затем открывается в 3D-вьювере.
Разница в том, что Freepik продаёт обёртку: быстрый вход и минимум настроек, тогда как Hugging Face — бесплатнее, но требует разбираться. При этом результат пока чаще выглядит «пластиково», а при смене ракурса могут плыть лицо, одежда и пропорции, поэтому это скорее инструмент для идей и превиза, чем для продакшна.
Источник: https://x.com/os_orabi/status/2009678198431428878?s=20
Смотреть на YouTube: https://youtu.be/X2UKOfO0wu8
Смотреть на Rutube: https://rutube.ru/video/private/0dc294f0582713d7945e5bd0f9c9aa9c/?p=FFvHXSHXvOzQBrA419-V6Q
* * *
На этом всё. Если хотите узнать больше про цифровых аватаров и такие ролики — подписывайтесь на телеграм-канал Гари ИИ-Аватар.
А если хотите освоить этот навык и зарабатывать — приходите на мой авторский курс по профессиональному созданию AI-аватаров и монетизации этого навыка.
Нейросетевые ролики на миллионы просмотров создаются с помощью этого телеграм-бота.
Спасибо, что досмотрели! Увидимся в ИИШНИЦЕ на следующей неделе.
