ИИшница №79
Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.
Сегодня в выпуске: Как Nano Banana 2 выходит без цензуры и с апскейлом до 4K, а Higgsfield запускает Recast и командный режим Teams. LTX Studio и Syntx показывают новый уровень генерации видео и коллабораций. HeyGen обновил перевод с липсинком, а китайский Douyin взорвался ИИ-видео про пришельца. Разберём, как эти инструменты меняют индустрию и где креаторам уже сегодня можно на этом заработать.
#10. Qwen Image Edit крутит камеру прямо внутри фото
Qwen Image Edit позволяет менять ракурс прямо внутри обычной фотографии — без 3D-моделей и повторных съёмок. Пользователь загружает снимок на Hugging Face и с помощью ползунка задаёт направление камеры: можно повернуть сцену на 45 или 90 градусов, наклонить сверху вниз или снизу вверх. Эффект выглядит так, будто фото снято под новым углом.
Бесплатного лимита хватает примерно на десяток изображений — после уведомления о превышении квоты ZeroGPU требуется подписка PRO за $9. У платной версии тёмный интерфейс, у бесплатной — упрощённый, но с тем же функционалом. Иногда видны искажения при сложных перспективах, однако фронтальные кадры выглядят естественно. Инструмент подходит тем, кто хочет добавить движение и глубину в статичные фото для Reels и Shorts.
Источник: https://x.com/linoy_tsaban/status/1986090375409533338?s=20
#9. Higgsfield Recast — дипфейк, в который хочется поверить
Higgsfield представила Recast — инструмент, который заменяет героя в видео на другого человека по фото. Пользователь загружает фрагмент ролика и своё изображение, после чего нейросеть подстраивает движения, мимику и повороты головы. Если ракурсы совпадают, результат выглядит очень реалистично; при несоответствии углов лица заметны искажения, особенно при активных движениях.
Recast предлагает два режима: быстрый фейссвап и продвинутый редактор, где можно выбрать лицензионные лица из библиотеки, добавить голос, язык и дубляж. По словам авторов, Higgsfield уже начала заключать контракты с людьми на использование их внешности в рекламе, формируя базу цифровых персон. Генерация доступна по подписке: короткий ролик длительностью около 10 секунд обходится примерно в 275 рублей.
Источник: https://vc.ru/ai/2330145-generator-dipfeikov-recast-ot-higgsfield
#8. LTX Studio — новое имя в генеративном видео, уже в топ-3
Новая видеомодель LTX-2 от LTX Studio ворвалась в рейтинг Artificial Anlys Video Arena и заняла третье место среди лучших генеративных видео-ИИ. Выше только Kling 2.5 Turbo и Google Veo 3.1 — впечатляющий результат для проекта, который появился без громких релизов и агрессивного маркетинга. По оценкам тестов, LTX обошла PixVerse, Baidu и даже одну из моделей Google, выделившись стабильностью и скоростью работы.
Создатели LTX Studio — команда Lightricks, известная по Facetune и Videoleap. Платформа позволяет писать сценарии, собирать сториборды и генерировать видео из текста или изображений прямо в браузере. Есть два режима: Fast для быстрой генерации и Pro с роликами до 20 секунд, разрешением до 4K и частотой 25–50 кадров в секунду. Предусмотрен бесплатный доступ для тестирования, включая генерацию со звуком.
Источник: https://x.com/LTXStudio/status/1986442720534016449?s=20
#7. Что такое Узловая система в нейросетях
Узловая система (или node-based workflow) становится стандартом в современных генеративных нейросетях. Вместо привычного принципа «ввел промт — получил результат» процесс теперь строится из связанных между собой узлов, где каждый отвечает за отдельный этап: текстовый ввод, генерацию, апскейл или анимацию. Визуально это выглядит как схема, позволяющая видеть и контролировать весь процесс создания контента.
Такая структура впервые появилась в Runway, а теперь реализована и во Freepik. Узлы дают полный контроль над генерацией: можно менять порядок, подменять отдельные модули или сохранять шаблоны для повторного использования. Это упрощает автоматизацию и совместную работу — продюсер или монтажёр могут использовать готовые графы без глубоких знаний моделей. По оценкам авторов, узловая система быстро становится новым стандартом индустрии.
Источник: https://x.com/freepik/status/1987945849977229466?s=20
#6. Veo Ingredients — три фото объединяются в одно видео
В обновлении Google Veo появилась система Ingredients, которая позволяет соединять до трёх изображений в одно видео. Пользователь загружает фото предметов, пространства или людей, и модель объединяет их в цельный кадр, создавая впечатление реальной съёмки. Функция работает в инструменте Flow, но требует VPN и зарубежных платёжных данных. Теперь этот режим доступен и через Syntx AI, что упрощает тестирование.
В режиме Ingredients to Video (модель Veo 3.1 Fast) можно выбрать соотношение сторон 16:9 и загрузить три изображения с описанием сцены. Нейросеть собирает из них короткий видеоклип, где все элементы выглядят как часть единой сцены. Возможны неточности, особенно при сложных ракурсах, но при корректных исходниках результат выглядит реалистично. Подписка Syntx Bot Elite даёт безлимитный доступ к генерациям Veo 3.1 Fast.
Источник: https://x.com/MaxVOAO/status/1981063367604236569?s=20
#5. ИИ создаёт игры, которых нет, и это выглядит как магия
Блогер HAL2400AI показал ролик «Приключение Чихиро», который выглядит как фрагмент настоящей игры — с персонажами, освещением, локациями и физикой. Но самой игры не существует: её целиком придумала и визуализировала нейросеть. Автор утверждает, что создал этот «геймплей» всего за 30 минут, используя только текстовое описание.
Проект стал вирусным, потому что демонстрирует новый уровень генерации контента: без кода, движков и студийных ресурсов. Теперь одной фразой можно вызвать к жизни целый игровой мир. Это ставит вопрос о будущем геймдева — возможно, вскоре важнее будет не писать код, а уметь описывать идею.
Источник: https://x.com/HAL2400AI/status/1984752087591465254?s=20
#4. Домохозяйка из Китая жарит пришельца, интернет взорвался
В китайском Douyin появилось вирусное видео, где женщина несёт на плече ксеноморфа из «Чужого», а затем жарит его в wok, как обычное блюдо. Ролик выглядит настолько реалистично — с проработанным светом, дымом и текстурами, — что зрители спорят, где граница между фейком и реальностью. Детализация и плавность движений указывают, что сцена создана одной из современных видеомоделей — предположительно Kling AI или Runway Gen-3.
Такие клипы показывают, насколько далеко шагнула генерация видео: если раньше подделку можно было узнать по артефактам и искажениям, то теперь даже опытные зрители теряются. Эра, когда фейк легко отличить от реальности, похоже, закончилась.
Источник: https://www.instagram.com/reel/DQ3lKALgMZ8/
#3. Higgsfield Teams — создавать ИИ-видео всей командой
Higgsfield AI запустила тариф Teams — формат, в котором над проектами можно работать коллективно, как в продакшн-студии. В одном рабочем пространстве собираются папки с референсами, фото героев, видео и черновики. Участники видят, какие промпты, модели и настройки использовались, и могут повторно отрендерить или улучшить результат в один клик. Поддерживается сортировка по проектам и клиентам, группировка ассетов и drag-and-drop.
Главное обновление — shared folders: команда получает доступ к материалам и может пересоздавать видео с теми же параметрами без обмена файлами. В тариф входит безлимитный доступ к инструменту Popcorn, который превращает фото или раскадровку в рекламный ролик, сохраняя внешний вид героев и объектов. Teams открывает доступ к моделям Sora 2, Veo 3.1, Nano Banana, Kling 2.5, Hailuo 2.3 Fast, Seedance Pro Fast и Seedream. Тариф рассчитан на 5–15 участников, по $80 в месяц, с лимитом 1200 кредитов на человека.
Источник: https://www.youtube.com/watch?v=IuDQZk-ndk4
#2. HeyGen переводит видео так, будто вы говорите сами
В HeyGen обновился движок аудио- и видеоперевода. Теперь система не просто заменяет голос, а анализирует контекст, изображение и движение губ, создавая эффект настоящего дубляжа. Новый липсинк точно совпадает с речью, интонации звучат естественно, а перевод стал ближе к живому разговору без роботных артефактов.
Доступны два режима: Fast — для быстрого перевода смысла, и Quality — с точным липсинком и улучшенным звуком. Во втором режиме видео выглядит так, будто спикер действительно говорит на другом языке. Достаточно вставить ссылку с YouTube и выбрать формат обработки. Обновлённый HeyGen делает дубляж максимально реалистичным и подходит для мультиязычных видеопроектов.
Источник: https://www.youtube.com/watch?v=2FBeW2k9wgI
#1. Nano Banana 2 — апскейл до 4K и больше реализма
На платформе Media AI на короткое время появилась Nano Banana 2 — новая модель от Google, которую пользователи успели протестировать до удаления. Сообщается о 4K-разрешении, более реалистичных фактурах и отсутствии цензуры на фото с известными персонами. Владельцы Gemini также упоминают доступ к версии GemPix 2, демонстрирующей сопоставимое качество с высокой детализацией, мягким светом и фотореалистичными лицами.
По пользовательским сравнениям Nano Banana 2 заметно точнее первой версии: глубже текстуры, чище цвета и более кинематографичная передача кожи. Модель генерирует фотографии, имитации интерфейсов, рукописные подписи и аниме-кадры, органично смешивающие персонажей с реальными сценами. По утечкам, Nano Banana 2 работает на будущей Gemini 3.0 Pro, тогда как оригинальная версия базировалась на Gemini 2.5 Flash.
Источник: https://habr.com/ru/news/964648/
Смотреть на YouTube: https://youtu.be/ZTluwxwjruY?si=jny5P5oN9w-6TwzO
Смотреть на Rutube: https://rutube.ru/video/private/2d8398dea6bea561031e9cac883fd8a3/?p=dZ5q4Fl1HYU2Etnvzs3HFg
* * *
На этом всё. Если хотите узнать больше про цифровых аватаров и такие ролики — подписывайтесь на телеграм-канал Гари ИИ-Аватар.
А если хотите освоить этот навык и зарабатывать — приходите на мой авторский курс по профессиональному созданию AI-аватаров и монетизации этого навыка.
Нейросетевые ролики на миллионы просмотров создаются с помощью этого телеграм-бота.
Спасибо, что досмотрели! Увидимся в ИИШНИЦЕ на следующей неделе.
