ИИшница №92
Всем привет! Это «ИИШНИЦА», 10 новостей про нейросети, контент и заработок.
Сегодня разбираем, почему Kling 3.0 называют шагом к настоящему AI-продакшену, чем одновременно пугает и разочаровывает Higgsfield Vibe Motion, как Grok Imagine 1.0 внезапно начал понимать киноязык и раздвигать границы допустимого, зачем Freepik объединил сразу несколько моделей в одном генераторе, и как ИИ всё глубже проникает в культуру — от аниме до вирусной музыки.
#10. Grok Imagine 1.0 оказался слишком смелым
xAI запустила Grok Imagine 1.0 — генерацию видео прямо внутри Grok. Ключевая особенность сервиса не в самом факте создания видео, а в том, как модель интерпретирует запросы. По первым тестам Grok Imagine хуже реагирует на сухие наборы тегов и технические перечисления, но заметно лучше работает с развернутыми описаниями сцен, сформулированными как режиссёрское задание.
Сообщается, что Grok Imagine построен на FLUX.1, и это отражается в поведении модели. Она уверенно считывает конкретику сцены: свет, эпоху, визуальный стиль, отсылки к фотографии и кино. Формулировки с указанием освещения, камеры или стилистических референсов дают результат с ощущением намеренного кадра, а не случайной генерации. В режиме image-to-video стабильность выше, если исходное описание задано как цельная сцена, а не как набор параметров.
Инструмент уже доступен в Higgsfield, где Grok Imagine корректно работает с русскоязычным текстом, включая рукописный ввод. При этом для аккуратного результата промпты приходится упрощать и продумывать структуру каждого кадра отдельно. Отдельно отмечается более свободное отношение модели к интимному контенту по сравнению с рядом других сервисов, что расширяет границы допустимых генераций и требует внимательного подхода.
Источник: https://grok.com/imagine
#9. Freepik генерация в нескольких моделях
Freepik запустил Multiple Model Generation — режим, в котором один и тот же промпт можно одновременно запускать в нескольких моделях генерации изображений. Без ручного переключения и отдельных прогонов пользователь сразу видит, как разные модели интерпретируют одну задачу: по стилю, композиции и характеру визуала.
Функция меняет роль сервиса: Freepik начинает работать не просто как генератор, а как инструмент выбора. Вместо угадывания подходящей модели результат сравнивается в одном окне и в одном контексте, что упрощает принятие визуальных решений. Это особенно удобно, когда важны нюансы интерпретации, а не сам факт генерации изображения.
Обновление ориентировано на продакшен-задачи и работу с брендами, где визуал подбирается под конкретные требования и ограничения. Возможность быстро сравнить результаты и перейти к следующему этапу — анимации или доработке — делает Multiple Model Generation практичным шагом для профессионального использования.
Источник: https://x.com/freepik/status/2017203195676885497?s=20
#8. СДП превратил Есенина в вирусный трек
Проект СДП превратил стихи Сергея Есенина «Сыпь, гармоника» в полноценный музыкальный трек с помощью ИИ. Это не ремикс и не кавер, а новая песня, собранная на основе поэтического текста. Несмотря на то что эти строки уже много раз исполнялись разными артистами и блогерами, именно эта версия получила широкое распространение.
Трек быстро стал вирусным в TikTok, набрал миллионы просмотров и вышел за пределы соцсетей, появившись в Spotify. Пользователи не ограничиваются прослушиванием: под музыку создают ИИ-видео, мемы, экспериментируют с образами и визуальными интерпретациями, переосмысливая исходный текст. Отдельное внимание привлекло живое исполнение Ярослава — парня с татуировками, который эмоционально перепевает ИИ-песню уже без участия нейросетей.
Этот кейс показывает, как ИИ может стать триггером для коллективного творчества, а не его заменой. Сначала появляется алгоритмическая интерпретация, затем — человеческое исполнение и массовая реакция, формирующая культурный эффект вокруг исходного материала.
Источник: https://www.instagram.com/ilia_masalski
#7. Genie 3 уже называют концом игровых студий
Google представила Project Genie — бета-демо генератора интерактивных 3D-миров на базе Genie 3. Технология генерирует пространство прямо во время движения пользователя: мир не загружается заранее, а достраивается на лету. Локацию и персонажа можно описать текстом, дополнить изображением и отредактировать превью, после чего сцена начинает развиваться в реальном времени — при ходьбе, езде или полёте.
По демонстрациям видно, что Genie 3 способен воспроизводить механику и визуальные паттерны, знакомые по крупным игровым сериям и жанрам: от городских экшенов и фэнтези-RPG до аркад и казуальных игр. Доступна библиотека заготовленных миров — от гонок до экспериментальных симуляторов, которые можно комбинировать и перестраивать. В отличие от традиционных генераторов уровней, где мир создаётся заранее и остаётся фиксированным, Genie работает по обратному принципу, формируя окружение динамически в процессе взаимодействия.
На текущем этапе Project Genie — не полноценная игра и не потребительский продукт, а технологическое демо. Оно показывает возможное направление развития: интерактивные миры без классического продакшена, новые форматы развлечений и инструменты сверхбыстрого прототипирования для студий. Это скорее витрина будущих подходов в игровой индустрии, чем готовое решение для широкой аудитории.
Источник: https://x.com/GoogleDeepMind/status/2016919756440240479?s=20
#6. Higgsfield Vibe Motion — круто, но сыро
Higgsfield представил Vibe Motion — инструмент для генерации анимаций и видео в формате «живого холста», но на текущем этапе это скорее сырая бета. Заявленный сценарий с одним промптом и быстрым результатом на практике упирается в медленную работу, нестабильные генерации и высокую чувствительность к формулировкам. Даже простые задачи вроде быстрой анимации логотипа дают непредсказуемый результат при одинаковых запросах.
Внутри используется Claude, от которого ожидается понимание контекста и правок через диалог, однако в реальных тестах одни и те же изменения часто приходится объяснять несколько раз, переформулировать и ждать новую итерацию. Дополнительные функции тоже работают неравномерно: ломается движение, результат может сильно расходиться с ожиданием, создавая ощущение постоянной доработки инструмента «на ходу».
Наиболее устойчивым сценарием пока выглядит генерация видеопрезентаций и инфографики из текста, где система хотя бы собирает базовую структуру, доступную для последующего редактирования. В целом Vibe Motion сейчас подходит скорее для тестов и экспериментов, чем для продакшена, но сам подход с диалоговой сборкой анимации указывает на заметный потенциал в нише, где традиционные инструменты вроде After Effects остаются сложными для входа.
Источник: https://x.com/higgsfield_ai/status/2018701876963987647?s=20
#5. Runway — рисуем движение вместо промпта
В Runway Gen-4.5 появилась функция Motion Sketch, которая меняет подход к Image to Video. Вместо подбора текстовых формулировок движение теперь задаётся напрямую: пользователь загружает первый кадр и рисует линии, показывающие траекторию камеры или перемещение объектов. Модель интерпретирует этот скетч и превращает его в анимацию, снижая зависимость от сложных промптов.
По сути, Motion Sketch работает как визуальный язык управления движением. Плавный объезд объекта, панорама, влет камеры или сложная дуга задаются жестом, а не описанием. Это развитие идеи Motion Brush из предыдущих версий Runway, но с большим уровнем контроля и предсказуемости, где меньше случайного поведения и больше соответствия намерению автора.
Подобный принцип ранее демонстрировался в Google Veo 3, однако в Runway он стал частью повседневного продакшн-пайплайна. В результате Image to Video перестаёт быть лотереей и всё больше превращается в управляемый процесс, особенно для рекламных роликов, соцсетей и коротких динамичных сцен.
Источник: https://www.youtube.com/watch?v=hZHy0f7Uy-s
#4. Vidu AI делает аниме слишком хорошо
Японский художник Сабитамаго опубликовал видео, созданное в Vidu AI, и реакция оказалась показательной: часть зрителей в комментариях сомневается, что ролик сгенерирован нейросетью. Уровень плавности движения и визуальной цельности выглядит непривычно высоким для AI-видео, особенно в аниме-стилистике, где артефакты и «ломаная» анимация обычно заметны сразу.
Vidu AI — отдельная видеомодель, а не агрегатор или надстройка над другими сервисами. Сейчас её чаще всего обсуждают именно из-за качества анимации в стиле аниме. По опубликованным бенчмаркам модель занимает второе место в text-to-video и четвёртое в image-to-video, уступая Google Veo 3 и Kling 2. Однако ключевым фактором остаётся визуальный результат: движение выглядит более плавным и осмысленным, кадры — собранными, без характерной «резиновой» физики.
Модель генерирует видео длительностью до 16 секунд в 1080p за один промпт и поддерживает звук, включая саунд-эффекты и липсинг. Также отмечается корректное понимание промптов, умение рендерить текст прямо в кадре и управлять движением камеры. На фоне других решений Vidu AI всё чаще рассматривается как заметный ориентир именно для аниме-видеогенерации.
Источник: https://www.vidu.com/ru
#3. Аронофски делает AI-кино вместе с Google
Даррен Аронофски совместно с Google запустил ИИ-сериал о Войне за независимость США под названием On This Day… 1776. Проект посвящён 250-летию начала войны и выходит в формате эпизодов, приуроченных к историческим датам. Речь идёт не об одиночном эксперименте, а о продолжении работы режиссёра с AI-инструментами в рамках отдельной продакшн-стратегии.
Сериал создаёт компания Primordial Soup, основанная Аронофски в 2025 году. Ещё в мае Google DeepMind и Primordial Soup объявили о партнёрстве и анонсировали три короткометражных фильма, сделанных с использованием Google Veo. Публично был представлен только один из них — ANCESTRA, остальные проекты пока не раскрыты. Новый сериал логично вписывается в эту линию сотрудничества.
В описании On This Day… 1776 подчёркивается, что эпизоды лишь частично созданы с помощью ИИ-инструментов Google, включая Veo, а озвучивание персонажей выполнено живыми актёрами. Это гибридный продакшен, а не полностью автоматическая генерация. Первые серии выглядят как ранний этап AI-видео, но сам формат позволяет наблюдать, как визуальный уровень может эволюционировать прямо по ходу выхода проекта.
Источник: https://vc.ru/media/2714366-ii-serial-darrena-aronofskogo-o-voyne-za-nezavisimost-ssha
#2. NotebookLM теперь объясняет документы
Google выпустила обновление NotebookLM, добавив поддержку Video Overviews на мобильных устройствах. Теперь сервис может превращать PDF-документы, статьи и наборы заметок в полноэкранные видеообзоры прямо на смартфоне, без отдельного режима или урезанного функционала. Вместо чтения пользователь получает краткое визуальное объяснение сути и структуры материала.
Формат рассчитан не на замену чтения, а на снижение порога входа в сложные документы. Видеообзор позволяет за несколько минут понять общую картину перед созвоном, учёбой или глубокой аналитической работой. NotebookLM сначала даёт контекст и ориентиры, помогая определить, какие части материала требуют внимания, а к каким можно вернуться позже.
Этот апдейт подчёркивает сдвиг в использовании генеративного ИИ: от простой обработки информации к ускорению старта работы с ней. NotebookLM всё чаще используется как инструмент первичного понимания, позволяющий быстрее включаться в задачу ещё до детального изучения исходных текстов.
Источник: https://x.com/NotebookLM/status/2018742049537757467?s=20
#1. Забудьте про монтаж — Kling 3.0 вышел
Kling AI объявила о выходе Kling 3.0, и релиз сразу вызвал ажиотаж среди креаторов. Модель активно тестируют в раннем доступе, обсуждая, где здесь реальный шаг вперёд, а где эффект новизны. Главное, за что сейчас хвалят Kling 3.0, — согласованность: персонажи, лица и элементы сцены больше не «плывут» по ходу ролика, а заданные герои и окружение сохраняются от первого кадра до последнего.
Модель поддерживает видео до 15 секунд и multi-shot внутри одной генерации, позволяя задавать несколько сцен с таймингами, планами и ракурсами прямо в промпте. Заметно улучшена работа со звуком: нативное аудио лучше понимает речь, несколько персонажей, разные языки и акценты, а также позволяет задавать атмосферу и звуковые эффекты. По визуалу добавлены motion blur, режимы first и last frame, а изображение стало более кинематографичным и менее «стерильным».
При этом важно учитывать, что Kling 3.0 сейчас доступен в формате Early Access. Через веб-интерфейс модель открывается только при подписке Pro или выше, а высокая нагрузка уже сказывается на времени генерации, особенно при multi-shot сценариях. В текущем виде Kling 3.0 выглядит как сильный и перспективный апдейт, но это всё ещё ранний доступ, требующий терпения и аккуратных ожиданий.
Источник: https://youtu.be/Rme22R7a9O8?si=pDrGYSTv6-PQLJ59
Смотреть на YouTube: https://youtu.be/6HTPscPxZTU?si=_B9oxEQ_DYCzGwQu
Смотреть на Rutube: https://rutube.ru/video/private/3e175ec3f962a7ad02522591adbb4ef2/?p=9e1LyAmhw0gngA4bqjpxzA
* * *
Если вы AI-креатор и хотите быть в курсе самых актуальных новостей про нейросети, AI-видео и цифровых аватаров, подписывайтесь на мой Telegram-канал «Гари ИИ-Аватар».
Там — больше новостей, разборов инструментов и моего практического опыта: https://t.me/gari_azat
Если вы уже работаете с нейросетями, создаёте AI-контент и видео для себя или клиентов и хотите получать больше заказов, выстроить системную работу, научиться делегировать и со временем создать собственный видеопродакшн, приходите на мой авторский курс:
https://aiavatar.school
Это про мышление креатора в AI-видеоиндустрии: от хаотичных заказов к понятной модели роста и работе с командой.
В нашем видеопродакшене мы используем сервис Syntx AI для создания нейросетевых видео в коммерческих проектах.
По моей ссылке вы можете получить подарочные токены и скидку 15% на подписку по промокоду GARI:
https://syntx.ai/welcome/jbgz60nM
