Tencent выпустила HunyuanVideo 1.5 — новую открытая ИИ-модель для генерации видео
Компания Tencent анонсировала HunyuanVideo 1.5 — открытую модель для генерации видео, которая требует всего 8,3 миллиарда параметров и запускается на потребительских видеокартах. Разработчики позиционируют решение как самое производительное в категории open-source по соотношению качества и доступности.

Модель опубликована на платформе Hugging Face с несколькими вариантами: версии для генерации из текста и изображений, поддержка разрешений 480p и 720p, отдельные модули для апскейлинга до 1080p. Для работы достаточно видеокарты с примерно 14 ГБ видеопамяти. HunyuanVideo 1.5 использует архитектуру Diffusion Transformer, которая генерирует контент в сжатом латентном пространстве, что существенно снижает требования к оборудованию. Это первая открытая модель такого уровня, способная выдавать качественное HD-видео на обычном домашнем оборудовании.
В основе HunyuanVideo 1.5 лежит архитектура Diffusion Transformer, работающая в латентном пространстве. Технология использует специальный 3D VAE-энкодер для сжатия данных перед обработкой. Новый механизм внимания SSTA обеспечивает почти двукратное ускорение расчетов при работе с длинными видеороликами. Базовая модель генерирует видео продолжительностью 5-10 секунд в разрешении 480p или 720p, после чего подключается отдельный модуль супер-разрешения, повышающий качество до 1080p и устраняющий визуальные артефакты.
Ключевое преимущество модели — компактность при сохранении производительности. При 8,3 миллиардах параметров система работает быстрее аналогов и потребляет меньше памяти. Это позволяет запускать её на обычных игровых видеокартах вместо дорогостоящих серверных GPU. Модель включает встроенную систему улучшения промптов через внешние языковые модели, которая автоматически переписывает пользовательские запросы для повышения качества результата.
Разработчики подчеркивают важность детализированных промптов. Согласно документации, длинные запросы с указанием стиля, ракурса, движения камеры и поведения объектов значительно повышают качество и стабильность генерируемых сцен. Для этого Tencent подготовила специальное руководство по составлению промптов. Модель комплектуется набором дистиллированных и разреженных версий для разных сценариев использования, поддерживает интеграцию с ComfyUI, что превращает её из исследовательского прототипа в готовый рабочий инструмент.
Как начать работу с HunyuanVideo 1.5
Шаг 1. Перейдите на страницу проекта на Hugging Face и загрузите необходимые компоненты модели. Выберите версию в зависимости от задачи: для генерации из текста (T2V) или изображения (I2V), определитесь с разрешением 480p или 720p, скачайте модули супер-разрешения при необходимости работы с 1080p.
Шаг 2. Установите программное окружение из официального репозитория. Настройте зависимости согласно инструкции — этого достаточно для локального запуска модели на вашем оборудовании.
Шаг 3. Запустите генерацию через командную строку, используя стандартный скрипт. Задайте текстовый промпт, укажите желаемую длительность видео и выберите разрешение.
Шаг 4. Для работы без консоли используйте графические интерфейсы. ComfyUI и LightX2V поддерживают HunyuanVideo 1.5 изначально. Также модель доступна на онлайн-площадках вроде fal.ai для быстрого тестирования без локальной установки.
HunyuanVideo 1.5 представляет прорыв в сегменте открытых решений, впервые сочетая приемлемое качество, HD-разрешение и возможность запуска на потребительском оборудовании. При этом важно понимать контекст: это достижение для open-source сообщества, но не прямой конкурент закрытым системам уровня Sora, Veo или Wan 2.5. Проприетарные модели по-прежнему превосходят в реалистичности движений, физической достоверности, длительности сцен и общей стабильности результата.
Модель решает иную задачу — делает видеогенерацию доступной для разработчиков, небольших студий и энтузиастов без необходимости арендовать дорогое облачное оборудование или приобретать серверные GPU. Tencent развивает линейку Hunyuan несколько месяцев, начав с генерации изображений HunyuanImage 3.0. В версии 1.5 акцент сделан на эффективности, открытости кода и совместимости с популярными инструментами сообщества.
Итоговая оценка: HunyuanVideo 1.5 стала быстрее, легче и доступнее предшественников, сохранив качество генерации. Это уже не экспериментальный инструмент, а практичное решение для создания HD-роликов на обычном железе. Модель открывает возможности для индивидуальных разработчиков и малого бизнеса, ранее не имевших доступа к подобным технологиям из-за высокой стоимости оборудования и закрытости коммерческих платформ.
Читайте также:
- NotebookLM официально представил функцию кастомных «видеопересказов»
- Dreamina AI запустила Multi-Frames для генерации видео до 54 секунд по 10 кадрам
- VEED запускает AI Background Expand: ИИ-инструмент для расширения фона в видео
- Grok научился создавать видео по текстовому запросу: инструкция и возможности
- OpenAI представила Sora 2: как нейросеть создаёт видео по тексту и как меняет сферу видеопроизводства
- GPT-5 создаёт полноценные приложения за минуты: этот случай удивит даже опытных промпт-инженеров
Последние новости:
- Dreamina AI запустила Multi-Frames для генерации видео до 54 секунд по 10 кадрам
- Сбер запустил Kandinsky 5.0: новое поколение ИИ для генерации изображений и видео
- VEED запускает AI Background Expand: ИИ-инструмент для расширения фона в видео
- NotebookLM официально представил функцию кастомных «видеопересказов»
- Leonardo Ai представила Blueprints: более 50 готовых шаблонов для автоматизации контент-продакшена