Workshop en vivo + curso grabado por módulos para montar un pipeline audiovisual completo con IA.
LLMs para brief/guion.
ComfyUI a nivel producción, imagen (ControlNet, IP-Adapter, upscale e inpaint/outpaint) con SDXL/FLUX/Qwen Image.
Audio (TTS/SFX)
Vídeo con WAN 2.2 (T2V/I2V), incluyendo módulos avanzados (FUN/FUN VACE, avatares/lipsync y consistencia de personaje).
Es el curso más completo que existe actualmente.
Te recomendamos que le pegues un vistazo al workshop en directo.
Es la combinación perfecta para llevar tus conocimientos de ComfyUI a la práctica.
si te lo curras...
Modelos de chat, comprensión de imágenes, voz, imagen y video, todo local, pudiendo utilizar tus datos privados en la seguridad de tu equipo.
No esperar a que la IA te comprenda, como si fuera tu psicologo, trabajaras con los modelos como si realmente fueran tus asistentes.
Llevando tus ideas a la acción, ya sea como producción final, previsualización, explicación de concepto o videos virales para redes.
Tanto si lo utilizas como versión final, como si lo utilizas solamente como parte de la producción, multiplicaras tu velocidad de trabajo.
Un vistazo rápido para que entiendas qué vas a aprender y qué te llevas en cada bloque. Más abajo tienes el detalle completo, módulo por módulo.
Lo que te llevas:
Instalación limpia y reproducible (sin Frankenstein)
PyTorch/CUDA/Triton/SageAttention/ONNX/InsightFace integrados correctamente
Buenas prácticas para actualizar, gestionar nodos y evitar sustos de seguridad
Criterio para elegir/descargar modelos y encajarlos en workflows
Lo que te llevas:
Plantillas y Prompt Assistants reutilizables
Flujo práctico para guion/brief con consistencia
Uso claro de Ollama/LM Studio según tu caso
Lo que te llevas:
Workflows base de Stable Diffusion en ComfyUI bien entendidos
Control de resultados con seeds y workflows modulares (subgraphs)
TTS funcional + revisión práctica (incluye F5)
Integración de música/foley (SFX) en el proceso
Lo que te llevas:
Control por guía (ControlNet) y por referencia (IP-Adapter)
Upscale, inpaint y outpaint orientados a resultados “de entrega”
Segmentación para recorte, edición y control
Workflows listos para usar (packs descargables)
Lo que te llevas:
Control y edición avanzada (ControlNet / Inpaint / Outpaint)
Consistencia y detalle (IP-Adapter / Redux / Context / OneReward)
Técnicas de refinado e Inpaint “Crop & Stitch”
Workflows y LoRAs técnicos listos para producción
Lo que te llevas:
Criterio claro de modelos WAN 2.2 y cuándo usar cada uno
Aceleración con LoRAs sin perder control
Flujo real con wrappers para T2V e I2V
Base sólida para producción local (sin improvisar)
Lo que te llevas:
Control tipo “ControlNet para vídeo”: FUN (I2V) y FUN VACE (T2V)
Reemplazo/animación de personajes: Animate, One For All, SCAIL
Avatares y actuación (lipsync/interpretación): S2V, InfiniteTalk, HUMO
Likeness: Lynx para mantener parecido/identidad del personaje
El entorno de trabajo para IA más importante y potente actualmente.
El mejor sistema de interacción con modelos de lenguaje locales.
Comprendiendo como funcionan y hasta donde puedes llevar tu equipo según tu hardware
Aprovecharemos equipos en la nube con diferentes GPU's cuando nuestro equipo no sea suficiente.
Utilizando modelos locales crearemos el guión de nuestro spot, las descripciones de los personajes y otros textos que nos puedan resultar útiles.
Tanto de concepto como de storyboard o moodboard, imagenes de inspiración e imagenes de planos concretos.
Principalmente ingles, pero veremos distintos motores de audio que nos permitiran utilizar multiples idiomas, con voces aleatorias o clonadas.
Tanto realistas como en otros estilos, controlando poses y acciones de distintas formas, dirigiendo tu propia producción.
Corto producido 100% por IA, ¡y sin LORA's!
Currículum completo
De la instalación a la producción con imagen, audio y vídeo
Organizado para que avances rápido: primero dejas el sistema fino, luego dominas prompting/LLMs, después imagen y audio, y terminas con vídeo y módulos avanzados.
MÓDULO 0
Instalación, dependencias y herramientas clave
Dejas ComfyUI y el stack de IA preparados para trabajar con estabilidad y rendimiento.
Instalación de ComfyUI (base limpia)
Recursos y enlaces útiles del workshop
Entorno virtual: por qué y cómo montarlo bien
Python, PyTorch y CUDA: qué es qué
Instalación de PyTorch + CUDA Toolkit
Triton en Windows (instalación)
SageAttention2 (instalación)
ONNX + onnxruntime-gpu (instalación)
InsightFace (instalación)
Actualizar ComfyUI + nuevo arranque recomendado
Ollama: instalación y uso práctico
LM Studio: instalación
Snapshot Manager en ComfyUI
Instalar custom nodes en ComfyUI
Seguridad en custom nodes: el “fallo” y cómo evitar líos
Introducción a modelos (qué descargar y por qué)
Modelos para workflows: FP16 y GGUF (descarga y criterio)
Modelos “closed” vía nodos API (uso)
Comfy Cloud (qué es y cómo encaja)
MÓDULO 1
Guion, estructura y asistentes reutilizables
Usas LLMs como herramienta de trabajo: consistencia, plantillas y asistentes.
Aprendes a preparar tus propios prompters y guionistas, y siguiendo los mismos conocimientos podrás preparate diferentes asistentes ejecutados localmente.
MÓDULO 2
Imagen y audio listos para pipeline
Montas un flujo sólido para crear imagen y audio con control.
Workflow base de Stable Diffusion (Basics)
Plantilla de prompt: guiones + brief de campaña
Plantilla descargable (TXT) del brief/prompt
LLM “escritor de guiones” en CPU (modelos grandes)
TTS: modelos de texto a voz
Tip: usar nodo de Ollama en lugar de LM Studio
TTS: continuación (mejoras y práctica)
Seeds (semillas): repetir y controlar resultados
TTS: continuación + review rápida de F5
Subgraphs en ComfyUI (workflows modulares)
Música y foley (SFX): modelos y flujo
Entender y descargar modelos (criterio práctico)
Stable Diffusion en ComfyUI: workflow y parámetros básicos
MÓDULO 3
ControlNet, IP-Adapter, upscale, inpaint/outpaint y segmentación
Aprendes a controlar SDXL con herramientas de producción, no “a ojo”.
Lista curada de LORAs para SDXL
Introducción a modelos de imagen
Nodos Get/Set (orden y limpieza de graphs)
Tip: Copy/Paste sin romper el workflow
SD 1.5 vs SDXL: conceptos base y diferencias
SDXL + ControlNet
SDXL + IP-Adapter
SDXL + Upscale
SDXL + Inpainting
SDXL + Outpainting
Modelos de segmentación (qué aportan)
Intro rápida a FLUX y Qwen (para aterrizar contexto)
Tarea práctica (asignación)
MÓDULO 4
Control, edición y técnicas de calidad
Aquí está la parte “jugosa” de producción: edición, refinado y control fino.
Modelos de imágen.
FLUX: conceptos básicos
FLUX: ControlNet
Qwen Image: conceptos básicos
Qwen Image: ControlNet
FLUX: IP-Adapter
FLUX: Redux
FLUX: InPaint
FLUX: OutPaint
FLUX: OneReward
Qwen Image: Inpainting
Qwen Image: Outpainting
Modelos multimodales.
FLUX: Context
Qwen: Image Edit 2509
Qwen Edit: LoRAs técnicos
Técnicas de refinado
MÓDULO 5
Modelos, LoRAs de aceleración y wrappers
Configuras y ejecutas WAN 2.2 con un flujo entendible y repetible.
WAN 2.2: conociendo los modelos
WAN 2.2: LoRAs de aceleración
WAN 2.2: Text-to-Video (T2V)
WAN 2.2: Image-to-Video (I2V) · FLF
WAN 2.2: I2V · Wrapper
WAN 2.2: T2V · Wrapper
MÓDULO 6
Cuando pasas de “generar clips” a dirigir escenas
Aquí entran los módulos más potentes del ecosistema: control tipo “ControlNet para vídeo”, reemplazo/animación de personajes, avatares con lipsync y módulos para likeness. Es la capa que convierte WAN en una herramienta de producción.
Guía precisa del resultado
FUN (I2V) · Control avanzado en Image-to-Video
FUN VACE (T2V) · Control avanzado en Text-to-Video
(Piensa en esto como el equivalente a ControlNet, pero llevado al vídeo.)
Lynx (Likeness) · Mantener parecido/identidad del personaje (consistencia facial y rasgos)
“Cambia el actor” y mantenlo coherente
Animate · Animación y manipulación de personaje
One For All · Reemplazo/consistencia en personaje de forma robusta
SCAIL · Herramientas potentes para transformación/animación de sujeto
Voz → cara → personaje creíble
S2V · Enfoque avatar / interpretación (según pipeline)
InfiniteTalk · Habla/actuación de personaje (lipsync/expresión)
HUMO · Personajes y actuación: enfoque “virtual actor”
Te respondemos.
En el curso en video se adquieren los fundamentos teóricos sobre ComfyUI, LLM, modelos de audio y modelos de video, muy recomendables para poder seguir el workshop con agilidad.
En el workshop se pone en prácitca un pipeline de producción para generar un cortometraje aprovechando los últimos modelos disponibles, obteniendo así los mejores resultados.
Esta es la edición del curso pre-grabado, sin las sesiones en directo, una vez dentro podrás potar a apuntarte también al la proxima convocatoria del workshop.
Sí, siendo alumno del curso podrás acceder a la siguiente edición del workshop pagando el importe correspondiente, puedes preguntarnos directamente, aunque dentro del curso tendrás los detalles.
No. Empezamos desde cero con lo importante: qué es cada herramienta, cómo se usa y cómo integrarla en un flujo de producción. Lo explicamos con mentalidad de artista: directo al resultado, sin perderte en tecnicismos innecesarios.
Sí. Aquí lo que manda es tu creatividad y criterio, no tu nivel de dibujo o 3D. El workshop está pensado para que puedas producir aunque no vengas de lo “tradicional”.
Te llevas un pipeline funcional (instalado y entendido), workflows listos para ComfyUI y una metodología para repetir resultados con control (imagen, audio y vídeo).
Enfoque 100% producción: modelos como herramientas aplicadas (no teoría infinita). Además, el contenido está pensado para trabajo real en ComfyUI, con módulos potentes (SDXL/FLUX/Qwen/WAN, audio y extensiones).
Usaremos ComfyUI (instalado con Pinokio) y Ollama (todo open source y gratuito). Para el montaje final, DaVinci Resolve: te vale la versión gratuita.
Mínimo recomendado: GPU con 8GB VRAM y 32GB RAM. Ideal: RTX 3090/4090/5090 (24–32GB VRAM). Con 12–16GB también puedes trabajar, usando modelos/variantes optimizadas cuando toque.
Para vídeo e imagen a buen ritmo, GPU es lo normal. Algunas partes (por ejemplo ciertos LLM) pueden ir en CPU, pero el flujo completo de producción es mucho más viable con GPU.
ComfyUI funciona en los tres, pero la experiencia y compatibilidad con GPU suele ser más directa en Windows/Linux con NVIDIA. Si usas Mac o hardware no-NVIDIA, podrás seguir parte del contenido, pero ciertas secciones (vídeo/modelos concretos) pueden requerir alternativas.
Tendrás acceso a los materiales y grabaciones sin fecha de caducidad a día de hoy (según las condiciones de la plataforma).
Sí, tienes acceso a nuestro servidor de Discord donde te echaremos una mano y resolveremos tus dudas.
La IA cambia rápido. Por eso tenemos adicionalmente el workshop en directo.
El núcleo del curso es enseñarte criterio y método (para adaptarte al futuro).
El curso puede actualizarse si hay algún avance muy significativo.
El aprendizaje y los workflows, sí. Sobre los resultados generados, dependerá de las licencias de cada modelo y de los assets que uses. Te explicamos cómo pensar este tema para evitar sorpresas en producción.
Desde imágenes editadas con control (inpaint/outpaint/upscale) hasta escenas de vídeo (T2V/I2V) y recursos de audio (TTS/SFX), además de módulos avanzados para control, avatares/lipsync, reemplazo de personaje y likeness.
Tan pronto te apuntes tienes acceso a todo el contenido.
Pues más respuestas ;)
El curso está pregrabado y te permite avanzar a tu ritmo.
No. Está explicado con mentalidad de artista y producción: lo justo para entender, y práctica para aplicar. Además, en directo resolvemos bloqueos típicos.
Precisamente por eso existe el módulo de preparación y las sesiones en directo: para dejarlo estable y enseñarte a diagnosticar lo más común (modelos, nodos, VRAM/RAM, versiones).
Con 8GB de VRAM y 32GB de RAM puedes trabajar. Si tienes menos margen, aprenderás a usar variantes optimizadas/quantizadas y a adaptar el flujo a tu hardware.
No es obligatorio, pero sí acelera y facilita el vídeo. Con 12–16GB también puedes producir; con 24–32GB vas más cómodo y rápido.
Es producción: workflows, control, edición, consistencia y montaje. El objetivo es que salgas con un pipeline repetible, no con pruebas sueltas.
Aprendes a controlar el proceso: seeds, estructuras de workflow, guías (ControlNet/refs), y técnicas de refinado para consistencia.
Sí, el enfoque es profesional. Eso sí: siempre hay que respetar licencias de modelos y assets; te damos criterio para hacerlo con cabeza.
Te llevas método, criterio y workflows base. Las herramientas cambian, pero la forma de producir y controlar resultados es lo que te mantiene actualizado.
Además si hay algún avance significativo, lo incluiremos en el curso en el futuro.
A ambos, con un flujo completo: preparación, LLMs, imagen (SDXL/FLUX/Qwen), audio (TTS/SFX) y vídeo (WAN 2.2 + módulos avanzados).
Sales con un pipeline montado, workflows descargables y práctica aplicada en directo para que lo uses desde el día 1.
¡Incluye el descuento de Navidad!