Workshop en vivo donde realizaremos un cortometraje poniendo en práctica un pipeline audiovisual completo con IA.
Usaremos LLM locales para ayudarnos con el guión, desarrollar nuestra idea y mejorar los prpompts.
Crearemos los fotogramas iniciales de nuestro cortometraje utilizando los últimnos modelos open source disponibles.
Generaremos las locuciones / doblaje y los efectos sonoros localmente.
Crearemos los planos de nuestro cortometraje y lo montaremos todo.
12 horas en directo, divididas en 3 sesiones de 4 horas donde crearemos un cortometraje.
Es recomendable realizar primero el curso en video, donde adquiriras los fundamentos teóricos para seguir el workshop con agilidad en caso de que no tengas experiencia con ComfyUI.
30 de Enero 26 - 18:00 a 22:00
31 de Enero 26 - 10:00 a 14:00
6 de Febrero 26 - 18:00 a 22:00
Franja horaria: España/Madrid - CET
Te recomendamos apuntarte antes al curso en video de producción con ComfyUI donde aprenderas todas las bases necesarias para llevar a cabo el workshop.
Son los fundamentos teóricos de todas estas herramientas.
si te lo curras...
Modelos de chat, comprensión de imágenes, voz, imagen y video, todo local, pudiendo utilizar tus datos privados en la seguridad de tu equipo.
No esperar a que la IA te comprenda, como si fuera tu psicologo, trabajaras con los modelos como si realmente fueran tus asistentes.
Llevando tus ideas a la acción, ya sea como producción final, previsualización, explicación de concepto o videos virales para redes.
Tanto si lo utilizas como versión final, como si lo utilizas solamente como parte de la producción, multiplicaras tu velocidad de trabajo.
El entorno de trabajo para IA más importante y potente actualmente.
El mejor sistema de interacción con modelos de lenguaje locales.
Comprendiendo como funcionan y hasta donde puedes llevar tu equipo según tu hardware
Aprovecharemos equipos en la nube con diferentes GPU's cuando nuestro equipo no sea suficiente.
Utilizando modelos locales crearemos el guión de nuestro spot, las descripciones de los personajes y otros textos que nos puedan resultar útiles.
Tanto de concepto como de storyboard o moodboard, imagenes de inspiración e imagenes de planos concretos.
Principalmente ingles, pero veremos distintos motores de audio que nos permitiran utilizar multiples idiomas, con voces aleatorias o clonadas.
Tanto realistas como en otros estilos, controlando poses y acciones de distintas formas, dirigiendo tu propia producción.
Corto producido 100% por IA, ¡y sin LORA's!
12 horas en directo ( 3 encuentro de 4 horas cada uno )
Sesiones enfocadas a uso real, resolución de problemas típicos y aplicación de los últimos avances.
Directo 1
4h · Arranque sin fricción
Resolveremos dudas, comprendermos los detalles sobre la IA y empezaremos a trabjar con modelos de lenguaje locales.
Directo 2
4h · Flujo creativo completo
TTS, SFX y pipeline de imagen con ComfyUI para generar nuestros fotogramas.
Directo 3
4h · Control y consistencia
T2V/I2V, wrappers, LoRAs de aceleración y módulos avanzados para extender/dirigir vídeo.
Seguro que te preguntas esto...
En el curso en video se adquieren los fundamentos teóricos sobre ComfyUI, LLM, modelos de audio y modelos de video, muy recomendables para poder seguir el workshop con agilidad.
En el workshop se pone en prácitca un pipeline de producción para generar un cortometraje aprovechando los últimos modelos disponibles, obteniendo así los mejores resultados.
Te respondemos.
En el curso en video se adquieren los fundamentos teóricos sobre ComfyUI, LLM, modelos de audio y modelos de video, muy recomendables para poder seguir el workshop con agilidad.
En el workshop se pone en prácitca un pipeline de producción para generar un cortometraje aprovechando los últimos modelos disponibles, obteniendo así los mejores resultados.
No. Empezamos desde cero con lo importante: qué es cada herramienta, cómo se usa y cómo integrarla en un flujo de producción. Lo explicamos con mentalidad de artista: directo al resultado, sin perderte en tecnicismos innecesarios.
Sí. Aquí lo que manda es tu creatividad y criterio, no tu nivel de dibujo o 3D. El workshop está pensado para que puedas producir aunque no vengas de lo “tradicional”.
Te llevas un pipeline funcional (instalado y entendido), workflows listos para ComfyUI y una metodología para repetir resultados con control (imagen, audio y vídeo), además de las grabaciones para repasar.
Enfoque 100% producción: modelos como herramientas aplicadas (no teoría infinita). Además, el contenido está pensado para trabajo real en ComfyUI.
Usaremos ComfyUI (instalado con Pinokio) y Ollama (todo open source y gratuito). Para el montaje final, DaVinci Resolve: te vale la versión gratuita.
Mínimo recomendado: GPU con 8GB VRAM y 32GB RAM. Ideal: RTX 3090/4090/5090 (24–32GB VRAM). Con 12–16GB también puedes trabajar, usando modelos/variantes optimizadas cuando toque.
Para vídeo e imagen a buen ritmo, GPU es lo normal. Algunas partes (por ejemplo ciertos LLM) pueden ir en CPU, pero el flujo completo de producción es mucho más viable con GPU.
ComfyUI funciona en los tres, pero la experiencia y compatibilidad con GPU suele ser más directa en Windows/Linux con NVIDIA. Si usas Mac o hardware no-NVIDIA, podrás seguir parte del contenido, pero ciertas secciones (vídeo/modelos concretos) pueden requerir alternativas.
Sí. Tendrás acceso a la grabación de las sesiones en directo para verlas cuando quieras y repasar.
Tendrás acceso a los materiales y grabaciones sin fecha de caducidad a día de hoy (según las condiciones de la plataforma).
Sí: las sesiones en directo están pensadas precisamente para resolver bloqueos, y el contenido pregrabado cubre la parte de instalación y preparación para minimizar errores típicos.
La IA cambia rápido. Por eso el núcleo del workshop es enseñarte criterio y método (para adaptarte), y las sesiones en directo se enfocan en lo más actual en el momento de cada edición.
El aprendizaje y los workflows, sí. Sobre los resultados generados, dependerá de las licencias de cada modelo y de los assets que uses. Te explicamos cómo pensar este tema para evitar sorpresas en producción.
Desde imágenes editadas con control (inpaint/outpaint/upscale) hasta escenas de vídeo (T2V/I2V) y recursos de audio (TTS/SFX), además de módulos avanzados para control, avatares/lipsync, reemplazo de personaje y likeness.
Pues más respuestas ;)
El contenido pregrabado te permite avanzar a tu ritmo y las sesiones en directo quedan grabadas para que puedas ponerte al día cuando quieras.
No. Está explicado con mentalidad de artista y producción: lo justo para entender, y práctica para aplicar. Además, en directo resolvemos bloqueos típicos.
Precisamente por eso existe el módulo de preparación y las sesiones en directo: para dejarlo estable y enseñarte a diagnosticar lo más común (modelos, nodos, VRAM/RAM, versiones).
Con 8GB de VRAM y 32GB de RAM puedes trabajar. Si tienes menos margen, aprenderás a usar variantes optimizadas/quantizadas y a adaptar el flujo a tu hardware.
No es obligatorio, pero sí acelera y facilita el vídeo. Con 12–16GB también puedes producir; con 24–32GB vas más cómodo y rápido.
Es producción: workflows, control, edición, consistencia y montaje. El objetivo es que salgas con un pipeline repetible, no con pruebas sueltas.
Aprendes a controlar el proceso: seeds, estructuras de workflow, guías (ControlNet/refs), y técnicas de refinado para consistencia.
Sí, el enfoque es profesional. Eso sí: siempre hay que respetar licencias de modelos y assets; te damos criterio para hacerlo con cabeza.
Nada: tendrás la grabación y el material pregrabado. Puedes ver el directo en diferido y seguir practicando.
Te llevas método, criterio y workflows base. Las herramientas cambian, pero la forma de producir y controlar resultados es lo que te mantiene actualizado.
A ambos, con un flujo completo: preparación, LLMs, imagen (SDXL/FLUX/Qwen), audio (TTS/SFX) y vídeo (WAN 2.2 + módulos avanzados).
Sales con un pipeline montado, workflows descargables y práctica aplicada en directo para que lo uses desde el día 1.