Bone-Studio School/Producción con IA - ComfyUI - Curso en Video

  • 399 € o 5 pagos mensuales de 99,90 €

Producción con IA - ComfyUI - Curso en Video

  • Curso online
  • 87 Lecciones
  • Acceso a Discord

Workshop en vivo + curso grabado por módulos para montar un pipeline audiovisual completo con IA.

  • LLMs para brief/guion.

  • ComfyUI a nivel producción, imagen (ControlNet, IP-Adapter, upscale e inpaint/outpaint) con SDXL/FLUX/Qwen Image.

  • Audio (TTS/SFX)

  • Vídeo con WAN 2.2 (T2V/I2V), incluyendo módulos avanzados (FUN/FUN VACE, avatares/lipsync y consistencia de personaje).

Es el curso más completo que existe actualmente.

  • 249 €

Complementa este curso con el workshop en vivo

  • Curso online
  • Acceso a Discord

Te recomendamos que le pegues un vistazo al workshop en directo.
Es la combinación perfecta para llevar tus conocimientos de ComfyUI a la práctica.

Al final del curso podrás...

si te lo curras...

Utilizar la IA local y privada

Modelos de chat, comprensión de imágenes, voz, imagen y video, todo local, pudiendo utilizar tus datos privados en la seguridad de tu equipo.

Controlar la creación de imágenes

No esperar a que la IA te comprenda, como si fuera tu psicologo, trabajaras con los modelos como si realmente fueran tus asistentes.

Producir audiovisiales impactantes

Llevando tus ideas a la acción, ya sea como producción final, previsualización, explicación de concepto o videos virales para redes.

Aumentar tu velocidad de producción

Tanto si lo utilizas como versión final, como si lo utilizas solamente como parte de la producción, multiplicaras tu velocidad de trabajo.

Resumen de contenidos

Un vistazo rápido para que entiendas qué vas a aprender y qué te llevas en cada bloque. Más abajo tienes el detalle completo, módulo por módulo.

Módulo 0 · Preparación técnica y ComfyUI listo para producción

Lo que te llevas:

  • Instalación limpia y reproducible (sin Frankenstein)

  • PyTorch/CUDA/Triton/SageAttention/ONNX/InsightFace integrados correctamente

  • Buenas prácticas para actualizar, gestionar nodos y evitar sustos de seguridad

  • Criterio para elegir/descargar modelos y encajarlos en workflows

Módulo 1 · LLMs aplicados a producción (guion, brief y asistentes)

Lo que te llevas:

  • Plantillas y Prompt Assistants reutilizables

  • Flujo práctico para guion/brief con consistencia

  • Uso claro de Ollama/LM Studio según tu caso

Módulo 2 · Imagen + Audio para pipeline (SD + TTS + SFX)

Lo que te llevas:

  • Workflows base de Stable Diffusion en ComfyUI bien entendidos

  • Control de resultados con seeds y workflows modulares (subgraphs)

  • TTS funcional + revisión práctica (incluye F5)

  • Integración de música/foley (SFX) en el proceso

Módulo 3 · SDXL completo (control, upscale y edición)

Lo que te llevas:

  • Control por guía (ControlNet) y por referencia (IP-Adapter)

  • Upscale, inpaint y outpaint orientados a resultados “de entrega”

  • Segmentación para recorte, edición y control

  • Workflows listos para usar (packs descargables)

Módulo 4 · FLUX + Qwen Image (acabado fino y técnicas pro)

Lo que te llevas:

  • Control y edición avanzada (ControlNet / Inpaint / Outpaint)

  • Consistencia y detalle (IP-Adapter / Redux / Context / OneReward)

  • Técnicas de refinado e Inpaint “Crop & Stitch”

  • Workflows y LoRAs técnicos listos para producción

Módulo 5 · Vídeo con WAN 2.2 (T2V / I2V) en ComfyUI

Lo que te llevas:

  • Criterio claro de modelos WAN 2.2 y cuándo usar cada uno

  • Aceleración con LoRAs sin perder control

  • Flujo real con wrappers para T2V e I2V

  • Base sólida para producción local (sin improvisar)

Módulo 6 · Módulos avanzados (control, personajes, avatares y likeness)

Lo que te llevas:

  • Control tipo “ControlNet para vídeo”: FUN (I2V) y FUN VACE (T2V)

  • Reemplazo/animación de personajes: Animate, One For All, SCAIL

  • Avatares y actuación (lipsync/interpretación): S2V, InfiniteTalk, HUMO

  • Likeness: Lynx para mantener parecido/identidad del personaje

En el curso aprenderas a...

Trabajar con ComfyUI

El entorno de trabajo para IA más importante y potente actualmente.

Trabajar con Ollama

El mejor sistema de interacción con modelos de lenguaje locales.

Aprovechar modelos de lenguaje locales

Comprendiendo como funcionan y hasta donde puedes llevar tu equipo según tu hardware

Utilizar equipos en la nube

Aprovecharemos equipos en la nube con diferentes GPU's cuando nuestro equipo no sea suficiente.

Crear un guión apoyandote en la IA

Utilizando modelos locales crearemos el guión de nuestro spot, las descripciones de los personajes y otros textos que nos puedan resultar útiles.

Crear imagenes con modelos sencillos y avanzados

Tanto de concepto como de storyboard o moodboard, imagenes de inspiración e imagenes de planos concretos.

Crear doblajes en varios idiomas

Principalmente ingles, pero veremos distintos motores de audio que nos permitiran utilizar multiples idiomas, con voces aleatorias o clonadas.

Crear planos animados

Tanto realistas como en otros estilos, controlando poses y acciones de distintas formas, dirigiendo tu propia producción.

The Best

Corto producido 100% por IA, ¡y sin LORA's!

Contenidos completos en detalle

Currículum completo

Módulos pregrabados

De la instalación a la producción con imagen, audio y vídeo

Organizado para que avances rápido: primero dejas el sistema fino, luego dominas prompting/LLMs, después imagen y audio, y terminas con vídeo y módulos avanzados.

MÓDULO 0

Entorno listo para producción

Instalación, dependencias y herramientas clave

Dejas ComfyUI y el stack de IA preparados para trabajar con estabilidad y rendimiento.

  • Instalación de ComfyUI (base limpia)

  • Recursos y enlaces útiles del workshop

  • Entorno virtual: por qué y cómo montarlo bien

  • Python, PyTorch y CUDA: qué es qué

  • Instalación de PyTorch + CUDA Toolkit

  • Triton en Windows (instalación)

  • SageAttention2 (instalación)

  • ONNX + onnxruntime-gpu (instalación)

  • InsightFace (instalación)

  • Actualizar ComfyUI + nuevo arranque recomendado

  • Ollama: instalación y uso práctico

  • LM Studio: instalación

  • Snapshot Manager en ComfyUI

  • Instalar custom nodes en ComfyUI

  • Seguridad en custom nodes: el “fallo” y cómo evitar líos

  • Introducción a modelos (qué descargar y por qué)

  • Modelos para workflows: FP16 y GGUF (descarga y criterio)

  • Modelos “closed” vía nodos API (uso)

  • Comfy Cloud (qué es y cómo encaja)

MÓDULO 1

LLMs locales para producción (sin postureo)

Guion, estructura y asistentes reutilizables

Usas LLMs como herramienta de trabajo: consistencia, plantillas y asistentes.
Aprendes a preparar tus propios prompters y guionistas, y siguiendo los mismos conocimientos podrás preparate diferentes asistentes ejecutados localmente.

MÓDULO 2

Imagen y audio listos para pipeline

Imagen y audio listos para pipeline

Montas un flujo sólido para crear imagen y audio con control.

  • Workflow base de Stable Diffusion (Basics)

  • Plantilla de prompt: guiones + brief de campaña

  • Plantilla descargable (TXT) del brief/prompt

  • LLM “escritor de guiones” en CPU (modelos grandes)

  • TTS: modelos de texto a voz

  • Tip: usar nodo de Ollama en lugar de LM Studio

  • TTS: continuación (mejoras y práctica)

  • Seeds (semillas): repetir y controlar resultados

  • TTS: continuación + review rápida de F5

  • Subgraphs en ComfyUI (workflows modulares)

  • Música y foley (SFX): modelos y flujo

  • Entender y descargar modelos (criterio práctico)

  • Stable Diffusion en ComfyUI: workflow y parámetros básicos

MÓDULO 3

SDXL en serio (control, detalle y edición)

ControlNet, IP-Adapter, upscale, inpaint/outpaint y segmentación

Aprendes a controlar SDXL con herramientas de producción, no “a ojo”.

  • Lista curada de LORAs para SDXL

  • Introducción a modelos de imagen

  • Nodos Get/Set (orden y limpieza de graphs)

  • Tip: Copy/Paste sin romper el workflow

  • SD 1.5 vs SDXL: conceptos base y diferencias

  • SDXL + ControlNet

  • SDXL + IP-Adapter

  • SDXL + Upscale

  • SDXL + Inpainting

  • SDXL + Outpainting

  • Modelos de segmentación (qué aportan)

  • Intro rápida a FLUX y Qwen (para aterrizar contexto)

  • Tarea práctica (asignación)

MÓDULO 4

FLUX + Qwen Image para resultados finos

Control, edición y técnicas de calidad

Aquí está la parte “jugosa” de producción: edición, refinado y control fino.

Modelos de imágen.

  • FLUX: conceptos básicos

  • FLUX: ControlNet

  • Qwen Image: conceptos básicos

  • Qwen Image: ControlNet

  • FLUX: IP-Adapter

  • FLUX: Redux

  • FLUX: InPaint

  • FLUX: OutPaint

  • FLUX: OneReward

  • Qwen Image: Inpainting

  • Qwen Image: Outpainting

Modelos multimodales.

  • FLUX: Context

  • Qwen: Image Edit 2509

  • Qwen Edit: LoRAs técnicos

Técnicas de refinado

MÓDULO 5

WAN 2.2 en ComfyUI (vídeo real, controlado)

Modelos, LoRAs de aceleración y wrappers

Configuras y ejecutas WAN 2.2 con un flujo entendible y repetible.

  • WAN 2.2: conociendo los modelos

  • WAN 2.2: LoRAs de aceleración

  • WAN 2.2: Text-to-Video (T2V)

  • WAN 2.2: Image-to-Video (I2V) · FLF

  • WAN 2.2: I2V · Wrapper

  • WAN 2.2: T2V · Wrapper

MÓDULO 6

Módulos avanzados de vídeo (control, personajes y avatares)

Cuando pasas de “generar clips” a dirigir escenas

Aquí entran los módulos más potentes del ecosistema: control tipo “ControlNet para vídeo”, reemplazo/animación de personajes, avatares con lipsync y módulos para likeness. Es la capa que convierte WAN en una herramienta de producción.

Control y dirección visual

Guía precisa del resultado

  • FUN (I2V) · Control avanzado en Image-to-Video

  • FUN VACE (T2V) · Control avanzado en Text-to-Video
    (Piensa en esto como el equivalente a ControlNet, pero llevado al vídeo.)

  • Lynx (Likeness) · Mantener parecido/identidad del personaje (consistencia facial y rasgos)

Personajes: sustitución y animación

“Cambia el actor” y mantenlo coherente

  • Animate · Animación y manipulación de personaje

  • One For All · Reemplazo/consistencia en personaje de forma robusta

  • SCAIL · Herramientas potentes para transformación/animación de sujeto

Avatares y actuación

Voz → cara → personaje creíble

  • S2V · Enfoque avatar / interpretación (según pipeline)

  • InfiniteTalk · Habla/actuación de personaje (lipsync/expresión)

  • HUMO · Personajes y actuación: enfoque “virtual actor”

¿Tienes dudas?

Te respondemos.

¿Qué diferencia hay entre el workshop y el curso en video de Producción con IA en ConfyUI?

En el curso en video se adquieren los fundamentos teóricos sobre ComfyUI, LLM, modelos de audio y modelos de video, muy recomendables para poder seguir el workshop con agilidad.

En el workshop se pone en prácitca un pipeline de producción para generar un cortometraje aprovechando los últimos modelos disponibles, obteniendo así los mejores resultados.

¿Es un curso pregrabado o es en directo?

Esta es la edición del curso pre-grabado, sin las sesiones en directo, una vez dentro podrás potar a apuntarte también al la proxima convocatoria del workshop.

¿Si me apunto al curso, puedo acceder despues al workshop?

Sí, siendo alumno del curso podrás acceder a la siguiente edición del workshop pagando el importe correspondiente, puedes preguntarnos directamente, aunque dentro del curso tendrás los detalles.

Soy nuevo en IA, ¿necesito saber algo antes?

No. Empezamos desde cero con lo importante: qué es cada herramienta, cómo se usa y cómo integrarla en un flujo de producción. Lo explicamos con mentalidad de artista: directo al resultado, sin perderte en tecnicismos innecesarios.

No sé dibujar ni hacer 3D, ¿me sirve?

Sí. Aquí lo que manda es tu creatividad y criterio, no tu nivel de dibujo o 3D. El workshop está pensado para que puedas producir aunque no vengas de lo “tradicional”.

¿Qué me llevo exactamente al terminar?

Te llevas un pipeline funcional (instalado y entendido), workflows listos para ComfyUI y una metodología para repetir resultados con control (imagen, audio y vídeo).

¿En qué se diferencia de otros cursos de IA?

Enfoque 100% producción: modelos como herramientas aplicadas (no teoría infinita). Además, el contenido está pensado para trabajo real en ComfyUI, con módulos potentes (SDXL/FLUX/Qwen/WAN, audio y extensiones).

¿Qué software necesito?

Usaremos ComfyUI (instalado con Pinokio) y Ollama (todo open source y gratuito). Para el montaje final, DaVinci Resolve: te vale la versión gratuita.

¿Qué hardware necesito?

Mínimo recomendado: GPU con 8GB VRAM y 32GB RAM. Ideal: RTX 3090/4090/5090 (24–32GB VRAM). Con 12–16GB también puedes trabajar, usando modelos/variantes optimizadas cuando toque.

¿Necesito GPU sí o sí? ¿Puedo hacerlo con CPU?

Para vídeo e imagen a buen ritmo, GPU es lo normal. Algunas partes (por ejemplo ciertos LLM) pueden ir en CPU, pero el flujo completo de producción es mucho más viable con GPU.

¿Funciona en Windows, Linux y Mac?

ComfyUI funciona en los tres, pero la experiencia y compatibilidad con GPU suele ser más directa en Windows/Linux con NVIDIA. Si usas Mac o hardware no-NVIDIA, podrás seguir parte del contenido, pero ciertas secciones (vídeo/modelos concretos) pueden requerir alternativas.

¿Durante cuánto tiempo tengo acceso al contenido?

Tendrás acceso a los materiales y grabaciones sin fecha de caducidad a día de hoy (según las condiciones de la plataforma).

¿Hay soporte si me atasco instalando o algo falla?

Sí, tienes acceso a nuestro servidor de Discord donde te echaremos una mano y resolveremos tus dudas.

¿Se actualiza el contenido si salen modelos nuevos?

La IA cambia rápido. Por eso tenemos adicionalmente el workshop en directo.
El núcleo del curso es enseñarte criterio y método (para adaptarte al futuro).
El curso puede actualizarse si hay algún avance muy significativo.

¿Esto me sirve para uso profesional/comercial?

El aprendizaje y los workflows, sí. Sobre los resultados generados, dependerá de las licencias de cada modelo y de los assets que uses. Te explicamos cómo pensar este tema para evitar sorpresas en producción.

¿Qué tipo de cosas podré crear al terminar?

Desde imágenes editadas con control (inpaint/outpaint/upscale) hasta escenas de vídeo (T2V/I2V) y recursos de audio (TTS/SFX), además de módulos avanzados para control, avatares/lipsync, reemplazo de personaje y likeness.

¿Cuándo empieza el curso?

Tan pronto te apuntes tienes acceso a todo el contenido.

¿Más preguntas?

Pues más respuestas ;)

¿Y si no tengo tiempo?

El curso está pregrabado y te permite avanzar a tu ritmo.

¿Me voy a perder si no soy “técnico”?

No. Está explicado con mentalidad de artista y producción: lo justo para entender, y práctica para aplicar. Además, en directo resolvemos bloqueos típicos.

¿Y si ComfyUI me da errores o se rompe algo?

Precisamente por eso existe el módulo de preparación y las sesiones en directo: para dejarlo estable y enseñarte a diagnosticar lo más común (modelos, nodos, VRAM/RAM, versiones).

¿Mi PC es “normalito”? ¿Me va a servir?

Con 8GB de VRAM y 32GB de RAM puedes trabajar. Si tienes menos margen, aprenderás a usar variantes optimizadas/quantizadas y a adaptar el flujo a tu hardware.

¿Necesito una 3090/4090 para aprovecharlo?

No es obligatorio, pero sí acelera y facilita el vídeo. Con 12–16GB también puedes producir; con 24–32GB vas más cómodo y rápido.

¿Solo sirve para “jugar con prompts” o es producción real?

Es producción: workflows, control, edición, consistencia y montaje. El objetivo es que salgas con un pipeline repetible, no con pruebas sueltas.

¿Voy a poder repetir resultados o es todo aleatorio?

Aprendes a controlar el proceso: seeds, estructuras de workflow, guías (ControlNet/refs), y técnicas de refinado para consistencia.

¿Me vale si quiero resultados para cliente/trabajo profesional?

Sí, el enfoque es profesional. Eso sí: siempre hay que respetar licencias de modelos y assets; te damos criterio para hacerlo con cabeza.

¿Esto queda obsoleto en dos meses con lo rápido que cambia la IA?

Te llevas método, criterio y workflows base. Las herramientas cambian, pero la forma de producir y controlar resultados es lo que te mantiene actualizado.
Además si hay algún avance significativo, lo incluiremos en el curso en el futuro.

¿Está más enfocado a imagen o a vídeo?

A ambos, con un flujo completo: preparación, LLMs, imagen (SDXL/FLUX/Qwen), audio (TTS/SFX) y vídeo (WAN 2.2 + módulos avanzados).

¿Voy a salir con algo “hecho” o solo con teoría?

Sales con un pipeline montado, workflows descargables y práctica aplicada en directo para que lo uses desde el día 1.

¡Incluye el descuento de Navidad!