Volver a todos los artículos
Arte Sintético

Creando Arte Sintético: Explorando Suno, Flux y Embeddings para Transferencia de Estilo

Por Santiago Blanco20 Mar 202510 min de lectura
Arte sintético generado por IA
Estilo artístico por Fernando Zuluaga

Os presento mi primer disco de arte sintético2025

Círculo con Trauma Bélico

Como parte de mi exploración en arte sintético, he creado un álbum experimental titulado "Círculo con Trauma Bélico". Esta colección fusiona elementos de música generativa con narrativas personales, creando una experiencia sonora única.

Cada pista representa un fragmento de consciencia, una exploración de emociones crudas a través del prisma de la IA y la composición humana.

"Los ingenieros suelen ser más un cuadradito, pero yo me identifico más con el círculo. En la geometría de la vida, las esquinas se desgastan y todos terminamos siendo círculos."

1Pa' Luego Escapar (Single)

Letra: Santiago Blanco

2Verónica - Caramelos de cianuro - cover

Letra: Caramelos de Cianuro | Co-creación con Lucho Guarnizo

3Mi Flor

Colaboración con Santiago Castrillon

4Directo al Edén

Colaboración con Santiago Castrillon

5Nunca Te Dije Que Sí

Colaboración con Santiago Castrillon

6No Confíes

Letra: Santiago Blanco

7No Aguanto Más

Voces y letra: Santiago Castrillon

8Mi Locura

Letra: Santiago Blanco

9Eres Mi Cielo

Letra: Santiago Blanco

Entre El Ruido (Bonus Track)

Letra: Santiago Blanco

Visualización Experimental

Co-creación con Fernando Zuluaga, desarrollado con SORA

Visualización experimental que acompaña al álbum, explorando la intersección entre sonido, imagen y emoción.

Este proyecto musical representa la culminación de mi exploración en arte sintético, donde la IA no solo asiste en la creación, sino que se convierte en un colaborador activo en el proceso creativo. Las letras, melodías y arreglos surgen de una conversación entre mi expresión humana y los patrones aprendidos por los modelos de IA, creando una obra que existe en el límite entre lo orgánico y lo sintético.

La inteligencia artificial ha revolucionado la forma en que creamos arte. A continuación exploraremos tres fascinantes tecnologías que están redefiniendo los límites de la creatividad: Suno para generar música, Flux para crear imágenes, y los embeddings de imágenes para transferencia de estilo.

Suno: Componiendo música con IA

Suno es una herramienta de IA que permite generar composiciones musicales completas a partir de descripciones textuales. A diferencia de los sintetizadores tradicionales, Suno no requiere conocimientos musicales previos: simplemente describes lo que quieres escuchar, y la IA crea una pieza musical original.

Personalmente, he incorporado Suno a mis sesiones en vivo, donde genero música en tiempo real basada en el ambiente y las emociones del momento. Esto me permite crear experiencias únicas e irrepetibles. Tengo varias composiciones adicionales que no puedo compartir públicamente debido a que contienen letras bastante profundas y personales. ¡Es sorprendente lo íntima y emotiva que puede llegar a ser la música generada por IA!

¿Cómo funciona Suno?

Suno utiliza modelos de aprendizaje profundo entrenados con millones de piezas musicales. El sistema ha aprendido a asociar descripciones textuales con características musicales como ritmo, melodía, instrumentación y estructura. Cuando introduces un prompt, Suno:

  1. Analiza el texto para identificar elementos musicales, emociones y referencias culturales
  2. Genera una estructura musical coherente basada en estas interpretaciones
  3. Sintetiza los instrumentos y voces necesarios
  4. Mezcla todos los elementos en una composición final

Lo más impresionante de Suno es su capacidad para generar voces cantando letras específicas, algo que hasta hace poco parecía imposible para la IA.

Flux: Creando imágenes con IA

Flux es una herramienta de generación de imágenes basada en IA que permite crear arte visual a partir de descripciones textuales. Similar a otras herramientas como DALL-E o Midjourney, Flux se destaca por su capacidad para generar imágenes con un estilo distintivo y coherente. Para mis experimentos, utilicé la plataforma fal.ai, específicamente los modelos flux-lora-fast-training para el entrenamiento y flux-lora para la inferencia.

Ejemplo 1: Estilo Abstracto

Prompt: "Un paisaje abstracto con formas geométricas fluidas, colores vibrantes y texturas orgánicas, estilo Fernando Zuluaga"

Arte abstracto generado por Flux

Ejemplo 2: Composición Fluida

Prompt: "Composición de formas fluidas y orgánicas con transiciones suaves entre colores, inspirado en el estilo de Fernando Zuluaga"

Composición fluida generada por Flux

Ejemplo 3: Exploración de Texturas

Prompt: "Texturas orgánicas con patrones que evocan movimiento y fluidez, paleta de colores cálidos y fríos en contraste, estilo Fernando Zuluaga"

Exploración de texturas generada por Flux

Créditos de estilo: Fernando Zuluaga

Obra original de Fernando Zuluaga

Para entender mejor el estilo que inspiró nuestras creaciones con IA, aquí hay una obra original del artista Fernando Zuluaga.

Obra original de Fernando Zuluaga

Fuente: fernandozuluaga.co

¿Cómo funciona Flux con fal.ai?

El proceso de creación de imágenes con Flux en fal.ai consta de dos fases principales:

  1. Entrenamiento del modelo (flux-lora-fast-training): Este paso genera los embeddings visuales que capturan el estilo deseado. El entrenamiento cuesta aproximadamente 2.5 USD y toma entre 5-10 minutos dependiendo de la complejidad.
  2. Inferencia (flux-lora): Una vez entrenado el modelo, se utiliza para generar nuevas imágenes basadas en prompts textuales, manteniendo el estilo aprendido.

Flux utiliza una arquitectura de difusión, un tipo de modelo generativo que aprende a transformar gradualmente el ruido aleatorio en imágenes coherentes. Lo que distingue a Flux es su capacidad para mantener coherencia estilística y su interpretación creativa de los prompts, a menudo sorprendiendo con elementos inesperados pero estéticamente armoniosos.

Embeddings para Transferencia de Estilo

Los embeddings de imágenes son representaciones numéricas de contenido visual en un espacio vectorial multidimensional. Estas representaciones capturan las características visuales de manera que imágenes similares están cerca en este espacio matemático, permitiendo comparaciones, búsquedas y manipulaciones.

¿Qué es un Embedding?

Un embedding es una representación matemática de un objeto (en este caso, una imagen) como un vector de números en un espacio multidimensional. Imagina que cada característica visual (colores, texturas, formas, etc.) se traduce a una coordenada en este espacio. El resultado es un vector de cientos o miles de dimensiones que captura la "esencia" visual de la imagen.

Lo fascinante de los embeddings es que preservan relaciones semánticas: imágenes visualmente similares tendrán embeddings cercanos en este espacio matemático. Esto permite operaciones como:

  • Comparar la similitud entre imágenes calculando la distancia entre sus embeddings
  • Realizar operaciones aritméticas (como "imagen A - color + textura")
  • Interpolar entre estilos visuales para crear transiciones suaves
  • Condicionar modelos generativos para mantener el contenido mientras se cambia el estilo

# Ejemplo simplificado de un embedding de imagen (normalmente tendría 512 o más dimensiones)
embedding = [0.23, -0.45, 0.12, 0.78, -0.91, 0.34, 0.56, ...]

Generando Embeddings Faciales

import cv2
import numpy as np
from facenet_pytorch import MTCNN, InceptionResnetV1

# Cargar modelos
mtcnn = MTCNN(keep_all=True)
resnet = InceptionResnetV1(pretrained='vggface2').eval()

# Cargar imagen
img = cv2.imread('mi_foto.jpg')
img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)

# Detectar rostros
boxes, _ = mtcnn.detect(img)

if boxes is not None:
    for box in boxes:
        # Extraer y preprocesar el rostro
        x1, y1, x2, y2 = [int(i) for i in box]
        face = img[y1:y2, x1:x2]
        face = cv2.resize(face, (160, 160))
        face = np.transpose(face, (2, 0, 1))
        face = torch.tensor(face).unsqueeze(0).float()
        
        # Generar embedding
        embedding = resnet(face).detach().numpy()[0]
        
        print(f"Embedding facial (primeros 10 valores): {embedding[:10]}")
        
        # Guardar embedding
        np.save('mi_embedding_facial.npy', embedding)

Este código extrae un embedding facial de 512 dimensiones que representa matemáticamente las características del rostro.

Aplicaciones de los Embeddings Faciales

Los embeddings faciales tienen numerosas aplicaciones creativas y prácticas:

  • Morphing facial: Interpolar entre embeddings para crear transiciones suaves entre rostros
  • Transferencia de estilo: Mantener la identidad mientras se aplican características de otro rostro
  • Generación de avatares: Crear versiones estilizadas manteniendo la esencia del rostro original
  • Edición semántica: Modificar atributos específicos (sonrisa, edad, etc.) manipulando el vector

Experimento: Mi Rostro en Diferentes Estilos

Utilizando embeddings faciales y modelos de difusión, generé versiones estilizadas de mi rostro manteniendo mi identidad reconocible:

Variación 1

Variación 1

Variación 2

Variación 2

Variación 3

Variación 3

Variación 4

Variación 4

Experimento: Transferencia de Estilo

Utilizando embeddings de imágenes y modelos de difusión, generé versiones estilizadas inspiradas en la obra de Fernando Zuluaga:

Estilo original

Estilo Original

Versión abstracta

Estilo Abstracto

Versión fluida

Composición Fluida

Exploración de texturas

Texturas Orgánicas

El proceso de creación

Para generar estas variaciones estilizadas, seguí estos pasos:

  1. Extraje el embedding facial de mi foto utilizando un modelo pre-entrenado (FaceNet)
  2. Utilicé este embedding como condición para el modelo flux-lora-fast-training en fal.ai
  3. Añadí prompts textuales para guiar el estilo deseado, inspirado en la obra de Fernando Zuluaga
  4. Ajusté parámetros como la fuerza de la condición facial vs. el estilo artístico
  5. Generé múltiples variaciones y seleccioné las más representativas

Lo fascinante de este proceso es que las imágenes resultantes mantienen mi identidad reconocible mientras adoptan completamente el estilo artístico objetivo. Esto demuestra cómo los embeddings capturan la "esencia" de un rostro independientemente de su representación visual específica.

Sistematización del Proceso Creativo

Una de las revelaciones más importantes de estos experimentos es que el proceso creativo puede ser completamente sistematizado. Esto no significa que la creatividad humana sea reemplazable, sino que podemos crear flujos de trabajo estructurados que combinen la intuición humana con las capacidades de la IA.

El proceso creativo sistematizado que he desarrollado sigue estos pasos:

  1. Definición conceptual: Establecer la intención y el mensaje que se quiere transmitir
  2. Selección de herramientas: Elegir las tecnologías adecuadas para cada aspecto (Suno para música, Flux para imágenes, etc.)
  3. Diseño de prompts: Crear descripciones textuales precisas que guíen a la IA
  4. Generación iterativa: Producir múltiples variaciones y refinar los prompts
  5. Curación humana: Seleccionar y combinar los mejores resultados
  6. Integración multimedia: Combinar elementos visuales, sonoros y textuales

Esta sistematización permite escalar la producción creativa sin sacrificar calidad o expresividad. De hecho, he podido crear colecciones completas de arte y música siguiendo este enfoque estructurado.

Agradecimientos

Como en todo viaje creativo, este proyecto no habría sido posible sin las personas que me han acompañado, inspirado y sostenido durante el proceso...

A Verónica, por ser esa inspiración constante, por mostrarme nuevas formas de ver el mundo y por creer en mi visión cuando era apenas un esbozo difuso. Tu presencia ha sido el catalizador de muchas de estas ideas. Gracias por la bella amistad que me has brindado, por esos momentos de claridad y por ser un faro en los días de niebla creativa.

A Fernando Zuluaga, maestro y guía en este universo musical. Gracias por enseñarme que la música no es solo lo que suena, sino lo que resuena dentro de nosotros. Por esas conversaciones interminables sobre armonías, texturas y posibilidades sonoras que han moldeado mi percepción artística.

A Lucho Guarnizo, compañero incansable de sesiones. Por quedarte horas conmigo escuchando el picado de un disco, por tu paciencia infinita, por tus comentarios honestos y por tu entusiasmo contagioso. Este proyecto lleva tu huella en cada compás.

A Ricky Poveda, por toda tu amistad a lo largo de tantos años. Por esos momentos compartidos que han dejado huella en mi camino creativo y personal. Espero que pronto podamos crear nuevas memorias creativas juntos, como cuando hicimos Yotoco. Tu visión y apoyo han sido fundamentales en mi desarrollo artístico.

Y a todos los que, de una forma u otra, han contribuido a este experimento de arte sintético. A los que escucharon los primeros borradores, a los que aportaron ideas, a los que simplemente estuvieron ahí cuando la frustración creativa amenazaba con detener el proceso.

"En el círculo de la creación, todos somos puntos conectados por líneas invisibles de influencia y apoyo. Este trabajo es tanto mío como de todos ustedes."

Comentarios

Cargando comentarios...