Durante los últimos años hemos asumido, en algunos casos casi sin cuestionarlo, que la creatividad artificial funciona como una especie de acelerador: más datos, más iteraciones, más resultados… y, en teoría, más ideas. La tentación de dejar a los sistemas crear por su cuenta, sin intervención humana, encaja bien con esa narrativa de eficiencia infinita. Si una IA puede generar imágenes, textos o diseños en segundos, ¿por qué no dejar que se corrija a sí misma y siga avanzando sola?
La promesa resulta seductora, pero también engañosa. En el imaginario colectivo, una creatividad automática y autónoma debería desembocar en propuestas cada vez más audaces, inesperadas y originales. Sin embargo, cuando observamos con atención qué ocurre al eliminar al humano del proceso creativo, empiezan a aparecer patrones que no encajan con esa intuición optimista. En lugar de explosión creativa, surge algo mucho más reconocible… y mucho más plano.
Al dejar que una inteligencia artificial genere contenido para otra inteligencia artificial, y que ese intercambio se repita una y otra vez, el sistema no se vuelve más imaginativo, sino más conservador. Poco a poco, las ideas se suavizan, los extremos desaparecen y el resultado converge hacia una estética segura, pulida y perfectamente intercambiable. Es una creatividad que no molesta, no sorprende y no arriesga. Una creatividad que, en cierto modo, suena como música de ascensor: agradable, funcional y completamente prescindible.
Este fenómeno, analizado en un estudio reciente, no habla de un fallo puntual ni de un modelo concreto, sino de algo más profundo: qué ocurre cuando la creatividad se optimiza sin intención, sin fricción y sin criterio humano (denme negritas más fuertes). Entender por qué estos sistemas tienden a la repetición cuando se les deja solos no solo es clave para evaluar el presente de la creatividad artificial, sino también para anticipar los riesgos de un futuro en el que cada vez más procesos creativos se delegan a máquinas que buscan estabilidad, no novedad.
El experimento: cuando una IA crea para otra IA
El punto de partida del estudio es tan sencillo como inquietante: ¿qué ocurre si dejamos que dos sistemas de inteligencia artificial se retroalimenten sin intervención humana? Para comprobarlo, los autores construyen un bucle cerrado en el que un modelo genera una imagen a partir de un texto y otro modelo analiza esa imagen para producir una nueva descripción textual. Ese texto vuelve a alimentar al generador de imágenes, y el proceso se repite una y otra vez, sin correcciones externas ni objetivos creativos impuestos desde fuera.
Lo interesante es que el experimento no parte de prompts triviales ni similares entre sí. Al contrario, los investigadores generan un conjunto inicial de descripciones diseñadas para maximizar la diversidad semántica, de modo que cada “trayectoria” comienza en un punto distinto del espacio creativo. En teoría, este arranque debería favorecer que el sistema explore caminos muy diferentes, ampliando la variedad visual conforme avanzan las iteraciones.
Sin embargo, a medida que el bucle se repite, algo empieza a cambiar. Las imágenes resultantes se alejan progresivamente de la idea original que las puso en marcha y comienzan a parecerse entre sí, incluso cuando el punto de partida no tenía nada en común. No es una convergencia inmediata ni abrupta, sino un deslizamiento gradual, casi imperceptible, hacia un conjunto reducido de motivos visuales reconocibles.
Este comportamiento resulta especialmente revelador porque no depende de un único ajuste o configuración concreta. El estudio repite el experimento variando parámetros como la temperatura del modelo que describe las imágenes, y aun así el patrón se mantiene. La creatividad autónoma no se dispersa; se contrae. En lugar de explorar nuevas ideas, el sistema parece buscar zonas de comodidad estadística, donde generar y describir resulta más estable, más probable… y, paradójicamente, mucho menos interesante.
El resultado inesperado: creatividad que converge hacia lo genérico… y aburrido
Lo que emerge tras varias iteraciones del bucle no es una explosión de ideas nuevas, sino justo lo contrario. A pesar de partir de descripciones muy distintas entre sí, las imágenes generadas empiezan a parecerse cada vez más, como si el sistema encontrara una serie de refugios visuales en los que resulta cómodo quedarse. Faros solitarios bajo cielos dramáticos, interiores palaciegos, catedrales monumentales, paisajes nocturnos con iluminación cuidada. Motivos reconocibles, estéticamente agradables y, sobre todo, seguros.
Esta convergencia no es anecdótica ni superficial. El estudio muestra que, tras suficientes iteraciones, trayectorias completamente independientes acaban desembocando en un número sorprendentemente pequeño de “destinos creativos”. No se trata de que todas las imágenes sean idénticas, sino de que orbitan alrededor de los mismos temas, composiciones y atmósferas. La diversidad inicial se diluye y deja paso a una familiaridad que recuerda más a un banco de imágenes de stock que a un proceso creativo abierto.
Aquí es donde cobra sentido la metáfora de la música de ascensor visual. El sistema no genera algo objetivamente malo ni carente de técnica; al contrario, los resultados suelen ser correctos, equilibrados y fácilmente consumibles. Pero precisamente por eso pierden fuerza expresiva. No hay riesgo, no hay disonancia, no hay ruptura. La creatividad automática encuentra una zona de confort donde todo encaja y nada sobresale demasiado.
Lo más revelador es que este comportamiento se repite incluso cuando se introducen variaciones en los parámetros del modelo. Cambiar el grado de aleatoriedad altera el camino, pero no el destino. La creatividad autónoma, cuando se deja sola, no tiende a explorar los márgenes, sino a estabilizarse en aquello que maximiza la coherencia y la probabilidad. Y en ese proceso, lo inesperado, que suele ser el motor de la creatividad humana, se convierte en una anomalía que el sistema aprende a evitar.
Por qué ocurre: estabilidad frente a novedad, adiós a sorprenderse
Para entender por qué estos sistemas tienden a repetirse cuando se les deja funcionar solos, hay que abandonar la idea romántica de la creatividad y mirar el problema como lo que es: una dinámica de sistemas. En un espacio enorme de posibilidades visuales y textuales, no todas las opciones son igual de estables. Algunas combinaciones de imagen y descripción “encajan” mejor que otras, porque son fáciles de generar, fáciles de describir y fáciles de regenerar sin perder coherencia en el camino.
Cuando una IA genera una imagen y otra IA la describe, se crea una especie de filtro implícito. Las escenas complejas, ambiguas o poco convencionales tienden a degradarse al pasar por ese doble proceso, mientras que las composiciones claras, simétricas y culturalmente reconocibles sobreviven mejor. No porque sean más interesantes, sino porque son más robustas frente a la traducción automática entre modalidades. El sistema aprende, sin saberlo, a preferir lo que no se rompe al explicarse a sí mismo.
A esto se suma un factor clave: los sesgos del entrenamiento. Los modelos generativos se entrenan con enormes cantidades de datos procedentes de Internet, donde abundan ciertos temas, estilos y estéticas. Paisajes espectaculares, arquitectura monumental, escenas “bonitas” y fácilmente clasificables están sobrerrepresentadas frente a lo extraño, lo incómodo o lo difícil de describir. Cuando el sistema busca estabilidad estadística, esos sesgos actúan como imanes, atrayendo la creatividad hacia territorios ya muy transitados.
El resultado es que, sin una fuerza externa que empuje en otra dirección, la creatividad artificial optimiza lo que sabe hacer mejor: producir resultados plausibles y coherentes, no necesariamente nuevos. La novedad, que en la creatividad humana suele surgir del error, la fricción o la intención consciente de romper patrones, aquí se convierte en ruido que el sistema trata de eliminar. Y así, iteración tras iteración, la búsqueda de coherencia acaba imponiéndose sobre el deseo de explorar.
El riesgo real: agentes creativos sin fricción humana
Este comportamiento deja de ser una curiosidad académica en cuanto se traslada al terreno práctico. Cada vez más flujos de trabajo creativos incorporan agentes automáticos capaces de generar, evaluar y regenerar contenido sin intervención humana directa. Diseños que se refinan solos, textos que se reescriben en bucle, imágenes que se “mejoran” automáticamente. Sobre el papel, la promesa es eficiencia; en la práctica, el riesgo es la homogeneización silenciosa.
Cuando estos agentes operan sin una referencia externa clara —un criterio humano, una intención editorial, una restricción creativa explícita— tienden a optimizar lo mismo que revela el estudio: estabilidad, coherencia y probabilidad. El sistema no pregunta si algo es interesante, sino si funciona bien dentro de sus propias reglas internas. Y eso empuja los resultados hacia soluciones cada vez más intercambiables, donde el estilo se aplana y la identidad se diluye.
Este efecto es especialmente problemático en ámbitos como el marketing, el diseño de interfaces, la generación de contenidos visuales o la producción creativa a gran escala. Si cientos o miles de piezas se generan mediante procesos autónomos similares, el resultado no es diversidad, sino una estética promedio, pulida y eficaz, pero incapaz de destacar. La creatividad se convierte en un producto estandarizado, optimizado para no fallar, no para sorprender.
El estudio actúa aquí como una advertencia temprana. No señala un fallo puntual de la tecnología, sino una tendencia emergente: cuando la creatividad se automatiza sin fricción, pierde tensión. Y la tensión —la posibilidad de equivocarse, de insistir en lo incómodo, de ir contra lo probable— es precisamente lo que suele dar valor a una idea. Sin alguien que empuje en esa dirección, los agentes creativos no se rebelan contra la media; se acomodan en ella.
El papel insustituible del humano en la creatividad artificial
Después de recorrer todo el experimento, la tentación podría ser señalar a la tecnología como la culpable de esta deriva hacia lo genérico. Sin embargo, el estudio apunta en otra dirección mucho más incómoda: el problema no es que la inteligencia artificial cree “mal”, sino que crea sola. Cuando se elimina la intención humana del proceso, la creatividad deja de tener un norte claro y se convierte en un ejercicio de equilibrio estadístico, donde lo importante es no salirse de lo probable.
El papel del humano en estos sistemas no consiste únicamente en escribir el primer prompt o en pulsar un botón de generar. Su función real es introducir fricción, criterio y dirección. Un humano puede insistir en una idea que no funciona a la primera, forzar un estilo que el sistema considera improbable o aceptar resultados imperfectos porque comunican algo distinto. Esa capacidad de sostener lo incómodo o lo ineficiente es justo lo que rompe la convergencia hacia la media.
Desde esta perspectiva, la creatividad artificial no debería entenderse como un proceso autónomo, sino como una herramienta amplificadora. Funciona mejor cuando está integrada en un diálogo continuo con una persona que decide qué merece la pena explorar y qué no. El bucle puramente automático, por el contrario, elimina esa negociación y transforma la creación en un problema de optimización interna, donde ganar significa repetirse de forma elegante.
Quizá la lección más importante del estudio sea esta: delegar la creatividad no equivale a automatizarla por completo. Si dejamos que los sistemas creativos se evalúen y se alimenten a sí mismos, el resultado puede ser técnicamente correcto, pero culturalmente plano. Mantener al humano en el bucle no es una concesión romántica ni un gesto nostálgico, sino una necesidad básica si queremos que la creatividad artificial siga siendo algo más que un hilo musical de fondo.
La entrada Cuando la creatividad artificial suena a música de ascensor se publicó primero en MuyComputer.


