En los últimos tiempos, la carrera entre los grandes modelos de inteligencia artificial ha dejado de ser una cuestión puramente técnica para convertirse en un asunto de supervivencia empresarial. Google saca pecho, merecidamente, por los avances de Gemini 3, los paneles de benchmarks cambian casi a diario y en OpenAI han empezado a sonar las alarmas internas, hasta el punto de que Sam Altman llegó a firmar un memorando de “código rojo” en el que pedía frenar distracciones —como la entrada de publicidad en ChatGPT— para volver a centrarse en la experiencia del producto. Es en este clima de presión competitiva donde hay que situar la llegada de GPT-5.2, la nueva apuesta de la compañía para tratar de recuperar la iniciativa.
GPT-5.2 se presenta como el nuevo frontier model de OpenAI y se orienta tanto a usuarios profesionales como a desarrolladores que trabajan a gran escala con su API. La compañía lo distribuirá en tres variantes bien diferenciadas: Instant, pensada para consultas rutinarias donde prima la velocidad —búsquedas de información, redacción, traducción—; Thinking, especializada en tareas complejas y estructuradas como programación, análisis de documentos extensos, matemáticas avanzadas o planificación; y Pro, el modelo de gama alta, orientado a ofrecer la máxima precisión y fiabilidad en problemas especialmente difíciles. La idea no es solo lanzar “un modelo más potente”, sino ajustar el catálogo a distintos niveles de exigencia y coste.
Según Fidji Simo, directora de producto de OpenAI, GPT-5.2 aspira a “desbloquear aún más valor económico” para sus usuarios. La nueva versión mejora la creación de hojas de cálculo, la generación de presentaciones, la escritura de código, la interpretación de imágenes, la comprensión de contextos largos y el uso de herramientas encadenadas en proyectos de varios pasos. A nivel técnico, la compañía afirma que el modelo alcanza nuevos máximos en benchmarks de código, matemáticas, ciencia, visión, razonamiento de largo contexto y uso de herramientas, lo que en teoría debería traducirse en flujos de trabajo agénticos más fiables, código de calidad “de producción” y sistemas capaces de operar sobre grandes volúmenes de datos reales.
El lanzamiento llega precisamente cuando Gemini 3 domina los rankings de LMArena en la mayoría de pruebas, con la notable excepción del código, donde Anthropic mantiene el liderazgo con Claude Opus 4.5. Google ha reforzado además la integración de su modelo en todo su ecosistema de productos y en su nube, con flujos multimodales y agénticos y con servidores MCP gestionados que hacen más sencillo conectar Gemini con servicios como Maps o BigQuery. Frente a ese despliegue, OpenAI asegura que GPT-5.2 Thinking supera a Gemini 3 y a Claude Opus 4.5 en casi todas las pruebas de razonamiento que muestra en sus propias gráficas, desde ingeniería de software en entornos reales (SWE-Bench Pro) y ciencia a nivel doctoral (GPQA Diamond) hasta tareas de razonamiento abstracto y descubrimiento de patrones (ARC-AGI).
El énfasis en las capacidades de razonamiento no es casual. Aidan Clark, responsable de investigación, subraya que las mejores puntuaciones en matemáticas no solo significan resolver ecuaciones: funcionan como un indicador de si el modelo es capaz de seguir cadenas lógicas de varios pasos, mantener la coherencia numérica a lo largo del tiempo y evitar errores sutiles que se agravan en procesos largos. Esas propiedades, señala, resultan críticas en ámbitos como el modelado financiero, la previsión, el análisis de datos o cualquier tarea donde una respuesta ligeramente errónea pueda derivar en decisiones equivocadas. OpenAI también asegura que las respuestas de GPT-5.2 Thinking contienen un 38% menos de errores que las de su predecesor, lo que refuerza su posicionamiento como herramienta de trabajo diario para toma de decisiones, investigación y redacción.
Detrás del brillo de las métricas se encuentra, sin embargo, una presión estructural considerable. OpenAI ha comprometido inversiones de hasta 1,4 billones de dólares en infraestructuras de IA para los próximos años, un plan concebido cuando aún disfrutaba de una ventaja clara frente a sus competidores. Con Google pisando el acelerador y ganando terreno en consumo gracias a la integración de Gemini en sus servicios, ese esfuerzo de inversión se ha convertido en un factor de riesgo añadido. Los modelos centrados en razonamiento profundo —como los modos Thinking y Deep Research— son mucho más caros de ejecutar que los chatbots convencionales porque consumen muchos más recursos de computación. Seguir esta línea supone entrar en una dinámica complicada: gastar más en cómputo para liderar los rankings y, al mismo tiempo, asumir el coste de mantener estos sistemas en producción a gran escala.
Más información
La entrada OpenAI responde con GPT-5.2 a Gemini 3 se publicó primero en MuyComputer.


