El pasado mes de enero compartimos con vosotros todas las novedades que NVIDIA anunció en el CES, y hace unos días tuvimos la oportunidad de asistir a un evento especial en París donde tuvimos la oportunidad de ver y de probar en vivo todas esas tecnologías.
NVIDIA hizo una puesta en escena muy cuidada, con equipos dedicados a cada una de las demos y monitores de gran calidad, algo fundamental cuando se trata de diferenciar cosas como la definición de la imagen, la presencia (o no) de artefactos y de ghosting, y la calidad de los fotogramas generados, entre otras cosas.
Siempre he sido de los que piensan que no es lo mismo contar algo que vivirlo, y por esa razón creo que es necesario volver a hablar de todas esas tecnologías que NVIDIA presentó en el CES de 2026, pero ahora partiendo de mi experiencia personal. Poneos cómodos, que arrancamos.
Nuevas tecnologías clave de NVIDIA para 2026: IA por bandera
El gran protagonista del evento fue, como era de esperar, DLSS 4.5. Esta tecnología de reconstrucción y reescalado inteligente de la imagen utiliza el modelo de transformación de segunda generación, que es capaz de trabajar con hasta cinco veces más parámetros que el modelo anterior, lo que permite mejorar notablemente la calidad final de la imagen.
Para reducir la carga de trabajo que esto supone, DLSS 4.5 trabaja con operaciones FP8, un nivel de precisión que minimiza el impacto de rendimiento en tarjetas gráficas con soporte nativo de este tipo de operaciones (GeForce RTX 40 y RTX 50).
Si tenéis una GeForce RTX 30 o RTX 20 tranquilos, es compatible con ambas generaciones, y aunque tiene un mayor impacto en el rendimiento es perfectamente viable, porque consigue una mayor calidad de imagen incluso en modos inferiores, lo que significa que podemos configurarlo, por ejemplo, en modo rendimiento y conseguir una calidad de imagen superior al modo equilibrado con el modelo anterior, contrarrestando con ello el impacto a nivel de rendimiento.
DLSS 4 tiene una tasa de adopción fantástica, y está siendo mucho más rápida que la de DLSS 3. Según NVIDIA ya hay unos 250 juegos y aplicaciones compatibles con esta tecnología, y la cifra no hace más que crecer semana a semana, algo que es muy importante, porque no basta con tener una buena tecnología, esta debe tener además una amplia implementación para que ofrezca valor.
La multigeneración de fotogramas dinámica fue otro de los grandes anuncios de NVIDIA en el CES 2026, y pude verla en funcionamiento durante este enveto, pero sobre ello hablaré más adelante. Gracias a esta tecnología, y a DLSS 4.5, NVIDIA ha sido capaz de alcanzar un techo histórico: mover juegos en 4K con trazado de trayectorias a 240 FPS. Esto quiere decir que tenemos todo lo necesario para aprovechar un monitor 4K a 240 Hz, y es espectacular.
NVIDIA no se olvida de los que prefieren jugar en la nube, ni de los que usan Linux. Hace solo un par de semanas la compañía lanzó la aplicación nativa de GeForce Now para Linux, y sigue reforzando su apuesta por el juego en la nube tanto con la calidad que ofrece este servicio, donde podemos acceder a todo el rendimiento de una GeForce RTX 5080 con la modalidad «Ultimate», como con la cantidad de juegos disponibles.
GeForce Now va a ampliar su catálogo con títulos tan esperados como Resident Evil Requiem y 007 Last Light, entre otros, y gracias a la nueva función «install to play» podemos acceder a un catálogo que cada vez se acerca más a los 5.000 juegos disponibles en Steam. Si queréis más información os invito a repasar el análisis de GeForce Now GeForce RTX 5080 que publicamos el pasado año.
El monitor, y las tecnologías que lo rodean, son fundamentales para disfrutar de una buena experiencia en juegos. Esta ya no se mide solo en fotogramas por segundo, también importa la tasa de refresco, la sincronización entre ambas, el tiempo de respuesta, la latencia y la claridad percibida al jugar.
NVIDIA ha jugado muy bien sus cartas en este sentido con tecnologías como Reflex, que reduce la latencia, y G-SYNC, que sincroniza la tasa de fotogramas por segundo y la tasa de refresco para acabar con los clásicos problemas de tartamudeo y ruptura de la imagen, pero este año se ha atrevido a ir más allá con G-SYNC Pulsar.
Con G-SYNC pulsar NVIDIA ha logrado algo que parecía imposible, ofrecer una claridad de la imagen percibida equivalente a una tasa de refresco de 1.000 Hz. Suena bien, ¿verdad? Y os puedo adelantar que verlo en vivo es una auténtica delicia.
Esta tecnología utiliza hardware dedicado de MediaTek y paneles LED para generar un efecto estroboscópico que, en resumen, mejora la nitidez de la imagen y acaba con el efecto de distorsión que se produce en monitores convencionales, haciendo que todos los elementos se perciban de una manera mucho más clara. Esto puede marcar la diferencia en juegos competitivos, como habréis podido imaginar.
En el evento NVIDIA volvió a hacer hincapié en la importancia que tiene para ella ampliar horizontes a la hora de ofrecer nuevas maneras de jugar diferentes dispositivos. En este sentido GeForce Now, y sus aplicaciones dedicadas, han jugado un papel muy importante, y el lanzamiento de la aplicación para la Steam Deck fue sin duda uno de los movimientos más acertados del año pasado.
IA para crear y generar contenido
La segunda parte de la presentación corrió a cargo de Sébastien Januario, gerente sénior de productos técnicos de NVIDIA en EMEA, quien empezó analizando el crecimiento que ha experimentado el uso de la IA de forma local, las herramientas más populares y la evolución anual de la descarga de modelos de IA entre 2024 y 2025.
Utilizar la IA de forma local tiene ventajas importantes, entre las que destacan la seguridad y la privacidad, y también el ahorro de costes al no tener que pagar por servicios de suscripción en la nube que implican cuotas mensuales.
Sin embargo, dependiendo de los modelos que queramos utilizar los requisitos a nivel de hardware se pueden disparar. Este es un tema muy importante que NVIDIA ha sabido capear optimizando su ecosistema RTX con soporte nativo de NVFP4 y FP8. Solo tenemos que echar un vistazo a las gráficas de la imagen para ver la diferencia que esto supone:
El consumo de VRAM en FLUX.1 baja de 23 GB con BF16 a 9 GB con NVFP4.
El consumo de VRAM en FLUX.2 baja de 78 GB con BF16 a 26 GB con NVFP4.
El consumo de VRAM en Qwen Imagen baja de 40 GB en BF16 a 18 GB con NVFP4.
La IA generativa acelerada a través del ecosistema de NVIDIA también nos permite disfrutar de importantes mejoras de rendimiento. Crear más rápido nos permite trabajar de forma más efectiva y reducir costes, y esto está claro que marca una gran diferencia para cualquier profesional dedicado al mundo de la creación de contenido.
Uno de los mejores ejemplos en este sentido lo tenemos en la demo que mostró NVIDIA centrada en la creación de texto a imagen y de imagen a vídeo. Con el MacBook Pro más potente de Apple el tiempo total es de 8 minutos, y con el NVIDIA DGX Spark el tiempo se reduce a solo 1 minuto, lo que significa que es hasta 8 veces más rápido.
La IA también puede ayudarnos a gestionar y a organizar nuestros elementos y datos de trabajo de forma más efectiva, y con AI Video Search in Nexa Hyperlink tenemos un excelente ejemplo. Esta función de búsqueda inteligente es capaz de encontrar vídeos y momentos concretos con un simple comando de búsqueda. También funciona con documentos y con imágenes.
Esto es muy útil, sobre todo para los profesionales que trabajan con horas y horas de vídeo, con grandes cantidades de fotos y con muchos documentos. Ya no tendremos que ir revisando vídeos, imágenes o documentos uno a uno para encontrar lo que buscamos, solo tendremos que escribirlo y esta IA lo encontrará por nosotros.
Probando las nuevas tecnologías de NVIDIA para 2026: ¿realmente valen la pena?
La primera demo se centraba en comparar DLSS 4 con DLSS 4.5 en Black Myth Wukong. Para facilitar la comparativa ambas demos se ejecutaban en equipos distintos, pero con monitores colocados de forma contigua.
Antes de nada os pido perdón por la calidad de los vídeos. Todas las grabaciones, excepto la del último vídeo, me las hizo un tercero con su smartphone porque yo tenía que moverme para ir mostrando las diferencias en tiempo real, y al confiar ciegamente el resultado no fue el esperado.
Con todo, a pesar de la baja calidad de los vídeos se puede ver que DLSS 4.5 resuelve mucho mejor que DLSS 4 los detalles más pequeños y complicados, como las partículas de fuego que aparecen alrededor de la urna, que aparecen en grandes cantidades con DLSS 4.5 y apenas son perceptibles con DLSS 4.
Con DLSS 4.5 también tenemos mejoras en otros elementos de esa estancia, como los agujeros de los ventanales superiores, y en las hojas que caen si miramos al exterior. Estas se ven más nítidas y tienen menos ghosting con DLSS 4.5.
Saltamos ahora a la multigeneración dinámica de fotogramas de NVIDIA, que puede generar hasta 5 fotogramas mediante IA por cada fotograma renderizado de forma tradicional.
Esta tecnología está pensada para activarse de forma dinámica cuando realmente se necesita para ayudar en monitores con altas tasas de refresco. Por ejemplo, si estamos jugando a un título exigente en 4K, tenemos un monitor de 240 Hz y no llegamos a 240 FPS con el modo x4 esta tecnología activará el modo x6 cuando sea necesario.
De nuevo perdón por el vídeo, que encima se grabó en vertical. Lo importante es que en él podemos ver en acción esta tecnología en The Outer Worlds 2, ejecutado en 4K y con calidad máxima. Cuando nos movemos por las diferencias estancias el nivel de exigencia del juego aumenta, y la multigeneración de fotogramas se activa en modo x6 para poder llegar a los 240 FPS necesarios para el monitor de 240 Hz.
Cuando el nivel de exigencia baja, por ejemplo al mirar al espacio por la ventana, vemos que esta tecnología pasa al modo x4, y cuando volvemos a movernos por la nave vuelve a activarse el modo x6. Funciona muy bien a pesar de que todavía no está en su versión final, pero los tiempos de activación entre diferentes modos son mejorables, ya que el retraso que se produce entre ambos es demasiado marcado (varios segundos, como vemos en el vídeo).
NVIDIA nos dijo que están trabajando todavía en esta tecnología, y que introducirán mejoras en la versión final, que será la que recibiremos próximamente.
La demo de texto a imagen, y de imagen a vídeo, fue también una de las más espectaculares. En ella pudimos ver la diferencia que marca el NVIDIA DGX Spark frente al MacBook Pro más potente, y caro, de Apple. El equipo de NVIDIA terminó la prueba mucho antes, como podemos ver en el vídeo adjunto, y fue hasta 8 veces más rápido.
Otra demo interesante fue la de AI Video Search in Nexa Hyperlink, que pudimos ver en acción tanto con documentos como con vídeo. En la primera imagen la vemos haciendo un resumen de los gastos concretos de una persona en el CES de este año, muy detallado y bien presentado, partiendo de los tickets y recibos con los que se había «alimentado».
En la segunda imagen vemos la función de búsqueda en vídeos. Se le había pedido que buscase, en diferentes vídeos, a un señor famoso con una chaqueta de cuero. Seguro que esa descripción os suena. Bromas aparte, como se puede apreciar en la imagen funcionó a la perfección, y lo mejor es que trabaja muy rápido.
Seguimos con más demos, y saltamos ahora a NVIDIA ACE en Total War con el consejero Pharaoh. En esta demostración pudimos comprobar lo bien que funciona este asistente virtual, integrado en el juego, dando consejos y respondiendo a las preguntas del jugador.
Los tiempos de respuesta son rápidos, entiende lenguaje natural y las respuesta que ofrece son realmente útiles, tanto para ganar combates como para salir de situaciones peliagudas, y también para ayudarnos a entender mejor el juego si somos novatos.
La demo de GeForce Now funcionando sobre Linux, mediante la aplicación nativa que está en fase beta, también nos dejó un buen sabor de boca. El juego utilizado fue Indiana Jones y el Gran Círculo en calidad máxima con trazado de trayectorias y 4K, y el rendimiento fue excelente en todo momento.
La calidad de imagen que ofrece GeForce Now es soberbia, tanto que cuesta distinguirlo del juego en local, y como podemos ver en la imagen la latencia es perfecta, ya que en este caso se mantuvo en 2 ms. Esto se debe a que los servidores están en Francia, pero no hay nada de lo que preocuparse, en España el tiempo de respuesta ronda entre los 25 y los 27 ms, un nivel totalmente óptimo.
Terminamos con una demo de G-SYNC Pulsar, una tecnología que no se puede apreciar bien en vídeo grabado directamente sobre la pantalla, y que hay que probar en vivo para darse cuenta de la gran diferencia que puede llegar a marcar. Os puedo confirmar que representa un avance muy importante, y que realmente consigue mejorar la nitidez de elementos en movimiento. Una vez que la hemos probado nos deja un recuerdo imborrable.
Para poder disfrutar de G-SYNC Pulsar es necesario contar con un monitor compatible, ya que utiliza hardware especializado para producir el efecto estroboscópico que hace posible esta tecnología. Esto quiere decir que un monitor anterior compatible con G-SYNC no nos permitirá disfrutar de esta tecnología.
La entrada Estas son las tecnologías de NVIDIA que van a definir el gaming y la creación de contenidos por IA en 2026 se publicó primero en MuyComputer.

