Las tarjetas gráficas son uno de los componentes más importantes dentro del mundo de la tecnología en general. Gracias a ellas podemos disfrutar de nuestros juegos favoritos, pero son mucho más que un componente para jugar. También son el pilar central de la inteligencia artificial, y de otras tecnologías que se han convertido en algo fundamental dentro de la sociedad actual.
Podemos decir sin miedo a equivocarnos que sin las tarjetas gráficas no habríamos evolucionado como sociedad hasta este punto en el que nos encontramos actualmente, y que no habría sido posible el desarrollo de numerosas tecnologías que han transformado por completo el mundo, y que nos han hecho la vida más fácil.
Si eres un experto y crees que lo sabes todo sobre las tarjetas gráfica sigue leyendo, porque en este artículo te vamos a contar unos cuantos secretos sobre este componente que igual no conocías, y que puede que te sorprendan. No dudes en dejar tu comentario si quieres compartir con nosotros otros secretos que creas que son interesantes.
1.- Las tarjetas gráficas pueden hacer tareas propias de una CPU
Para que una tarjeta gráfica pueda funcionar correctamente es necesario que esta se acompañe de un procesador o CPU. Esto tiene una explicación muy sencilla, y es que el procesador es un componente multipropósito que puede realizar tareas generales, y que se encarga de ejecutar operaciones que generan datos que pueden entender otros componentes, como la tarjeta gráfica.
La tarjeta gráfica es todo lo contrario. Se trata de un componente especializado en tareas gráficas que realiza operaciones relacionadas con el renderizado y la representación de gráficos, que son convertidos en información que puede ser mostrada por el monitor. Su papel también es fundamental, porque sin este componente no podríamos ni siquiera ver algo tan básico como la interfaz de Windows.
El papel que juega cada componente está bastante claro, pero la tarjeta gráfica es un componente tan versátil que se puede utilizar para realizar tareas que en principio deberían ser exclusivas de un procesador. Esto es lo que se conoce como GPGPU, siglas en inglés de computación de «propósito general en una unidad de procesamiento gráfico».
NVIDIA fue la gran pionera en el sector de la computación GPGPU con CUDA, una plataforma de computación en paralelo que incluye un compilador y un conjunto de herramientas de desarrollo con las que es posible desarrollar y crear aplicaciones aprovechando la gran capacidad de paralelizado que tienen las tarjetas gráficas. Esta plataforma emplea una variación del lenguaje de programación C, conocido como CUDA C.
2.- Obtienen hasta 75 vatios de alimentación del conector PCIe
La mayoría de las tarjetas gráficas necesitan conectores de alimentación para poder funcionar correctamente. Estos pueden ser:
De 6 pines, que suministran hasta 75 vatios.
De 8 pines, que soportan un máximo de 150 vatios.
De 16 pines, que suministran un máximo de 600 vatios.
Sin embargo, no todo el mundo sabe que las tarjetas gráficas también pueden obtener hasta 75 vatios de potencia del conector PCIe. Esto es lo que hace posible que existan tarjetas gráficas sin conector de alimentación adicional, facilita a las ensambladoras la creación de diferentes modelos cono solo un conector de alimentación adicional.
Por ejemplo, la Radeon RX 9060 XT de 16 GB puede consumir más de 180 vatios cuando viene con overclock de casa, pero este modelo solo utiliza un conector de alimentación adicional de 8 pines, que suministra 150 vatios. El resto de la alimentación que necesita la obtiene del conector PCIe.
Algunas tarjetas gráficas, como la GeForce RTX 4060, podrían haber llegado al mercado con un conector de alimentación adicional de 6 pines, ya que su consumo solo supera los 115 vatios cuando se le aplica overclock, pero los fabricantes optaron por sobredimensionar el sistema de alimentación y montar un conector de alimentación adicional de 8 pines.
3.- Sus velocidades de trabajo son diferentes de las que se anuncian
Este es un tema que todavía genera mucha confusión, pero que es bastante fácil de explicar. Las tarjetas gráficas actuales cambiaron su funcionamiento hace muchos años, y dejaron de utilizar un modelo de frecuencias de trabajo rígido para adoptar un modelo dinámico, lo que hace que el reloj de la GPU no funcione siempre a la misma velocidad.
¿Por qué se introdujo este cambio? Pues porque era la mejor solución para conseguir un mayor equilibrio entre consumo y rendimiento, y también porque es la que permite afrontar diferentes cargas de trabajo de una manera más realista y óptima. Tampoco debemos pasar por alto que este modelo dinámico sirve como medida de seguridad para evitar daños por exceso de consumo y de temperatura.
Imagina que estás en el escritorio de Windows 11 y que estás escribiendo un texto en Word mientras escuchas música. En ese escenario la velocidad de trabajo de la GPU se mantendrá en unos valores más bajos porque la carga de trabajo que tiene que afrontar es mínima. Por contra, si lanzas un juego exigente la tarjeta gráfica se pondrá al máximo (o casi) de carga, y su velocidad de trabajo se disparará.
Una tarjeta gráfica ajusta la velocidad de trabajo de su GPU en función de tres grandes claves:
La carga de trabajo.
La temperatura de la GPU.
El consumo máximo disponible, expresado en vatios.
Por ejemplo, la GeForce RTX 5090 FE trabaja a 2,01 GHz-2,40 GHz, modo normal y turbo, pero cuando ejecutamos juegos esta tarjeta gráfica puede alcanzar picos de hasta 2,76 GHz gracias al modo turbo dinámico que incorpora esta tarjeta gráfica, y su media estable se suele mantener sobre los 2,67 GHz.
Una mayor carga de trabajo y un mayor consumo harán que la velocidad de trabajo de la GPU suba, pero esto dependerá de la temperatura que registre esta. Si la temperatura supera el valor seguro que tiene fijado el núcleo gráfico dicha velocidad empezará a bajar, y si alcanza niveles críticos se producirá lo que se conoce como estrangulamiento térmico.
En situaciones límite el calor puede hacer que la GPU se apague para evitar daños. Esto puede reflejarse en forma de pantallazo azul con el consiguiente reinicio del sistema.
4.- Pueden trabajar con miles de pequeños procesos
Ya os he dado una pista importante en el punto número uno, y es que las tarjetas gráficas son componentes especializados con una gran capacidad de paralelizado, ¿pero sabéis qué quiere decir exactamente esto? Si habéis respondido que no tranquilos, que os lo explico en un momento.
Un procesador actual, basado en la arquitectura x86-x64, puede tener entre uno y 192 núcleos. Cada uno de esos núcleos puede afrontar tareas de propósito general, y son núcleos mucho más complejos, grandes y «fuertes» que los núcleos que tiene una tarjeta gráfica.
Gracias a tecnologías como el HyperThreading de Intel y el SMT de AMD cada uno de esos núcleos puede trabajar con un proceso y un subproceso, lo que significa que un procesador de un núcleo podría manejar dos hilos, y que uno de 192 núcleos podría trabajar al mismo tiempo con hasta 384 hilos. Los procesadores pueden trabajar en serie y en paralelo.
Una tarjeta gráfica actual como la GeForce RTX 5090 tiene 21.760 shaders o núcleos CUDA. Estos son pequeños núcleos especializados que no tienen ni el tamaño ni la complejidad de los núcleos de una CPU, pero tienen una importante ventaja, y es que se pueden utilizar para paralelizar miles de hilos de forma simultánea.
Os dejo una analogía sencilla, y bastante acertada, de la importancia de diferencia que marca la GPU si hablamos de capacidad de paralelización. Piensa en un autobús y en un coche deportivo. El segundo tiene un motor más rápido, pero solo puede llevar a cinco personas del punto A al punto B. El autobús, aunque tarde más tiempo, podría llevar a 150 personas del punto A al punto B.
5.- Su rendimiento depende muchísimo del software, y de los drivers
Los drivers son tan importantes que pueden marcar la diferencia entre que una tarjeta gráfica funcione o no, por eso es tan importante el soporte que una tarjeta gráfica recibe a nivel de drivers, y también la calidad de los mismos.
Un driver defectuoso puede hacer que tengamos problemas de rendimiento, e incluso hacer que el equipo se cuelgue y que no funcione correctamente. Una tarjeta gráfica que no reciba soporte a nivel de drivers desde hace tiempo probablemente no funcionará con los juegos más actuales, o en caso de hacerlo puede que presente fallos gráficos y problemas de rendimiento.
Esto es algo que ya estamos viendo en la Radeon RX 580, por poner un ejemplo muy conocido. Esta tarjeta gráfica ya no tiene soporte y no recibe nuevos drivers, y como consecuencia hay juegos nuevos que dan problemas o que no funcionan. Spider-Man 2 es un buen ejemplo.
Los drivers pueden introducir mejoras de rendimiento, optimizaciones, correcciones de seguridad y también otras mejoras específicas para juegos de nuevo lanzamiento, así que juegan un papel fundamental en la vida útil de cualquier tarjeta gráfica.
El software también influye mucho. Hay herramientas y aplicaciones que están optimizadas para determinadas tarjetas gráficas, como Blender, por ejemplo, que funciona mejor en las GeForce RTX de NVIDIA, y juegos que también corren mejor en arquitecturas gráficas concretas, como por ejemplo Silent Hill 2 Remake, que funciona mejor en gráficas NVIDIA, o Resident Evil 4 Remake, que va mejor en las Radeon RX de AMD.
Cuando hablamos de tarjetas gráficas la potencia bruta no es lo único que importa. La optimización concreta de cada aplicación puede influir tanto que puede hacer que una tarjeta gráfica de una gama inferior supere a otra rival de una gama superior. Esto, por desgracia, no es algo fácil de apreciar, y por eso es son tan importantes las comparativas de rendimiento.
6.- No se llevan bien con los diseños MCM (multi-chip modular)
Los procesadores dieron el salto a un diseño multi-chip hace ya varios años. AMD fue la primera con los Ryzen 1000, una generación que llegó al mercado en 2017, y en Intel también se ha producido ese cambio con los Intel Core Ultra 100 y Core Ultra 200.
Estos diseños utilizan diferentes chips interconectados para crear un «súper chip», un procesador que bajo un diseño monolítico (una única pieza de silicio) habría sido imposible o muy complicado y caro de fabricar.
Por ejemplo, el Ryzen 9 9950X tiene dos chips de 8 núcleos y 16 hilos interconectados, lo que lo convierte en un procesador de 16 núcleos y 32 hilos. Cada chip tiene su propio encapsulado, y comparten empaquetado con un tercer chiplet que agrupa el sistema I/O y la GPU integrada.
En el mundo de las tarjetas gráficas de consumo general solo AMD se atrevió a utilizar un diseño MCM con las Radeon RX 7000, pero de una manera muy limitada. La GPU seguía teniendo un diseño monolítico, ya que estaba integrada en una única pastilla de silicio, y lo único que AMD externalizó en chiplets separados fue la caché L3.
¿Por qué todavía nadie se ha atrevido a crear una GPU con un diseño MCM para consumo general? Hay muchas razones, pero sin duda la más importante es que la GPU no se lleva bien con ese tipo de diseños por tres grandes claves:
La complejidad que implica coordinar y utilizar correctamente el enorme número de shaders que tendríamos en cada chiplet.
Los desafíos y retos que supone una GPU MCM a nivel de gestión de recursos y de interconexión a nivel de ancho de banda.
Los problemas de latencia que surgen cuando se utilizan varios chiplets interconectados, sobre todo cuando la distancia entre estos es elevada.
No es casualidad que NVIDIA lleve años explorando el uso de diseños modulares en sus GPUs, que solo se haya atrevido a dar el salto a este diseño recientemente con Blackwell GB200, que integra dos chiplets GPU en dos encapsulados compartiendo un mismo empaquetado. NVIDIA dejó claro durante su presentación que ambos trabajan perfectamente coordinados como si fueran una única GPU.
Esa mención tan específica ya dice mucho sobre la realidad, y la complejidad, de las GPUs multi-chip. Su llegada al mercado de consumo general dependerá de los problemas de escalado que se vayan produciendo con el diseño de núcleo monolítico en futuras generaciones, pero desde luego no va a ser un salto sencillo se implementar, de eso podéis estar seguros.
7.- Tienen diferentes tipos de núcleos
El uso de diferentes tipos de núcleos dentro de un mismo componente permite que este ofrezca un mayor grado de especialización, y que esté preparado para trabajar con diferentes cargas de trabajo de una forma óptima.
Es una idea tan acertada que incluso AMD e Intel la han adoptado en sus procesadores. AMD utiliza núcleos Zen X (alto rendimiento) y Zen Xc (mayor eficiencia), mientras que Intel utiliza núcleos P (alto rendimiento), núcleos E (alta eficiencia) y núcleos LP (consumo ultra bajo).
En el caso de las tarjetas gráficas, NVIDIA fue la primera en implementar los núcleos tensor y los núcleos RT, que comparten espacio en el mismo chip con los shaders o núcleos CUDA. Los núcleos tensor están especializados en tareas relacionadas con la inteligencia artificial, como la inferencia y el aprendizaje profundo, mientras que los núcleos RT se especializan en trazado de rayos.
Al contar con esa división de tres bloques de núcleos especializados, cada uno de ellos puede ocuparse de las cargas de trabajo para las que está preparado, y se mejora tanto el rendimiento como la eficiencia.
Por ejemplo, cuando ejecutamos un juego, si activamos el trazado de rayos, los núcleos RT se ocuparán de esta carga de trabajo (cálculo de intersecciones, aciertos y errores, rebotes y demás), y si activamos DLSS los núcleos tensor se harán cargo de los algoritmos de IA que hacen posible esta tecnología.
Sin esos núcleos especializados los shaders tendrían que hacerse cargo de todo, y ambas tecnologías serían inviables. Basta con que os recuerde que una GeForce GTX 1080 Ti apenas consigue 12 FPS en Quake II RTX en 1080p, y que una GeForce RTX 2060 logra 48 FPS de media en ese mismo juego, gracias a la diferencia que macan sus núcleos RT.
8.- Trabajan de manera inteligente adaptándose a cada situación
Esto es algo que ya habréis podido intuir cuando os he hablado del funcionamiento del modo turbo, y de cómo este ajusta la velocidad de trabajo en función del consumo disponible (limitador de potencia), de la carga de trabajo y de la temperatura, pero la verdad es que ese funcionamiento inteligente va todavía más allá.
Las tarjetas gráficas con núcleos especializados distribuyen la carga de trabajo de forma inteligente sobre cada tipo de núcleos, y también intentan aprovechar el exceso de recursos disponibles para mejorar el rendimiento al máximo dentro de lo posible. En las GeForce RTX 50 NVIDIA mejoró notablemente este tema con la introducción del procesador de gestión de IA, que se ocupa de programar las tareas que se asignan a cada bloque de núcleos.
Este comportamiento inteligente también se da en el consumo de recursos disponibles. Por ejemplo, si una tarjeta gráfica tiene más memoria gráfica de la que necesita un juego esta permite la ocupación de una mayor cantidad de memoria aunque esta no resulte imprescindible.
Es lo que se conoce como ocupación preventiva de memoria, y es la razón por la que podemos ver que un juego solo ocupe 7 GB de VRAM en una gráfica como la GeForce RTX 4060, y que este mismo título ocupe 12 GB de VRAM en una GeForce RTX 5080. El juego ocupa una mayor cantidad de VRAM por si en algún momento necesita el contenido de esta, pero no significa que el juego consuma realmente tanta memoria gráfica.
9.- Las líneas y el estándar PCIe pueden afectar a su rendimiento, pero solo en casos muy concretos
Este es un tema que todavía sigue generando muchas dudas, y que ha creado mucha polémica porque no se ha sabido explicar correctamente, y se ha utilizado por algunos medios de una manera forzada y parcializada para vender el discurso que les ha interesado.
La interfaz PCIe es la que permite que se establezca una comunicación entre la tarjeta gráfica y el procesador, con la placa base como intermediario. Un estándar más avanzado, y una mayor cantidad de líneas PCIe, se traducen un mayor ancho de banda, y permiten intercambios de datos y comunicaciones más rápidas entre ambos componentes.
Es cierto que utilizar una interfaz PCIe más antigua y una menor cantidad de líneas PCIe puede afectar al rendimiento de una tarjeta gráfica, pero no es la regla general, esto solo ocurre en casos muy concretos, y no es algo exclusivo de las tarjetas gráficas más potentes.
Por ejemplo, la diferencia entre utilizar una GeForce RTX 5090 bajo PCIe Gen5 x16 y hacerlo bajo PCIe Gen3 x16 es de solo un 2% menos de rendimiento de media, y de un 6% menos si utilizamos el estándar PCIe Gen3 x8. La caída de rendimiento es tan pequeña porque esta tarjeta gráfica tiene 32 GB de VRAM, lo que significa que nunca llega a saturar del todo su memoria gráfica, y esto reduce su dependencia del ancho de banda de la ranura PCIe.
Sin embargo, con una tarjeta gráfica que sí vea saturada su capacidad total de memoria gráfica se puede producir una pérdida de rendimiento de un 50% o incluso más. Por ejemplo, la GeForce RTX 4060 rendirá bien incluso con una interfaz PCIe antigua y con una baja cantidad de líneas siempre que no saturemos su VRAM, es decir, siempre que no excedamos el consumo de memoria disponible, que en este modelo son 8 GB.
Esa es la clave que debéis tener siempre presente cuando hablamos de este tema, el consumo de memoria gráfica y el grado de saturación que alcanza con cada juego y aplicación. Si el consumo de memoria gráfica satura por completo la VRAM disponible y utilizamos una GeForce RTX 4060, por seguir con el ejemplo anterior, en una placa base PCIe Gen3 x8 perderemos bastante rendimiento.
10.- No tienen un consumo fijo, este puede variar muchísimo
Muchas personas todavía creen que cuando montamos una tarjeta gráfica esta va a tener siempre el mismo consumo en juegos y aplicaciones exigentes, pero la realidad es totalmente distinta. Para comprenderlo es necesario entender cómo funciona exactamente una tarjeta gráfica.
Cuando ejecutamos un juego o una aplicación, la tarjeta gráfica pedirá la alimentación que necesita en función de la carga de trabajo que esté afrontando en cada momento. Por esta razón una GeForce RTX 5090 puede consumir menos de 450 vatios en Cyberpunk 2077 bajo ciertas condiciones, y llegar a consumir 577 vatios en ese mismo juego si cambiamos la configuración gráfica.
La fuente de alimentación no suministra siempre una potencia fija a la tarjeta gráfica, sino que es esta la que pide la cantidad de vatios que necesita en cada momento, trabajando en tiempo real. Esto también afectará a las temperaturas de trabajo y a la cara de los ventiladores y del sistema de refrigeración.
Por esta razón es tan importante realizar pruebas de estabilidad, de consumo y de temperatura en situaciones de pleno estrés, porque solo de esta manera serán totalmente fiables y representativas de los valores máximos que puede alcanzar una tarjeta gráfica.
La entrada Tarjetas gráficas para PC: secretos que quizá no conocías se publicó primero en MuyComputer.