Logo Computerhoy.com

NVIDIA RTX 4090 Founders Edition, análisis y opinión

Análisis
NVIDIA RTX 4090

La tarjeta gráfica más potente del mundo gaming ha pasado por nuestro banco de pruebas y hemos podido sacarle hasta el último megahercio. Tras dos semanas de benchmarks y videojuegos, este es nuestro análisis final sobre la RTX 4090 de NVIDIA. La bestia indomable.

Cuando NVIDIA presentó su nueva serie RTX 40 todo el mundo se fijó en la misma: la GeForce RTX 4090 de 24 GB de VRAM. Esta iba a ser la reina de la generación y, por eso mismo, la GPU de referencia. Absolutamente todo se mediría frente a la RTX 4090.

Junto a la RTX 4090, NVIDIA mostró las RTX 4080 de 12 y 16 GB de VRAM, pero la fama es caprichosa y la gente quería saber cómo rendía la tarjeta gráfica que tiene de precio oficial 1.959 euros (y eso el modelo Founders Edition, veremos qué número ponen el resto de montadores).

Hace dos años analizamos la RTX 3080, una tarjeta gráfica tope de gama que nos fascinó. Y lo brutal es que, al lado de esta, parece amateur tanto en tamaño como en potencia. La RTX 4090 viene a romper todos los esquemas, a convertirse en referencia y a ser la que encabece los benchmarks internacionales.

Pero del dicho al hecho hay un trecho. Así que nos pusimos manos a la obra, le pedimos a NVIDIA uno de sus modelos Founders Edition y conforme nos llegó a casa la enchufamos en nuestro ordenador de pruebas. Por eso mismo, comenzamos con las especificaciones técnicas de la GeForce RTX 4090:

NVIDIA RTX 4090 Founders Edition
ModeloAD102-300-A1
NúcleoAda Lovelace | 4 nm TSMC
InterfazPCIe 4.0 x 16
Shading UnitsCUDA Cores: 16.384
TMUs: 512
ROPs:192
SM Count: 128 Caché L1 128Kb por SM
Tensor Cores: 512
RT Cores: 128
Caché total 96 Mbytes
Memoria24 GB GDDR6X
384 bits Ancho de banda: 1.018 GB/s
FrecuenciasNúcleo: 2.235 MHz | 2.520 MHz Boost
Memorias: GDDR6X 1.325 MHz | 21,2Gbps efectivos
TecnologíasDX 12 Ultimate | OpenGL 4.6
OpenCL 3.0 | Vulkan 1.3
CUDA 8.9 | Shader Model 6.6
Conectores3 x DP 1.3a | 1 x HDMI 2.1a
Consumo450W máximo
Fuente recomendada 850W 3 x 8 Pin PCIe
4 conectores recomendados
Dimensiones y peso33,6 x 14 x 6,1 cm | 2,18 kg
Precio1.959 euros

Tras las especificaciones, nada como dejaros el vídeo del unboxing sobre estas líneas y el texto donde explicamos cómo es la tarjeta gráfica una vez la sacamos de la -gigantesca- caja en la que viene y la intentamos meter en nuestro ordenador. Cosa que no es fácil si tu torre no es generosa.

Por cierto, para esta review de la RTX 4090, hemos usado el siguiente ordenador:

 Ordenador de pruebas
PlacaMSI Gaming Plus Z490
ProcesadorIntel Core i7-10700K (máx 4,7 GHz)
Memoria RAM32 GB DDR4 3.200 MHz
GPUGeForce RTX 4090 Founders Edition 24 GB GDDR6X
SSDSSD SATA (máx 550 MB/s)

Es cierto que el procesador no nos sirve para buscar números récords (el Intel i7 de 10ª Gen nos hizo cuello de botella en alguna que otra prueba, pero es residual), pero sí que nos dio de sobra para hacernos una visión muy aproximada de todo lo que puede ofrecer la tarjeta en el día a día.

Análisis de la RTX 4090 por apartados:

RTX 4090 vs RTX 3080

NVIDIA RTX 4090

Una review de una tarjeta gráfica no es nada si no se compara con su hermana pequeña. Es decir, nadie sabe cuan potente es una GPU si no la vemos enfrentada a la que fue su gemela de la pasada generación. En este caso, la vamos a comparar con la RTX 3080 que analizamos en 2020.

Para empezar, y como es tradición, vamos a poner cara a cara las dos tarjetas gráficas en algunos de los benchmarks más famosos del momento, tanto sintéticos como con juegos que tiran del raytracing más bestia que se puede encontrar en Steam.

 RTX 4090 a 1.440 pxRTX 3080 a 1.440 px%mejora
3D Mark Time Spy27.560 total
33.060 vinculado a GPU
11.397 vinculado a CPU
15.477 total
17.155 vinculado a GPU
11.332 vinculado a CPU
+78%
+92,71%
+0,5%
3D Mark Raytracing135,63 fps47 fps+239,15%
Boundary RTX107 fps70,1 fps+52,63%
Bright Memory Infinite112 fps73 fps+53,42%
Geenbench 5 Open CL305.925 puntos181.177 puntos+68,85%

Las pruebas las hemos ejecutado siempre en resolución de 1.440 px (conocido también como 2,5K) debido a que nuestro monitor de pruebas es un Viewsonic IPS de 165 Hz con G-Sync de resolución 2.560 x 1.440 px. Pero sirven para comprobar las brutales diferencias entre ambas gráficas.

Para entender las diferencias tan abismales entre ambas tarjetas, nada como poner a las dos cara a cara en términos de especificaciones técnicas, pero sin entrar demasiado en detalle, tan solo en las características diferenciales. Vamos a verlas:

RTX 4090RTX 3080
NúcleoAda Lovelace AD102Ampere GA102-200
CUDA Cores16.3688.704
Memoria24 GB10 | 12 GB
Tipo de memoriaGDDR6xGDDR6x
Ancho de banda1.008 GB/s760 GB/s
Consumo450W330W

Lo más llamativo es ver que tenemos el doble de CUDA Cores, el doble de memoria VRAM, un 60 % más de ancho de banda y unos 120 W más de consumo que viene siendo un 36% más de energía consumida. Sin duda, son cosas para tener muy en cuenta si nos ponemos a comparar.

Ahora verás que las diferencias en juegos son brutales.

La GPU más potente de la historia para mover de verdad el raytracing

NVIDIA RTX 4090

Lo que quiere el gamer, el que de verdad va a soltar 2.000 euros en una tarjeta gráfica, es saber qué tal va la GPU en un ambiente real. Dícese: jugando a videojuegos. Porque, ¿si no de qué íbamos a ahorrar todo un año para hacernos con una? En ese sentido, los números marean.

Para hacer la comparación hemos ejecutado alguno de los juegos más demandantes del momento, todos ellos con raytracing, y los hemos puesto en la máxima calidad que nos permitía el juego. Por lo que todas las pruebas tienen un entorno igual: 1.440 px de resolución y calidad Ultracon raytracing incluido.

Por cierto, para hacer las mediciones hemos usado el programa que nos ha facilitado NVIDIA llamado FrameView, el cual hace mediciones exactas de un montón de parámetros mientras estamos jugando. Nosotros hemos hecho caso de tres conceptos: la media, el 1% Low y el PCL (latencia). De eso hablaremos más tarde.

Con el escenario claro, vamos a ver las diferencias con su hermana pequeña. Recordad en este punto de que las diferencias podrían ser aún mayores en otras pruebas debido al pequeño cuello de botella del Intel i7-10700K cuando sobrepasamos los 200 fps (que se dice pronto).

FPS de media (Frameview)RTX 4090: 1.440 px | Ultra RTX 3080: 1.440px | Ultra% mejora
Overwatch 2451 (no raytracing)206,8 (no raytracing)+118%
Doom Eternal309306+0,9%
Battlefield 204211689+30,77%
Spider-Man12198+23,47%
Cyberpunk 20776742+59,52%

Estos números son sin meter nada del DLSS 3.0 del cual hablaremos más tarde. Si no que estamos viendo a la gráfica mover en nativo una resolución 2,5K junto a calidades en Ultra y el raytracing puesto al más alto nivel. La mejora es más que evidente.

Si extrapolamos y tocamos un par de detalles técnicos se puede conseguir sin problema el 4K y 60 FPS en Ultra y con raytracing puesto. Y ahora de verdad, nada de rascadas. Pero NVIDIA no está en esta guerra porque cuenta con el DLSS 3.0 que va a revolucionar el sector con su gigantesco salto en rendimiento.

Para quienes piensen que estos números no son todo lo alto que deberían, recordad que en las consolas de nueva generación -con muchísima optimización detrás- los juegos llegan a 4K y 30 FPS con el raytracing puesto a cambio de bajar las calidades gráficas entre bajo / medio. La mejora es abismal. 

NVIDIA RTX 4090

Y para quien dude, una vez quitamos el raytracing los números se disparan a lo bestia. El Overwatch 2 alcanza picos de 580 fps, el Battlefield 2042 unas medias de 124 fps, en Cyberpunk alcanzamos los 156 fps de media... Son tasas tan altas que muchos monitores no pueden manejarlas.

Por último, recordad que estamos con una tarjeta gráfica con drivers recién salidos del horno y con muchísimo camino por recorrer. De aquí a un año de parches y actualizaciones la tarjeta estará rindiendo muchísimo más que ahora (las GPUs suelen ganar un 5 /15 % de rendimiento a lo largo de su vida útil).

Un consumo todavía más alto que en la generación anterior

NVIDIA RTX 4090

Este es el gran punto negativo de la tarjeta. Consume más que ninguna GPU de NVIDIA a lo largo de su historia. La compañía asegura una potencia de hasta 450 W que nosotros hemos podido comprobar en varias ocasiones, tanto pasando benchmarks como jugando.

Para poder dar la energía suficiente que pide la RTX 4090 Founders Edition, NVIDIA ha vuelto a confiar en su nuevo puerto de 12 pines que, si bien queda estético, nos hace tener que usar el adaptador que nos trae la caja.

NVIDIA RTX 4090

NVIDIA explica que, en ese alargador de 4 puertos, solo debemos enchufar 3 de 8 pines PCIe para usarla con normalidad, y que si vamos a hacer overclock sí debemos enchufar el cuarto puerto. En nuestro caso le hemos puesto los cuatro, por si acaso.

A su vez, NVIDIA explica que la GeForce RTX 4090 Founders Edition también puede aceptar un solo cable PCIe Gen 5 de 16 pines (12VHPWR) de 450 W o superior desde una fuente de alimentación compatible (las ATX 3.0).

NVIDIA RTX 4090

En los tiempos que corren y llevando un chip fabricado en 4 nm de TSMC, esperábamos que la gráfica hubiese conseguido bajar consumos. 450 W en pleno 2022 es un disparate, por el derroche energético y porel precio de la factura de la luz. Una hora de Cyberpunk 2077 nos va a salir tan cara como tener puesto el aire acondicionado en verano.

Para que nos hagamos una idea, con un medidor de pared que nos daba el consumo en tiempo real, todo nuestro PC consumía unos 580 W a plena carga, jugando. Si a tu equipo le pones una CPU más potente que la nuestra no será raro ver consumos de 620 / 650 W. De ahí que aconseje NVIDIA que la fuente de alimentación no sea menor a 850 W.

NVIDIA hace los mejores diseños (y los más elegantes)

NVIDIA RTX 4090

Aquí no hay duda. Mientras el resto del mercado lanza diseños llamativos, agresivos, llenos de luces y ángulos imposibles en tamaños que no son operativos, NVIDIA opta por la sencillez y la elegancia, con un resultado que es, sencillamente, impresionante.

Si bien la RTX 4090 Founders Edition es mucho más grande que la RTX 3080 Founders Edition, los primeros modelos custom que han empezado a anunciarse ganan en tamaño a la propuesta de NVIDIA. Es un poco como las películas de monstruos: siempre hay uno que es más grande que el anterior.

NVIDIA RTX 4090

Como ya vimos con la RTX 3080, la compañía verde ha optado por un sistema híbrido que arroja unos resultados muy buenos. La GPU es un gran disipador de aluminio de enormes dimensiones que lleva en cada cara un gigantesco ventilador.

Uno se encarga de meter aire fresco directamente al disipador mientras que el otro es el encargado de expulsarlo fuera de la torre a través de una cámara de vapor. Como tiene tres slots de ancho, la gráfica consigue mantener a raya las altas temperaturas: hay cobre y aluminio para dar y regalar.

Temperatura máximaRTX 4090 Founders EditionRTX 3080 Founders EditionDiferencia
Overwatch 267º80º-13 ºC
Doom Eternal59º79º-20 ºC
Battlefield 204255º79º-24 ºC
Spider-Man56ºN.D.N.D.
Cyberpunk 207761ºN.D.N.D.

La temperatura máxima que hemos podido medir han sido 67º en plena carga de benchmark (con 3D Mark) y jugando a Overwatch 2 donde nos íbamos a los 500 fps y a los 430 W de consumo. Y ni así conseguimos que subiera a 70º. Lo que es un milagro por parte de los ingenieros de NVIDIA.

Pesando 2,18 kg y con un largo que llega a los 31 cm te aconsejamos que lleves mucho cuidado al manipularla, ya que podría irse al suelo en cuanto te flaqueen las manos. Sin duda, es incómoda de instalar y montar, como gran punto negativo.

NVIDIA RTX 4090

La verdadera revolución del gaming se llama DLSS 3.0

Aquí nos arremangamos porque toca hablar de la arquitectura de la gráfica, de su tecnología y de la promesa que puede cambiarlo todo: el DLSS 3.0. Pero empezamos por el principio, que somos muy ordenados aquí.

En el corazón de la GeForce RTX 4090 se encuentra el gigantesco silicio AD102. Construido en un proceso de fabricación de silicio de 4 nm, este chip mide 608 mm² de superficie y contiene 76.300 millones de transistores. El chip más avanzado de NVIDIA en su historia.

RTX 4000 de NVIDIA

El AD102 cuenta con una interfaz de PCI-Express 4.0 x16 y una interfaz de memoria GDDR6X de 384 bits. El motor Gigathread, como ya vimos en las filtraciones, actúa como componente principal de asignación de recursos del silicio.

El chip cuenta con el doble de motores de hardware de codificación de medios que Ampere, la arquitectura de las RTX 3000, incluida la codificación/decodificación AV1 acelerada por hardware. Los múltiples aceleradores permiten transcodificar varios flujos de vídeo (genial para los creadores de contenido).

Los principales componentes de renderización de gráficos del AD102 son los GPC (grupos de procesamiento de gráficos). Hay 12 de ellos, frente a los 7 de Ampere. Cada GPC comparte un motor de rasterización y backends de renderizado con seis TPC (clusters de procesamiento de texturas).

Cada TPC contiene dos SM (multiprocesadores de flujo), la maquinaria indivisible de procesamiento de números de la GPU NVIDIA. En el SM es donde NVIDIA realiza la máxima innovación arquitectónica y de dónde saca el gran rendimiento que se espera.

NVIDIA RTX 4090

Cada SM contiene un núcleo RT de tercera generación, una caché L1 de 128 KB y cuatro TMU, entre cuatro clusters que contienen cada uno 16 núcleos CUDA FP32, 16 núcleos CUDA, 4 unidades de carga/almacenamiento, una diminuta caché L0; un archivo de registros y el importantísimo núcleo tensor de cuarta generación.

Por tanto, cada SM contiene un total de 128 núcleos CUDA, 4 núcleos Tensor y un núcleo RT. Hay 12 SM por GPC, es decir, 1.536 núcleos CUDA, 48 núcleos Tensor y 12 núcleos RT por GPC. Todo esto suman: 18.432 núcleos CUDA, 576 núcleos Tensor y 144 núcleos RT.

Y la gigantesca cantidad de datos que te acabamos de dar se traduce en: rendimiento brutal codificando vídeo, ejecutando videojuegos, calculando los trazados de los rayos en tiempo real para la iluminación y el poder ejecutar los juegos a muy baja resolución para ganar rendimiento y reescalar la imagen a 4K a base una inteligencia artificial.

RTX 4000 de NVIDIA

Sí, este punto final es el DLSS 3.0. Lo primero es decir que DLSS significa Deep Learning Super Sampling. Es decir, aprendizaje profundo del reescalado. Lo que hace, de forma resumida, es ejecutar los juegos a muy baja resolución (540 px ó 720 px) y luego recrea la imagen a 4K.

Al hacer esto, la tarjeta gráfica puede crear muchos más fotogramas por segundo y el juego se mueve mucho más fluido. La teoría es fácil, lo difícil es la práctica. ¿Es posible crear una imagen tan limpia y pura en 4K si hemos tenido reescalarla desde los 540 px? NVIDIA lo está consiguiendo.

RTX 4000 de NVIDIA

Ahora mismo vamos por la tercera generación de DLSS y el proceso cada vez es más complejo, lo que da mejores resultados, mientras consiguen que el camino sea más eficiente, por lo que se pueden conseguir mayores beneficios en términos de fps.

NVIDIA asegura que DLSS 3.0 puede alcanzar hasta un x4 los números de DLSS 1.0. Y nosotros lo hemos puesto a prueba en algunos benchmarks y videojuegos que ya tienen DLSS 3.0.

Para ello, eso sí, hemos tenido que recurrir a betas que nos han facilitado desde la compañía americana, así que podemos asegurar que es tecnología muy verde todavía. 

Por cierto, todos los datos han sido medidos con FrameView, la nueva herramienta de NVIDIA. 

RTX 4090No DLSSDLSS (modo rendimiento)% Mejora con DLSS
3D Mark DLSS (4K - Performance)56,83 fps188,45 fps (DLSS 3.0)+231,6%
Doom Eternal309 fps351 fps+13,59%
Battlefield 2042116 fps161 fps+38,79%
Spider-Man121 fps149 fps+23,14%
Cyberpunk 207767 fps177 fps (DLSS 3.0)+164,18%
Lyra152 fps181 fps (DLSS 3.0)+19,07%
Boundary RTX107 fps203 fps+89,72%

Como se puede observar, las diferencias en algunos programas son descomunales. Hablamos de una mejora x3 en 3D Mark DLSS: de 56 fps a unos casi 190 fps. Esta prueba usa DLSS 3.0 y es de las que nos ha facilitado NVIDIA por ser una funcionalidad cerrada por el momento.

En cuanto a Cyberpunk 2077, donde también tuvimos que acceder a una Build preparada que sí llevaba DLSS 3.0 volvemos a ser enorme diferencia. Si lo otro era un benchmark sintético, ahora hablamos de un videojuego y hemos pasado de 67 fps a unos impresionantes 177 fps. Es una locura.

¿Más ejemplos? Los otros juegos que hemos podido probar han sido F1 22 y Microsoft Flight Simulator. El simulador de Fórmula 1 de EA logra también unas cifras de rendimiento espectaculares jugando en 4K con DLSS 3.

Así, con DLSS 3 en modo rendimiento, F1 22 a 4K alcanza los 228 fps, mientras que sin estas mejoras a 4K, con Ray Tracing, alcanza los 93,8 fps. Es decir, más de el doble de fps ganados.

El último juego al que hemos tenido acceso con mejoras para la nueva RTX 4090 ha sido Microsoft Flight Simulator, el aclamado simulador de vuelo, en el que por supuesto también hemos cargado los datos de satélite para que muestre el mayor nivel de detalle posible.

Con todo al máximo, jugando a 4K y con DLSS 3 activado, Microsoft Flight Simulator ha alcanzado una media de 136 fps y una latencia de 43,7 ms. Sin las mejoras activadas, el rendimiento baja hasta los 63,8 fps de media y un tiempo de latencia de 41,8 ms. 

El resto de los programas y videojuegos que hemos probado llevaban DLSS, pero no especificaban qué versión, por lo que podemos estar ante versiones 1.0 o 2.0 y de ahí la menor mejora (no os olvidéis del cuello de botella, en el caso de Doom Eternal es evidente).

Lo importante es quedarse con los datos del Cyberpunk 2077, ya que es un juego con el que han trabajado conjuntamente NVIDIA y CD Projekt Red, consiguiendo unos resultados muy prometedores. 

De aquí a unos años podríamos tener una gran mayoría de juegos funcionando con DLSS 3.0 y ese sería un salto brutal para todos. La única forma real de alcanzar el 8K en videojuegos sin morir en el intento.

Frameview de Nvidia

En cuanto al FrameView, esta herramienta permite medir el consumo y el rendimiento de la gráfica en tiempo real gracias a las API que incorpora. Dicha información se almacena y se relaciona con la potencia de la gráfica.

Según la compañía FrameView ofrece un “mayor grado de precisión que muchas otras herramientas y métodos, lo que la convierte en la aplicación ideal para la evaluación comparativa”. Dicha información aparece en dos columnas.

El primer valor son los fps reales que vemos (luego hace una media muy fiable de toda la prueba), el segundo valor es el 1% de los fps de valor más bajo (es decir, los picos más bajos), y por último mide la latencia que hay entre la señal y la pantalla (este último valor a veces da error, cosas de la herramienta de NVIDIA).

Durante todas las pruebas hemos tenido el FrameView abierto para comprobar que los datos que nos iban dando los benchmarks y los juegos eran reales, ya que el DLSS 3.0 puede dar fallos con las herramientas tradicionales de medición, o eso aseguran desde NVIDIA.

No es el salto que esperábamos, pero lo será

NVIDIA RTX 4090

¿Acaso no es la GeForce RTX 4090 una tarjeta que destroza a cualquiera? Sí, de eso no hay duda. Entonces ¿por qué decís que no es lo que esperabais? Muy sencillo: queríamos un salto de arquitectura que nos diera potencia junto a eficiencia.

La RTX 4090 consume 450 W y ese no puede ser el camino de la informática, como parece ser que va a ser. Intel ha anunciado que sus nuevos procesadores llegaran a los 200 W, AMD ha anunciado una subida del 70 % en el consumo de sus Ryzen 7000... y mientras la informática bajando nanómetros.

Nosotros esperábamos que con el cambio de litografía a los 4 nm de TSMC, NVIDIA conseguiría bajar los vatios de consumo de sus topes de gama y, a la vez, mejorar en rendimiento. Pero no ha sido así. Hemos vuelto a subir un escalón energético y ya van...

NVIDIA RTX 4090

El titular del apartado, por si te lo preguntas, no es porque no sea potente. No hemos visto nada igual. Si no porque es una tarjeta que va a ganar muchísimo con el tiempo. De aquí a uno o dos años, con muchos más juegos con DLSS 3.0 y con drivers mucho más actualizados, la 4090 puede ser una GPU para toda una década de gaming.

Quitando esto, lo que es innegable es que la RTX 4090 es la tarjeta gráfica más potente que hayamos analizado nunca. Jamás hemos tenido una potencia similar en nuestro ordenador: absolutamente nada puede con ella y eso es impresionante.

La tarjeta está bien construida, es silenciosa, gestiona de maravilla el calor, es bonita y rinde como una máquina celestial para cualquier gamer

Por todo esto, si lo que buscas es tener la mejor GPU del mundo en tu ordenador sin importar el coste, la RTX 4090 Founders Edition es tu tarjeta, no existe otra igual. 

Y no lo decimos solo nosotros, nuestros compañeros de Hobbyconsolas la han puesto a prueba con los últimos juegos del mercado más tiempo que nosotros y coinciden en que NVIDIA está haciendo muy bien las cosas.

Nuestra valoración

Lo mejor

  • La GPU más potente
  • Diseño discreto
  • DLSS 3
  • Muy buena refrigeración

Lo peor

  • Demasiado grande
  • Consumo muy elevado
  • Tecnologías aún verdes
  • Precio

Descubre más sobre autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.

Hoy destacamos

Y además