Así rinde la AMD Radeon VII, la rival de la NVIDIA RTX 2080

Hardware

AMD anunció en el CES de 2019 la AMD Radeon VII, la primera tarjeta gaming del mercado con un chip de 7 nm. Hoy se han publicado las reviews que nos permiten conocer el rendimiento de la tarjeta y ver si realmente está a la altura de la NVIDIA RTX 2080. La tarjeta no ha sido enviada a medios españoles, por lo que hay que recurrir a extranjeros para conocer su rendimiento.

AMD Radeon VII: los 7 nm no sirven para que consuma menos, ya que han subido mucho la frecuencia

La premisa de la que partía AMD era bastante prometedora: una tarjeta gráfica con arquitectura Vega, pero fabricada en 7 nanómetros. Sus 16 GB de VRAM HBM2 quedan por delante de los 8 GDDR6 que ofrece la RTX 2080, y AMD quería mejorar el rendimiento de ésta al mismo precio. Pero no lo han conseguido.

Como vemos en TechPowerUpy comentan nuestros compañeros de HardZone, los datos de rendimiento dejan bastante que desear. La tarjeta rinde casi como una RTX 2070 en 1080p, y queda muy lejos de la RTX 2080, que rinde un 16% mejor. En 1440p, la RTX 2080 rinde un 14%, y en 4K un 10%, donde la Radeon VII empata prácticamente con la GTX 1080 Ti, una tarjeta que ha podido llegar a comprarse por menos de los 755 euros a los que se han puesto a la venta algunos modelos en el día de hoy.

El consumo energético es algo superior al de la RTX 2080, y de hecho lo vemos en su doble conector de 8 pines que AMD ha preferido aumentar el consumo con tal de subir la frecuencia. Con ello, tenemos que las ventajas de pasar de 12 nm de las tarjetas de NVIDIA a 7 nm se esfuman, con un rendimiento por vatio paupérrimo. Además, el consumo es el mayor que encontramos en las tarjetas que hay actualmente a la venta, superando los 310 vatios de máximo jugando, y alcanzando los 350 vatios en tests sintéticos.

AMD podría haber hecho más por rebajar el precio de la tarjeta

AMD ha cogido básicamente la Radeon Instinct M50 para profesionales y le han puesto la etiqueta de gaming a la AMD Radeon VII. Su rendimiento en productividad es bueno, pero en juegos queda por detrás de lo esperado. Además, su memoria HBM2 es demasiado cara, llegando a suponer casi la mitad del coste total de la tarjeta (320 dólares) según se reveló hace unos días. Si le hubieran puesto 8 o 12 GB de VRAM y hubieran bajado la tarjeta unos 100 dólares de precio, estaríamos ante un interesante competidor.

Sin embargo, las funcionalidades extra de NVIDIA, además del soporte para Ray Tracing, DLSS y su completo software hacen que tengamos que esperar a Navi para ver si AMD puede plantar cara a NVIDIA aprovechando que son los únicos que lanzarán tarjetas de 7 nm este año. Hasta entonces, AMD seguirá sin hacer coincidir unos procesadores de lo mejor del mercado con las mejores tarjetas gráficas.

Escrito por Alberto García

Fuente > TPU

Vía > HardZone

Continúa leyendo
  • Hugo Bravo

    en otros review esta igual a la rtx 2080 y gtx 1080ti . y lejos de la gtx 1070 ti

  • Álvaro Lázaro Laín

    Por lo que se ve los nm no son tan importantes para el rendimiento de la tarjeta. Intel utiliza 14nm++ y AMD tiene de 12 nm y dentro de poco 7 nm. En gráficas igual entre AMD y NVIDIA. ¿A lo mejor es que los desarrolladores crean juegos pensando más en Intel y NVIDIA que en AMD?
    Aún así AMD tiene asegurado su futuro con las consolas que utiliza todo de AMD.

    • Jhon

      Pero el precio de la amd es de 700 dolares y la de 2080 ti es de 1300 dolares…es una diferencia casi el doble….igual.. amd empezará a lanzar driver que mejorará su rendimiento… y sacará sus uv/oc los cuales mejoraran bien …aunq no creo q supere la 2080 ti si la veo como una buena opción por su precio…para juegos, y productividad…solo sera de esperar a ver que pasa….soy amante de Nvidia pero AMD cada vez me sorprende mas!!

      • Goca

        La AMD Radeon VII compite con la Nvidia Geforce RTX 2080, no la 2080 Ti, no tiene sentido tu comparación de precios. La RVII mejorará, eso es obvio pero también lo hará la RTX 2080, además Lisa Su comentó que en este mismo año lanzarán sus GPUs Navi, las cuales integrarán tecnología de Ray-Tracing. Por lo tanto es mejor esperar a ver como rinden las Navi y las ArticSound. Para productividad la RVII es mucho mejor, en eso no hay duda, esos 16GB HBM2 hace maravillas, pero en juegos no es necesario, apenas se utilizan 8GB en 4K, aunque hay algunos que pueden llegar a utilizar hasta 12GB, pero el gaming no solo se trata de fuerza bruta, sino de un arquitectura nueva y mejor diseñada.
        No eres amante de nada solo comentas porque puedes, lo digo por tu opinión ya que carece de objetividad y datos básicos.

        • Jhon

          Pues razon tienes.. no soy amante de Nvidia pq no conozco mucho sobre ella… solo que eh usado sus productos…. como la gtx 930 en su momento q era lo mejor, me dio buenos resultados, luego pase a la 1080ti y fue una gran inversion, y hace poco pase a la 2080ti y aunq su precio fue bastante alto…. pues no vi mucha diferencia con mi anterior 1080 …aunq obvio ..era mas fps, y bla bla bla… pero no veo la diferencia de jugar en 180 fps a 100 fps en fin no era gran cosa..aun asi, igual me actualice a algo nuevo con la 2080ti y creo q me servira al menos 1 a 2 años mas…. pero tengo amigos que usan amd que juegan juegos super exigentes a buenas graficas y fps a menor precio…y por ello, me llama la atencion AMD …..pero no creo q compre sus prouctos.. uso nvidia simplemente pq es la q mas veo q recomienden …pero ya lo tecnico no se… como no se q le ven al buscar una grafica q valla a 200 fps en 4k si a 80 veo q va bien… igual sera un secreto de los gamer… y puse q radeon estaba cerca de la 2080ti fue pq en un chico ruso mostro resultados entre las dos y los vi en diferencias de de 30 a 10 fps.. pero a hora que decis q esta radeon compite con la 2080 siendo el mismo precio …pues elegiría nvidia

          • q3test testall

            AMD solo compite en gama media ya que con la RX 590 obligo a NVIDIA a sacar la gama 16xx ya que su RTX son muy costosas por mas que usen tecnología vieja de fabricación. Al recortarla en la 16xx sacan mas chip por lo que le sale mas baratos. jaja

  • Nacho

    Es evidente que los reviewers están mal digeriendo que rinde como una 2080 RTX pero cuesta 200 euros menos, y ya no tiene remedio, el golpe es tremendo a Nvidia, la decepción es nvidia,con producto caro,que no ofrece un 1fps más, salvo en 4 juegos donde Nvidia se metió en el desarrollo de los mismos al implementar Gamesworks.

    Si a eso le sumamos que la Radoen seven la deja atrás a la 2080 en otras tareas profesionales,es evidente de que AMD tiene mejor producto, y con un precio más competitivo va entrar como el cuchillo en la mantequilla.

    He llegado a leer un «no es suficiente» y la cuestión es que la única gráfica que no es suficiente es la Nvidia 2080 que las versiones con buen rendimiento rondan 950 y 1000 euros…… ,

    AMD no tiene nada que demostrar, llega batir la 2080Ti en Battlefield V……… es Nvidia la que debe demostrar por qué cobra 200 a 250 euros más por un rendimiento similar, o por qué su 2080ti de 1400 euros es inferior en juegos como Battlefield V.

    Es Nvidia la que tiene que demostrar que su rtx funciona, en multiplayer no, y en campaña termina dando una experiencia de juego pésima ya que incluso a 1080p da pocos fps y ese es el menor de los problemas, hay que sumar stuttering y todo tipo de problemas similares que ofrece el RTX actualmente.

    • Jorge Muñoz

      Estimado colega, concordaría con lo que dices si las
      especificaciones de Hardware en las tarjetas RTX 2080 y Radeon VII fueran las
      mismas, pero no.

      Aparentemente la tarjeta de AMD tiene las mejores y más
      avanzadas características, siendo una arquitectura a 7nm y contar con HBM2. Sin
      embargo, es evidente que diseñaron una mala arquitectura y al unir las mejores
      piezas no rinden como se podría imaginar.

      Es cara, consume demasiado y no está a la altura de lo que
      ofrece Nvidia actualmente.

      Por si fuera poco, la tecnología Ray Tracing de Nvidia y las
      optimizaciones que sufrirán los futuros juegos para la compatibilidad con ésta,
      impulsará todavía más el rendimiento de las RTX y la Radeon VII se quedará
      compitiendo con la 1080 TI, una tarjeta que tiene 2 años de antigüedad.

      Tómalo en cuenta, yo esperare a Navi, espero que el costo
      rendimiento valga la pena para entonces.

      Saludos.

      • Nacho

        Siento decirte que rinde segun juego arriva abajo de la 2080, y que en Battlefield V deja atrás hasta una 2080 Ti, y que si miras el tamaño del chip de la Radeon te darás cuenta de que tu comparativa carece de sentido,ya que las 2080 y 2080Ti usan un chip de tamaño monstruoso………

        https://uploads.disquscdn.com/images/31ea48d20a13939e4729a66e88b7d38ce580b1e98d4cccca2fbe0c63bb4f4c08.png

        • Jorge Muñoz

          Mmmm pues entre que sí, entre que no.

          El rendimiento varía dependiendo realmente de la
          arquitectura del juego y de las optimizaciones que este tenga a favor de una u
          otra tecnología.

          Nvidia, para ofrecer el rendimiento que ofrece a pesar de
          utilizar menos memoria, menos cores, etc. Ha desarrollado su propia tecnología para
          echar a andar sus tarjetas gráficas y usan unos nucleos que ellos mismos han
          llamado CUDA cores, estos, son capaces de aprovechar un llamado procesamiento
          en paralelo; AMD por otra parte, tiene que compensar el procesamiento paralelo
          con fuerza bruta y hace uso de OpenGL para lograrlo.

          Hay juegos que están desarrollados u optimizados para OpenGL
          y otros para CUDA. Si bien es cierto, la mayoría de los juegos están orientados
          para ser aprovechados por el líder del mercado, en este caso, Nvidia, hay otros
          que son aprovechados por OpenGL y estos son, los que AMD está acostumbrado a
          someter a prueba sus gráficas.

          Es por ello que AMD arrasa en algunos juegos, pero en la mayoría
          queda igual o poco por detrás. Imagino que sacrificó el consumo para elevar
          otras características de la tarjeta y así por lo menos quedar a la altura de
          las RTX.

          Sin embargo, la AMD Radeon VII, prácticamente dobla en características
          a la RTX y aun así queda por detrás.

          De esta manera, en un mercado donde su rival es dominante,
          AMD está obligado a innovar y ofrecer tecnologías competentes para inclinar a
          los desarrolladores a optimizar los juegos a tecnologías libres como OpenGL,
          algo costoso, por la “mano de obra” por llamarlo de alguna manera.

          Yo también espero que llegue el día en que ofrezcan mejor tecnología
          y empiece una competencia seria en el mercado de las GPU para usuarios
          convencionales.

          • Nacho

            Hablais al final de la tecnologia DLSS que finalmente para ganar FPS deja las imágenes borrosas? que compras una gráfica de 800 a 1400 euros para que haga lo mismo que las consolas de 400 euros? que todo lo que se ve a mitad de distancia hasta el final tiene un texturizado pésimo?

            De esa tecnología presumis de Nvidia? me parece que son vuestras fantasias,ah,y la radeon 7 es mejor producto que la 2080 porque en 4K que es para lo que te compras una gráfica de este estilo,al menos el 50% del fundamento de su compra o más, no va padecer el bottleneck que tiene la 2080 con los 8 gigas de ram.

            https://uploads.disquscdn.com/images/a408c94480c9b271d37726ead00b8428d5cf3f3a4f4e282d617fc77079a2c0a9.jpg

            Al menos AMD sacó Mantle en condiciones, con async compute trabajando, cosa que esto del DLSS y el RTX es pues eso,una gran chapuza.

        • Goca

          A eso se le llama «bottleneck». Ni la Radeon VII puede funcionar a un 100%, mucho menos lo podrá hacer la RTX 2080 Ti. Además de Guru3D hay muchos más sitios web con benchmark de la RVII en BFV y en casi la mayoría la AMD vence a Nvidia, pero me refiero a la RTX 2080, porque vencer a la RTX 2080 Ti solo es un sueño guajiro. No importa el tamaño del chip, sino lo que este contiene: AMD aprovechó el espacio para agregar los 16GB HBM2 y Nvidia para añadir los núcleos RT y Tensor.

      • Hugo Bravo

        en el jusgo unido que se usa ray tracing que e sunas lucetitas en algunos charcos de agua baja enormenete los fps a mucho menos d ela mitad, esa tacnologia es engaña muchachos, por ahora no esta para ser lanzado, esto me recuerda a amd athlon 64 que se alnzo con los pentium 4 y no habia sistema oprativo para 64 bits cuando intel lanzo 64 bits copia de amd ya microsfot habia lanzado un sistema operativo que la tenia. amd esta haciendo lo de intel tras fracasos de lanzar primero la tecnologia cuando no existia algo que lo aproveche,

    • Goca

      Tu comentario completo es toda un falacia. Amigo primero piensa y razona lo que vas a comentar para que no termines dando una opinión tan absurda.

      ¿Nvidia la decepción? Si Nvidia siempre es la empresa que se arriesga, todo por ser el primero, ser quien innova. Las GPUs RTX están caras porque todas ellas implementan dos tecnologías jamás vistas para videojuegos: Ray-Tracing y DSSL, además de el ‘overstock’ de sus GTX (las cuales supuestamente casi están agotadas) pero sobre todo el precio alto se debe a que ahora mismo no hay competidor por el que deba preocuparse Nvidia, es decir, cuando AMD lance Navi e Intel ArticSound, sí estas GPUs son buenas y baratas, entonces Nvidia bajará los precios, dime ¿si tú fueras Nvidia venderías baratas tus GPUs aun cuando puedes aprovechar la falta de competencia al mismo nivel?
      «las versiones con buen rendimiento rondan 950 y 1000 euros» De verdad que no sabes ni lo que dices: 1ro, todas las GPUs son iguales, el aumento de precio depende de la marca (Asus, Gigabyte, etc.) por su RGB y un mejor sistema de enfriamiento, y a veces por un leve OC; 2do, también el precio original se ve afectado cuando el producto tiene que ser transportado (impuestos) al extranjero ya que el país que rige todo ahora mismo es USA y nadie más. Hay GPUs RTX ‘blower’ que rondan los 650 USD y otras de ‘triplefan’ que cuestan 700 USD —el mismo precio que ahora tiene la RVII de referencia—, todavía queda esperar que ensambladoras lanzarán sus propias versiones de la RVII, pero lo que sí es seguro es que no las venderán más baratas.
      ¿Cuál GPU de AMD vence a la RTX 2080 Ti en Battlefield V? Si la Radeon VII vence por 1 fps a la RTX 2080, hasta AMD mostró eso en su ‘keynote’. Hoy en día no hay GPU que venza a la RTX 2080 Ti en videojuegos, no dramatices. Y claro que AMD tiene que demostrar algo, tanto satisfacer a los fans como el vencer a Nvidia, de lo contrario no tiene sentido que siga en el mercado.

      • Nacho

        https://uploads.disquscdn.com/images/a408c94480c9b271d37726ead00b8428d5cf3f3a4f4e282d617fc77079a2c0a9.jpg

        Tomta, tu DLSS, imágenes borrósas, para eso pagas 800 a 1400 euros? ahora quien es la falacia? , y ya sale por ahí que hay varios juegos donde las 8 gigas de la 2080 hace cuello botella en 4K Ultra, falacia la de Nvidia, producto caro y malo, al menos Radeon te da 16 gigas y mejor tecnología ,es decir,no dibuja imágenes borrosas, ………

        Creo que hasta ese efecto de las consolas en 4K de no rellenar tanto la media y larga distancia termina funcionando mejor que este DLSS…… no hace falta que te molestes, en los portales de reviews ya han dicho que esto no era lo que Nvidia habia prometido, nunca dijo ganareís fps a cambio de imágenes borrosas….

        Donde está tu tecnología DLSS y RTX ahora? que para moverlo bien debes tener rtx sobre imágenes y fondos borrosos?

        Sin comentarios, a eso sabes como se le llama, basura.

        • Goca

          No necesitas pagar 800 USD o más para probar el DLSS o el RT de Nvidia, ya que las tarjetas de 400 USD soportan ambas tecnologías, el que valga la pena o no es decisión de cada persona. Así como el HairsWorks de Nvidia fracaso tambien lo hizó la tecnología con función homónima por parte de AMD (no recuerdo su nombre) la cual implementaron en ‘Rise of the Tomb Raider’ y que al igual que HairsWorks esta daba un rendimiento mediocre. Son muy pocos los juegos que necesitan más de 8 GB de VRAM para jugarse en 4K. Para jugar Far Cry 5 en 1920x1080p necesita 5GB VRAM; Forza 4 y AC Oddesey necesitan 4GB VRAM; y estos juegos en 2560x1440p necesitan casi lo mismo, mientras que The Witcher 3 solo necesita 3.5GB VRAM en ambas resoluciones. No estoy seguro cuanto necesitan para 4K pero obvio es menos de 8 GB. Como dije antes: todo depende del juego y lo optimizado que este el mismo. Yo he visto que la RTX 2080 Ti haga cuello de botella pero no por culpa de esta, sino por el procesador, es por ello que siempre usan los mejores procesadores de Intel para tener el mejor resultado posible. HBM2 y litografía en 7nm, esas son las tecnologías de AMD, solo eso porque su arquitectura es del 2011, la cual es obsoleta y se puede apreciar viendo la comparación entre GTX 1660 Ti o la RTX 2060, (que para mi, solo esas dos son buenas opciones). HBM2 es mejor que la GDDR6, pero también es mucho más cara, por lo tanto basándonos en la relación precio-rendimiento la VRAM que implementa Nvidia es mejor.
          Algunas de las especificaciones de la RVII duplican su valor a comparación de la RTX 2080, además de que su litografía es mejor; con todo esto podrías pensar que entonces la GPU de AMD es mejor que su rival de Nvidia, pero no es así, y es allí donde entra el factor de optimización, siendo Nvidia la mejor en esto. Los videojuegos están mejores optimizados para consola, por eso la PS4 Pro y XONE X pueden correr algunos juegos AAA en 4K nativos; por lo tanto jamás podrías igual el rendimiento de una consola en PC con solo 500 USD, ya que son estas las que tienen la ventaja por ser la primera opción mientras se desarrolla un videojuego, y debido a esto nosotros obtenemos malos ‘ports’ a PC que ni con la mejor GPU del momento sería suficiente para jugar dicho título (por ejemplo: Batman Arkham Knight). No me molesto, es solo que eres más crítico con Nvidia que con AMD. El RT y DLSS son buenas tecnologías pero que estan en fase beta aún, pero ambas son muy importantes es por ello que AMD habla mucho últimamente sobre las mimas. Y según dijo Lisa Su este mismo año tendremos las Navi con RT y su propio ‘anti-aliasing) basándose en la API D12; hasta entonces Nvidia tendra realmente competencia y los precios bajarán, así como bajo el precio (aunque solo temporalmente) de la RX Vega 56 cuando salieron los benchmarks de la GTX 1660 Ti. Que según fue decisión de los accionistas o algo así, mentiras. Debes ser igual de crítico con ambas empresas y entonces elegir la GPU que más se acomode a tus gustos y necesidades, y del mismo modo evaluar cual procesador te conviene más si Intel o Ryzen.

  • Digo que con uv/oc y en unos meses con drivers nuevos ya estara por encima de la 2080

    • Goca

      ¿Meses? No se trata de esperar sino de comprar ‘Day One’ cuando confías en un producto. En este mismo año AMD lanzará sus nuevas GPUs con Ray-Tracing. Para cuando la Radeon VII iguale el rendimiento que ahora da la RTX 2080, está también habrá mejorado, además de tener la posibilidad de activar el DSSL, el cual todo desarrollador puede utilizar en su juego de manera gratuita. No es por ser fanboy, solo es cuestión de ser objetivo y hacer uso del sentido común. La RVII solo vale la pena para el sector profesional, ya que en el ámbito gamer no es viable.

    • Master Godot

      mmm si nvidia hace lo mismo ¿que dirias?

  • Malcolm Albion Reynolds

    Se nota demasiado que esto es un benchmark patrocinado por Nvidia .

    • Goca

      Hay muchos sitios web donde hicieron los benchmarks y en la mayoría estos favorecen a Nvidia, pero no porque este los patrocine; ahora mismo esta es la realidad: la RTX 2080 es mejor que la Radeon VII. RVII mejorará en los próximos meses pero para entonces ya tendremos otras opciones, y una de ellas es la misma AMD con sus GPUs ‘Navi’ y no olvides a Intel con sus ArticSound. AMD no cometerá el error que Intel cometió con sus procesadores.

  • Nacho

    Ese Bench no tiene todo en ultra y activado,no tiene nada que ver con el bench de arriva indicado que es con todo al máximo y extras activados.

  • UnUmpalumpa

    Un artículo que peca de sentimentalista; AMD no ha podido bajar el precio de la gráfica puesto que en las Vega 56 y 64 se veía un aumento significativo en rendimiento al overclockear las memorias, claro indicio de un cuello de botella en el ancho de banda, problema que han atacado insertando más stacks de memorias brindándola así de más ancho de banda, el problema es que hoy en día las memorias HBM2 se fabrican en chips de 4gb, es por ello que la gráfica cuenta con 16 GB de VRAM (4×4) y por eso sale tan caro este componente.

    Además el proceso de fabricación a 7nm es muy costoso en comparación con los 10 de NVIDIA, AMD ha tenido que invertir en I+D desde una posición con muchos menos recursos.

    Aún así no han hecho un buen trabajo y después de todo el hype todos nos esperábamos un regreso que llevamos esperando demasiados años.