Android

▷ Amd vega

Taula de continguts:

Anonim

AMD Vega és el nom de l'arquitectura gràfica més avançada d'AMD, es tracta de l'última evolució de GCN, la seva arquitectura de GPU que ens ha acompanyat des de l'any 2011. Aquesta evolució de GCN és la més ambiciosa d'AMD fins a li data.

Vols saber més sobre les targetes gràfiques AMD VEGA i totes les seves característiques? En aquest post repassem totes les claus de l'arquitectura GCN i tots els secrets que amaga Vega.

Índex de continguts

El naixement de l'arquitectura GCN i la seva evolució fins a arribar a Vega

Per comprendre la història d'AMD en el mercat de les targetes gràfiques, hem de remuntar-nos a l'any 2006, moment en el qual la companyia de Sunnyvale es fa amb ATI, el segon major fabricant de targetes gràfiques a nivell mundial, i que portava anys de lluita amb Nvidia, líder d'al sector. AMD va comprar tota la tecnologia i la propietat intel·lectual d'ATI en una operació per un valor de 4, 3 milions de dòlars en efectiu i 58 milions en accions per un total de 5, 4 mil milions, completant l'acció el 25 d'octubre de 2006.

En aquest moment ATI estava desenvolupant la qual seria la seva primera arquitectura de GPU basada en l'ús dels shaders unificats. Fins a aquest moment, totes les targetes gràfiques contenien al seu interior shaders diferenciats per al processament dels vèrtexs i de l'ombrejat. Amb l'arribada de DirectX 10, es donava suport als shaders unificats, el que significa que tots els shaders d'una GPU poden treballar amb vèrtexs i ombrejats de forma indiferent.

Terascale era l'arquitectura que ATI estava dissenyant amb suport per als shaders unificats. El primer producte comercial a fer ús d'aquesta arquitectura va ser la videoconsola Xbox 360, la GPU, anomenada Xenos, havia estat desenvolupada per AMD i era molt més avançada que el que es podia muntar en els PC de l'època. En el món de l'ordinador, TereaScale va donar vida a les targetes gràfiques de les sèries Radeon HD 2000, 3000, 4000, 5000 i 6000. Totes elles van anar introduint petites millores de forma contínua per millorar les seves capacitats a mesura que s'avançava en els processos de fabricació, des dels 90 nm fins als 40 nm.

Els anys van anar passant i l'arquitectura Terascale s'anava quedant desfasada davant Nvidia. El rendiment de Terascale en els videojocs seguia sent molt bo, però tenia un gran punt feble en comparació amb Nvidia, aquest era una baixa capacitat per còmput mitjançant GPGPU. AMD va comprendre que necessitava dissenyar una nova arquitectura gràfica, capaç de lluitar amb Nvidia tant en els jocs com en el còmput, un apartat que cada vegada tenia més importància.

Et recomanem la lectura de les nostres millors guies de maquinari i components per a PC:

  • AMD història, processadors i targetes gràfiques de l'gegant verd

GCN és l'arquitectura gràfica dissenyada per AMD des dels seus fonaments per succeir a Terascale d'ATI

Graphics Core Next és el nom que rep la primera arquitectura gràfica dissenyada a el 100% per AMD, encara que lògicament tot el heretat de l'ATI ha estat clau per fer possible el seu desenvolupament. Graphics Core Next és molt més que una arquitectura, aquest concepte representa el nom en clau per a una sèrie de microarquitectures gràfiques i un conjunt d'instruccions. El primer producte basat en GCN va arribar a la fi de l'any 2011, la Radeon HD 7970 que tan bons resultats ha donat a tots els seus usuaris.

GCN és una microarquitectura RISC SIMD que contrasta amb l'arquitectura VLIW SIMD Terascale. GCN té l'inconvenient que requereix molts més transistors que Terascale, però a canvi ofereix capacitats molt més grans per al càlcul de GPGPU, fa el compilador més simple i permet fer una millor utilització dels recursos. Tot això fa que GCN sigui una arquitectura clarament superior a Terascale, i molt millor preparada per adaptar-se a les noves exigències de mercat. El primer nucli gràfic basat en GCN va ser Tahiti, el qual va donar vida a la Radeon HD 7970. Tahiti es fabricava amb un procés a 28 nm, el que representava un gran salt en eficiència energètica enfront dels 40 nm de l'últim nucli gràfic basat en Terascale, la GPU Caiman de la Radeon HD 6970.

A partir d'aquí, l'arquitectura GCN ha anat evolucionant lleugerament al llarg de diverses generacions de targetes gràfiques de les sèries Radeon HD 7000, HD 8000, R 200, R 300, RX 400, RX 500 i RX Vega. Les Radeon RX 400 van marcar el pas a un procés de fabricació a 14 nm, el que ha permès a GCN donar un nou salt en eficiència energètica. L'arquitectura GCN també s'utilitza en el nucli gràfic d'APU de PlayStation 4 i Xbox One, les actuals videoconsoles de Sony i Microsoft que ofereixen un rendiment excepcional per la seva preu.

L'arquitectura GCN s'organitza internament en el que anomenem unitats de còmput (CU), les quals són les unitats funcionals bàsiques d'aquesta arquitectura. AMD dissenya GPUs amb un nombre més o menys d'unitats de còmput per crear les seves diferents gammes de targetes gràfiques. Al seu torn, és possible desactivar unitats de còmput en cadascuna d'aquestes GPUs per crear diverses gammes de targetes gràfiques basades en un mateix xip. Això permet aprofitar els silicis que han sortit de l'procés de fabricació amb problemes en alguna de les unitats de còmput, és una cosa que es porta fent en la indústria des de fa molts anys. La GPU Vega 64 disposa al seu interior d'64 unitats de còmput i és la GPU més potent fabricada per AMD fins a la data.

Cada unitat de còmput combina en el seu interior 64 processadors d'ombrejat o shaders amb 4 TMU s. La unitat de còmput està separada de les unitats de sortida de processament (ROP), però s'alimenta d'elles. Cada Compute Unit consta d'un Scheduler CU, un Branch & Message Unit, 4 SIMD Vector Units, 4 64KiB VGPR files, 1 unitat escalar, un arxiu 4 KiB GPR, una quota de dades local de 64 KiB, 4 unitats de filtre de textura, 16 unitats de càrrega / emmagatzematge de recuperació de textura i un cau L1 de 16 kB.

AMD Vega és l'evolució més ambiciosa de GCN

Les diferències entre les diferents generacions de l'arquitectura GCN són bastant mínimes i no es diferencien gaire entre si. Una excepció és l'arquitectura de GCN de cinquena generació, anomenada Vega, que ha modificat en gran mesura els shaders per millorar el rendiment per cicle de rellotge. AMD va començar a publicar detalls d'AMD Vega al gener de 2017, causant moltes expectatives des dels primers instants. AMD Vega augmenta les instruccions per rellotge, aconsegueix majors velocitats de rellotge, ofereix suport per a memòria HBM2 i un espai d'adreces de memòria més gran. Totes aquestes característiques li permeten millorar el rendiment de forma significativa enfront de les anteriors generacions, al menys sobre el paper.

Les millores arquitectòniques també inclouen nous programadors de maquinari, un nou accelerador de descarti primitiu, un nou controlador de pantalla i un UVD actualitzat que pot descodificar HEVC a resolucions de 4K a 60 i mágenes per segon amb una qualitat de 10 bits per canal de color.

Les unitats de còmput es veuen fortament modificades

L'equip de desenvolupament d'AMD Vega, liderat per Raja Koduri va modificar el pla fonamental de la unitat de càlcul per aconseguir objectius de freqüència molt més agressius. En les arquitectures anteriors de GCN, la presència de connexions de certa longitud era acceptable perquè els senyals podien recórrer la distància total en un sol cicle de rellotge. Algunes d'aquestes longituds d'pipeline van haver de reduir-se amb Vega perquè els senyals poguessin travessar-en el lapse dels cicles de rellotge, els quals són molt més curts a Vega. Les unitats de còmput d'AMD Vega van passar a conèixer-se com NCU, el que es pot traduir com a unitat de còmput de nova generació. A la reducció de les longituds d'pipeline d'AMD Vega es van unir modificacions en la lògica de recerca i descodificació d'instruccions, les quals van ser reconstruïdes amb l'objectiu de complir els objectius de temps d'execució més curts en aquesta generació de targetes gràfiques.

A la ruta de dades de descompressió de textura de la memòria cau L1, l'equip de desenvolupament ha afegit més etapes a l'pipeline per reduir la quantitat de treball realitzat en cada cicle de rellotge per complir amb els objectius d'augmentar la freqüència de funcionament. L'addició d'etapes és un mitjà comú de millorar la tolerància de freqüència d'un disseny.

Rapid Packet Math

Una altra important novetat d'AMD Vega, és que admet el processament simultani de dues operacions de menor precisió (FP16) en lloc d'una sola de major precisió (FP32). Això és la tecnologia anomenada Rapid Packet Math. Rapid Packet Math és una de les característiques més avançades d'AMD Vega i no està present en les versions anteriors de GCN. Aquesta tecnologia permet fer un aprofitament més eficient de la potència de processament de la GPU, el que permet millorar el rendiment. La PlayStation 4 Pro és el dispositiu que millor profit ha tret de Rapid Packet Math i ho ha fet amb un dels seus jocs estrella, Horizon Zero Dawn.

Horizon Zero Dawn és una gran mostra del que Rapid Packet Math pot aportar. Aquest joc utilitza aquesta avançada tecnologia per processar tot el relacionat amb l'herba, estalviant així recursos que poden ser usats pels desenvolupadors per millorar la qualitat gràfica d'altres elements de el joc. Horizon Zero Dawn va impactar des del primer instant per la seva aclaparadora qualitat gràfica, fins al punt que resulta impressionant que una consola de només 400 euros pugui oferir tal apartat artístic. Malauradament, el Rapid Packet Math encara no ha estat usat en els jocs de PC, gran part de la culpa d'això a l'té el que sigui una característica exclusiva de Vega, ja que els desenvolupadors no volen invertir recursos en alguna cosa que molt pocs usuaris podran aprofitar.

primitive Shaders

AMD Vega també afegeix suport per a la nova tecnologia Primitive Shaders que proporcionen un processament de geometria més flexible i reemplacen els ombrejadors de vèrtexs i geometria en una canonada de renderitzat. La idea d'aquesta tecnologia és eliminar els vertexs no visibles de l'escena perquè la GPU no els hagin de calcular, amb això es redueix el nivell de càrrega sobre la targeta gràfica i es millora el rendiment de l'videojoc. Malauradament, aquesta és una tecnologia que requereix de molta feina per part dels desenvolupadors per poder ser aprofitada i es troba amb una situació molt similar a la de Rapid Packet Math.

AMD tenia la intenció d'implementar els Primitive Shaders a nivell de drivers, el que permetria que aquesta tecnologia funcioni de forma màgica i sense que els desenvolupadors hagin de fer res. Això és una cosa que sonava molt bonic, però finalment no ha estat possible per la impossibilitat d'implementar-ho en DirectX 12 i la resta de les APIs actuals. Els Primitive Shaders segueixen disponibles, però han de ser els desenvolupadors els que inverteixin recursos per a la seva implementació.

ACE i els Shaders Asíncrons

Si parlem d'AMD i la seva arquitectura GCN hem de parlar dels Shaders Asíncrons, un terme que es parlava molt de fa temps, però de què ja no es diu gairebé res. Els Shaders Asíncrons fan referència a la computació asíncrona, es tracta d'una tecnologia que va idear AMD per reduir la deficiència que pateixen les seves targetes gràfiques amb la geometria.

Les targetes gràfiques d'AMD basades en l'arquitectura GCN inclouen els ACE (Asynchronous Compute Engine), aquestes unitats consisteixen en un motor de maquinari dedicat a l'còmput asíncron, es tracta d'un maquinari que ocupa espai en el xip i consumeix energia pel que la seva implementació no és cap caprici sinó una necessitat. La raó de l'existència dels ACE és la poca eficiència de GCN a l'hora de repartir la càrrega de treball entre els diferents Compute Units i els nuclis que els formen, la qual cosa fa que quedin molts nuclis sense feina i per tant desaprofitats, encara que segueixen consumint energia. Els ACE s'encarreguen de donar feina a aquests nuclis que s'han quedat aturats perquè puguin ser aprofitats.

La geometria s'ha vist millorada en l'arquitectura AMD Vega, encara que segueix estant molt per darrere de l'arquitectura Pascal de Nvidia en aquest aspecte. La poca eficiència de GCN amb la geometria és una de les raons que els xips més grans d'AMD no donin el resultat esperat d'ells, ja que l'arquitectura GCN es torna més ineficient amb la geometria a mesura que el xip es va fent més gran i inclogui major quantitat d'unitats de còmput. Millorar la geometria és una de les tasques clau d'AMD amb les seves noves arquitectures gràfiques.

HBCC i memòria HBM2

L'arquitectura AMD Vega també inclouen un controlador de memòria cau d'ample de banda alt (HBCC), el qual no està present en els nuclis gràfics de les APU Raven Ridge. Aquest controlador HBCC permet fer un ús més eficient de la memòria HBM2 d'as targetes gràfiques basades en Vega. A més, permet a la GPU accedir a la memòria RAM DDR4 de sistema si la memòria HBM2 es queda escassa. HBCC permet que aquest accés es faci d'una forma molt més ràpida i eficient, el que resulta en una menor pèrdua de rendiment enfront de les generacions anteriors.

HBM2 és la més avançada tecnologia de memòria per a targetes gràfiques, es tracta de la memòria apilades d'alt ample de banda de segona generació. La tecnologia HBM2 apila diferents xips de memòria uns sobre els altres per crear un paquet amb una densitat extremadament alta. Aquests xips apilats es comuniquen entre si mitjançant un bus d'interconnexió, la interfície pot arribar als 4.096 bits.

Aquestes característiques fan que la memòria HBM2 ofereixi un ample de banda molt superior a què és possible arribar amb les memòries GDDR, a més de fer-ho amb un voltatge i un consum d'energia molt inferior. Un altre avantatge de les memòries HBM2 és que es col·loquen molt pròximes a la GPU, el que permet estalviar espai al PCB de la targeta gràfica i simplificar el seu disseny.

La part dolenta de les memòries HBM2 és que són molt més cares que les GDDR i molt més difícils d'utilitzar. Aquestes memòries es comuniquen amb la GPU a través d'un interposer, un element que és força car de fabricar, i que encareix el preu final de la targeta gràfica. Com a conseqüència d'això, les targetes gràfiques basades en memòria HBM2 són molt més cares de fabricar que les basades en memòria GDDR.

Aquest elevat preu de les memòries HBM2 i la seva implementació, així com un rendiment inferior a l'esperat, han estat les principals causes de l'fracàs d'AMD Vega al mercat gaming. AMD Vega no ha pogut superar la GeForce GTX 1080 Tu, una targeta basada en una arquitectura Pascal gairebé dos anys més antiga.

Targetes gràfiques actuals basades en AMD Vega

Les targetes gràfiques actuals d'AMD sota l'arquitectura Vega són la Radeon RX Vega 56 i la Radeon RX Vega 64. La següent taula recull totes les característiques més importants d'aquestes noves targetes gràfiques.

Targetes gràfiques AMD Vega actuals
Targeta gràfica Compute Units / Shaders Freqüència de rellotge base / turbo Quantitat de memòria Interfície de memòria Tipus de memòria Ample de banda de memòria TDP
AMD Radeon RX Vega 56 56 / 3.584 1156/1471 MHz 8 GB 2.048 bits HBM2 410 GB / s 210W
AMD Radeon RX Vega 64 64 / 4.096 1247/1546 MHz 8 GB 2.048 bits HBM2 483, 8 GB / s 295W

La AMD Radeon RX Vega 64 és a targeta gràfica més potent d'AMD en l'actualitat per al mercat gaming. Aquesta targeta es basa en el silici Vega 10, format per 64 Compute Units que es tradueixen en 4 096 shaders, 256 TMUs i 64 ROPs. Estigui nucli gràfic és capaç de treballar a una freqüència de rellotge de fins a 1546 MHz amb un TDP de 295W.

El nucli gràfic s'acompanya de dos stacks de memòria HBM2, els quals sumen un total de 8 GB amb una interfície de 4.096 bits i un ample de banda de 483, 8 GB / s. Es tracta d'una targeta gràfica amb un nucli molt gran, el més gran mai fabricat per AMD, però que no és capaç de rendir a el nivell de l'nucli Pascal GP102 de la GeForce GTX 1080 Tu, a més que consumeix més quantitat d'energia i produeix molta més calor. Aquesta incapacitat d'AMD per lluitar amb Nvidia sembla deixar clar que l'arquitectura GCN necessita una evolució molt més gran per estar a l'altura de les targetes gràfiques de Nvidia.

El futur d'AMD Vega passa pels 7 nm

AMD va donar una nova vida a la seva arquitectura AMD Vega amb el pas a un procés de fabricació a 7 nm, el que hauria de suposar una important millora en eficiència energètica enfront dels dissenys actuals a 14 nm. Per ara AMD Vega a 7 nm no arribarà a el mercat gaming, sinó que s'enfocarà a el sector de la intel·ligència artificial, el qual mou grans quantitats de diners. Encara no es coneixen detalls concrets sobre AMD Vega a 7 nm, la millora en l'eficiència energètica es pot fer servir per mantenir les prestacions de les targetes actuals però amb un consum d'energia molt més baix, o per fer noves targetes molt més potents amb el mateix consum que les actuals.

Les primeres targetes en fer ús d'AMD Vega a 7 nm seran les Radeon Instinct. Vega 20 és la primera GPU d'AMD fabricada a 7 nm, es tracta d'un nucli gràfic que ofereix el doble de densitat de transistors que fa a l'actual silici Vega 10. La mida de l'xip Vega 20 és de 360mm2 aproximadament, el que suposa una reducció de superfície d'un 70% en comparació amb Vega 10, que té una mida de 510mm2. Aquest gran avenç permet a AMD oferir un nou nucli gràfic amb una velocitat de rellotge un 20% més elevada i una millora en l'eficiència energètica d'un 40% aproximadament. Vega 20 té una potència de 20.9 TFLOPS, el que el converteix en el nucli gràfic més potent anunciat fins al dia d'avui, fins i tot més que el nucli Volta V100 de Nvidia que ofereix 15, 7 TFlops, encara que aquest està fabricat a 12 nm, el que posa a AMD en un clar avantatge en aquest sentit.

Amb això finalitza el nostre post sobre AMD Vega. Recorda que pots compartir aquest post amb els teus amics a les xarxes socials, d'aquesta manera ens ajudes a difondre-ho perquè pugui ajudar a més usuaris que ho necessitin. També pots fer un comentari si tens alguna cosa més que afegir o deixar-nos un missatge al nostre fòrum de maquinari.

Android

Selecció de l'editor

Back to top button