Android

Nvidia 【tota la informació】

Taula de continguts:

Anonim

Nvidia Corporation, més comunament coneguda com Nvidia, és una companyia de tecnologia nord-americana constituïda a Delaware i amb seu a Santa Clara, Califòrnia. Nvidia dissenya unitats de processament de gràfics per als mercats de videojocs i professionals, així com a sistema en unitats de xip (SoC) per al mercat de computació mòbil i automotriu. La seva línia principal de productes, GeForce, està en competència directa amb els productes Radeon d'AMD.

Et recomanem la lectura de les nostres millors guies de maquinari i components per a PC:

A més de la fabricació de GPUs, Nvidia proporciona a tot el món capacitats de processament en paral·lel a investigadors i científics, que els permeten executar de manera eficient aplicacions d'alt rendiment. Més recentment, s'ha traslladat a el mercat de la informàtica mòbil, on produeix processadors mòbils Tegra per a consoles de videojocs, tablets i sistemes de navegació autònoma i entreteniment per a vehicles. Això ha portat al fet que des de 2014, Nvidia s'ha transformat en una companyia enfocada en quatre mercats: jocs, visualització professional, centres de dades i intel·ligència artificial i automòbils.

Índex de continguts

Història de Nvidia

Nvidia va ser fundada el 1993 per Jen-Hsun Huang, Chris Malachowsky, i Curtis Priem. Els tres cofundadors de la companyia van plantejar la hipòtesi que la direcció correcta per a la informàtica passaria pel processament accelerat per gràfics, ja que creien que aquest model de computació podria resoldre problemes que la informàtica de propòsit general no podia resoldre. També van observar que els videojocs són alguns dels problemes més desafiadors des del punt de vista computacional, i que tenen un volum de vendes increïblement alt.

D'una petita empresa dedicada als videojocs a un gegant de la intel·ligència artificial

La companyia va néixer amb un capital inicial de 40, 000 dòlars, inicialment no tenia nom i els cofundadors van nomenar tots els seus arxius NV, com en "pròxima versió". La necessitat d'incorporar a la companyia va fer que els cofundadors revisessin totes les paraules amb aquestes dues lletres, el que les va portar a "invidia", la paraula llatina que significa "enveja".

El llançament d'RIVA TNT el 1998 va consolidar la reputació de Nvidia per desenvolupar adaptadors de gràfics. A finals de 1999, Nvidia va llançar la GeForce 256 (NV10), que més notablement introduir la transformació i il·luminació (T & L) a nivell de consumidor en maquinari 3D. Funcionant a 120 MHz i presentant quatre línies de píxels, va implementar acceleració avançada de vídeo, compensació de moviment i fusió de sub-imatge de maquinari. GeForce va superar als productes existents per un ampli marge.

A causa de l'èxit dels seus productes, Nvidia va guanyar el contracte per desenvolupar el maquinari de gràfics per a la consola de jocs Xbox de Microsoft, el que li va valer a Nvidia un avanç de $ 200 milions. No obstant això, el projecte es va dur a molts dels seus millors enginyers d'altres projectes. A curt termini, això no va importar, i el GeForce2 GTS es va enviar a l'estiu de 2000. Al desembre de 2000, Nvidia va arribar a un acord per adquirir els actius intel·lectuals del seu únic rival 3dfx, un pioner en tecnologia gràfica 3D per al consumidor que liderava el camp des de mitjans de la dècada de 1990 fins a 2000. el procés d'adquisició va finalitzar a l'abril de 2002.

Al juliol de 2002, Nvidia va adquirir Exluna per una quantitat de diners no revelada. Exluna era responsable de la creació de diverses eines de representació de programari. Més tard, a l'agost de 2003, Nvidia va adquirir MediaQ per aproximadament 70 milions de dòlars. I també va adquirir iReady, un proveïdor de solucions de descàrrega TCP / IP i iSCSI d'alt rendiment el 22 d'abril del 2004.

Tan gran era l'èxit de Nvidia al mercat dels videojocs, que al desembre de 2004 es va anunciar que ajudaria a Sony amb el disseny de l'processador de gràfics RSX de la PlayStation 3, la consola de videojocs de nova generació de la signatura japonesa que tenia la difícil tasca de repetir l'èxit de la seva predecessora, la més venuda de la història.

Al desembre de 2006, Nvidia va rebre citacions de el Departament de Justícia d'EE. UU pel que fa a possibles violacions antimonopoli en la indústria de les targetes gràfiques. En aquell moment AMD s'havia convertit en el seu gran rival, després de la compra d'ATI per part d'aquesta última. Des de llavors AMD i Nvidia han estat els únics fabricants de targetes gràfiques per a videojocs, sense oblidar els xips integrats d'Intel.

Forbes va nomenar a Nvidia com la millor companyia de l'any 2007 citant els èxits que va obtenir durant els cinc anys anteriors. El 5 de gener de 2007, Nvidia va anunciar que havia completat l'adquisició de PortalPlayer, Inc, i al febrer de 2008 Nvidia va adquirir Ageia, desenvolupador de l'motor de física PhysX i la unitat de processament de física que executava aquest motor. Nvidia va anunciar que planejava integrar la tecnologia PhysX en els seus futurs productes de GPU GeForce.

Nvidia es va enfrontar a una gran dificultat al juliol de 2008, quan va rebre una reducció en els seus ingressos d'aproximadament 200 milions després d'informar-se que certs conjunts de xips i GPU mòbils produïts per la companyia tenien taxes de fallades anormals a causa de defectes de fabricació. Al setembre de 2008 Nvidia va esdevenir el subjecte d'una demanda col·lectiva pels afectats, al·legant que les GPU defectuoses s'havien incorporat a certs models de portàtils fabricats per Apple, Dell i HP. El serial va finalitzar al setembre de 2010, quan Nvidia va arribar a un acord pel qual es reemborsaria als propietaris dels portàtils afectats l'import de les reparacions o, en alguns casos, la substitució de l'producte.

Al novembre de 2011, Nvidia va llançar el seu sistema de xip ARG Tegra 3 per a dispositius mòbils després de presentar-lo inicialment al Mobile World Congress. Nvidia va afirmar que el xip presentava la primera CPU mòbil de quatre nuclis. Al gener de 2013, Nvidia va presentar el Tegra 4, així com la Nvidia Shield, una consola de jocs portàtil basada en Android que funciona amb el nou processador.

El 6 de maig de 2016 Nvidia va presentar les targetes gràfiques GeForce GTX 1080 i 1070, les primeres basades en la nova microarquitectura Pascal. Nvidia va afirmar que tots dos models van superar al seu model Titan X basat en Maxwell. Aquestes targetes incorporen memòria GDDR5X i GDDR5 respectivament, i usen un procés de fabricació de 16 nm. L'arquitectura Pascal també admet una nova característica de maquinari coneguda com a projecció múltiple simultània (SMP), que està dissenyada per millorar la qualitat de l'renderitzat de múltiples monitors i realitat virtual. Pascal ha permès fabricar ordinadors portàtils que compleixen amb l'estàndard de disseny Max-Q de Nvidia.

I n maig de 2017 Nvidia va anunciar una societat amb Toyota Motor Corp per la qual aquesta última farà servir la plataforma d'intel·ligència artificial Drive sèrie X de Nvidia per als seus vehicles autònoms. Al juliol de 2017 Nvidia i el gegant de cerca xinès Baidu, Inc. van anunciar una associació de gran abast d'intel·ligència artificial que inclou computació en el núvol, conducció autònoma, dispositius de consum i el framework d'intel·ligència artificial de Baidu, PaddlePaddle.

Nvidia GeForce i Nvidia Pascal, dominant el gaming

GeForce és la denominació comercial de les targetes gràfiques basades en les unitats de processament gràfic (GPU) creades per Nvidia a partir de l'any 1999. Fins a l'actualitat, la sèrie GeForce ha conegut setze generacions des de la seva creació. Les versions enfocades a usuaris professionals d'aquestes targetes vénen sota la denominació Quadro, i inclouen algunes característiques diferenciadores a nivell de controladors. La competència directa de GeForce és AMD amb les seves targetes Radeon.

Pascal és el nom en clau de l'última microarquitectura de GPU desenvolupada per Nvidia que ha arribat a el mercat dels videojocs, com a successora de l'anterior arquitectura Maxwell. L'arquitectura Pascal s i presentar per primera vegada a l'abril de 2016 amb el llançament de la Tesla P100 per a servidors el 5 d'abril de 2016. En l'actualitat, Pascal s'usa principalment en la sèrie GeForce 10, sent les GeForce GTX 1080 i GTX 1070 les primeres targetes per a videojocs van ser llançats amb aquesta arquitectura, el 17 de maig de 2016 i el 10 de juny de 2016 respectivament. Pascal es fabrica utilitzant el procés FinFET de 16nm de TSMC, el que li permet oferir una eficiència energètica i un rendiment molt superiors en comparació a Maxwell, que es fabricava a 28 nm FinFET.

L'arquitectura Pascal s i organitza de forma interna en el que es coneix com streaming multiprocessor (SM), unes unitats funcionals que estan formades per 64 CUDA Cores, els quals al seu veus es divideixen en dos blocs de processament de 32 CUDA Cores cadascun d'ells i acompanyats d'un memòria intermèdia d'instruccions, un planificador de warp, 2 unitats de mapatge de textures i 2 unitats de despatx. Aquestes unitats SM són les equivalents als CU d'AMD.

L'arquitectura Pascal de Nvidia ha estat dissenyada per ser la més eficient i avançada de l'món gaming. L'equip d'enginyers de Nvidia ha tingut molta cura en crear una arquitectura de GPU que sigui capaç d'assolir unes velocitats de rellotge molt elevades, alhora que es manté un consum d'energia ajustat. Per aconseguir-ho, s'ha optat per un disseny molt cuidat i optimitzat en tots els seus circuits, donant com a resultat que Pascal és capaç d'aconseguir una freqüència un 40% més elevada que Maxwell, una xifra molt superior al que hauria permès el procés a 16 nm sense totes les optimitzacions a nivell de disseny.

La memòria és un element clau en el rendiment d'una targeta gràfica, la tecnologia GDDR5 va ser anunciada en l'any 2009, per la qual cosa ja s'ha quedat obsoleta per a les targetes gràfiques més potents de l'actualitat. Per això Pascal dóna suport a les memòries GDDR5X, el qual era l'estàndard d'interfície de memòria més ràpid i avançat de la història en el moment de l'llançament d'aquestes targetes gràfiques, aconseguint velocitats de transferència de fins a 10 Gbps o gairebé 100 picosegons entre bits de dades. La memòria GDDR5X també permet que la targeta gràfica consumeixi menys energia en comparació de la GDDR5, ja que el voltatge de funcionament és de 1, 35V, en comparació amb els 1, 5 V o fins i tot més que necessiten els xips GDDR5 més ràpids. Aquesta reducció de voltatge es tradueix en una freqüència de funcionament un 43% superior amb i mateix consum d'energia.

Una altra important innovació de Pascal ve de la mà de les tècniques de compressió de memòria sense pèrdua de rendiment, el que permet reduir la demanda d'ample de banda per part de la GPU. Pascal inclou la quarta generació de la tecnologia de compressió de color delta. Amb la compressió de color delta, la GPU analitza les escenes per calcular els píxels la informació pot ser comprimida sense sacrificar la qualitat de l'escena. Mentre que l'arquitectura Maxwell no era capaç de comprimir dades relacionades amb alguns elements, com la vegetació i parts de l'cotxe en el joc Project Cars, Pascal és capes de comprimir la major part de la informació d'aquests elements, sent així molt més eficient que Maxwell. Com a conseqüència d'això, Pascal és capaç de reduir significativament el nombre de bytes que han de ser extrets de la memòria. Aquesta reducció en bytes es tradueix en un 20% addicional d'ample de banda efectiu, fent que es lliuri un augment de 1.7 vegades l'ample de banda amb l'ús de memòries GDDR5X respecte a les GDDR5 i l'arquitectura Maxwell.

Pascal també ofereix importants millores en relació amb el Còmput asincrònic, una cosa molt important ja que actualment les càrregues de treball són molt complexes. Gràcies a aquestes millores l'arquitectura Pascal és més eficient a l'hora de repartir la càrrega entre totes les seves diferents unitats SM, el que fa que amb prou feines quedin nuclis CUDA sense utilitzar. Això permet que l'optimització de la GPU sigui molt més gran, fent que s'aprofitin millor tots els recursos que té.

La següent taula resumeix les característiques més importants de totes les targetes GeForce basades en Pascal.

TARGETES GRÀFIQUES NVIDIA GEFORCE PASCAL

CUDA Cores Freqüències (MHz) memòria Interfície de la memòria Ample de banda de la memòria (GB / s) TDP (W)
NVIDIA GeForce GT1030 384 1468 2 GB GDDR5 64 bit 48 30
NVIDIA GeForce GTX1050 640 1455 2 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1050Ti 768 1392 4 GB GDDR5 128 bit 112 75
NVIDIA GeForce GTX1060 3 GB 1152 1506/1708 3 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1060 6 GB 1280 1506/1708 6 GB GDDR5 192 bit 192 120
NVIDIA GeForce GTX1070 1920 1506/1683 8 GB GDDR5 256 bit 256 150
NVIDIA GeForce GTX1070Ti 2432 1607/1683 8 GB GDDR5 256 bit 256 180
NVIDIA GeForce GTX1080 2560 1607/1733 8 GB GDDR5X 256 bit 320 180
NVIDIA GeForce GTX1080 Tu 3584 1480/1582 11 GB GDDR5X 352 bit 484 250
NVIDIA GeForce GTX Titan XP 3840 1582 12 GB GDDR5X 384 bit 547 250

La intel·ligència artificial i l'arquitectura Volta

Les GPUs de Nvidia són molt utilitzades en els camps relacionats amb l'aprenentatge profund, la intel·ligència artificial i l'anàlisi accelerat de grans quantitats de dades. La companyia va desenvolupar l'aprenentatge profund basat en la tecnologia de GPU, amb la finalitat d'utilitzar la intel·ligència artificial per abordar problemes com la detecció de el càncer, la predicció de el temps i els vehicles que condueixen de manera autònoma, com els famosos Tesla.

L'objectiu de Nvidia és ajudar les xarxes a aprendre a "pensar". Les GPUs de Nvidia funcionen excepcionalment bé per a les tasques d'aprenentatge profund perquè estan dissenyades per a computació paral·lela, i funcionen bé per manejar les operacions vectorials i matricials que prevalen en l'aprenentatge profund. Les GPUs de la companyia són utilitzades per investigadors, laboratoris, companyies tecnològiques i empreses empresarials. L'any 2009, Nvidia va participar en el que es va anomenar el Big Bang de l'aprenentatge profund, ja que les xarxes neuronals d'aprenentatge profund es van combinar amb les unitats de processament de gràfics de la companyia. Aquest mateix any, Google Brain va utilitzar les GPUs de Nvidia per crear xarxes neuronals profundes capaços d'aprenentatge automàtic, on Andrew Ng va determinar que podrien augmentar la velocitat dels sistemes d'aprenentatge profund unes 100 vegades.

A l'abril de 2016, Nvidia va introduir el superordinador DGX-1 basat en un clúster de 8 GPUs per millorar la capacitat dels usuaris d'utilitzar l'aprenentatge profund mitjançant la combinació de GPU amb programari específicament dissenyat. Nvidia també va desenvolupar les màquines virtuals Nvidia Tesla K80 i P100 basades en GPU, disponibles a través de Google Cloud, que Google va instal·lar al novembre de 2016. Microsoft va afegir servidors basats en la tecnologia de GPU de Nvidia en una presentació preliminar de la seva sèrie N, basada en la targeta Tesla K80. Nvidia també es va associar amb IBM per crear un kit de programari que augmenta les capacitats d'IA de les seves GPUs. En 2017, les GPUs de Nvidia també es van posar en línia al Centre RIKEN per al Projecte d'Intel·ligència Avançada per Fujitsu.

Al maig de 2018, els investigadors de l'departament d'intel·ligència artificial de Nvidi a, es van adonar de la possibilitat que un robot pugui aprendre a realitzar un treball, simplement observant la persona que realitza la mateixa feina. Per aconseguir-ho han creat un sistema que, després d'una breu revisió i prova, ja es pot fer servir per controlar els robots universals de la propera generació.

Volta és el nom en clau de la microarquitectura de GPU més avançada que ha desenvolupat Nvidia, és l'arquitectura successora de Pascal i es va anunciar com a part d'una ambició de full de ruta futura al març de 2013. L'arquitectura porta el nom d'Alessandro Volta, el físic, químic i inventor de la bateria elèctrica. L'arquitectura Volta no ha arribat a el sector de l'gaming, encara que si ho ha fet amb la targeta gràfica Nvidia Titan V, enfocada a el sector de consum i que també pot ser usada en equips per jugar.

Aquesta Nvidia Titan V és una targeta gràfica basada en el nucli GV100-tres stacks de memòria HBM2, tot en un mateix paquet. La targeta compta amb un total de 12 GB de memòria HBM2 que funciona a través d'una interfície de memòria de 3072 bits. El seu GPU conté més de 21 milions de transistors, 5120 nuclis CUDA i 640 nuclis Tensor per oferir un rendiment de 110 TeraFLOPS en aprenentatge profund. Els seus freqüències de funcionament són de 1200 MHz de base i 1455 MHz en mode turbo, mentre que la memòria funciona a 850 MHz, oferint un ample de banda de 652.8 GB / s. Recentment s'ha anunciat una versió CEO Edition que augmenta la memòria fins a 32 GB.

La primera targeta gràfica fabricada per Nvidia amb l'arquitectura Volta va ser la Tesla V100, la qual forma part de sistema Nvidia DGX-1. La Tesla V100 fa ús de l'n úcleo GV100 que va ser llançat el 21 de juny de 2017. La GPU Volta GV100 està construïda en un procés de fabricació a 12 nm FinFET, amb 32 GB de memòria HBM2 que són capaços d'oferir fins a 900 GB / s d'ample de banda.

Volta també dóna vida a l'SoC Tegra més recent de Nvidia, anomenat Xavier i que va ser anunciat el 28 de setembre de 2016. Xavier Conté 7000 milions d'transistors i 8 nuclis ARMv8 personalitzats, al costat d'una GPU Volta amb 512 nuclis CUDA i una TPU de codi obert (Unitat de Processament Tensor) anomenada DLA (Deep Learning Accelerator). Xavier pot codificar i descodificar vídeo a resolució 8K Ultra HD (7680 × 4320 píxels) en temps real, tot això amb un TDP de 20-30 watts i una mida de encuny que s'estima en uns 300 mm2 gràcies a el procés de fabricació a 12 nm FinFET.

L'arquitectura Volta es caracteritza per ser la primera a incloure els Tensor Core, uns nuclis especialment dissenyats per oferir un rendiment molt superior en tasques d'aprenentatge profund respecte als nuclis CUDA regulars. Un Tensor Core és una unitat que multiplica dues matrius FP16 4 × 4 i després afegeix una tercera matriu FP16 o FP32 a el resultat, utilitzant operacions fusionades de suma i multiplicació, obtenint un resultat FP32 que podria degradar opcionalment a un resultat FP16. Els nuclis Tensor estan destinats a accelerar l'entrenament de xarxes neuronals.

Volta també destaca per incloure l'avançada interfície propietària NVLink, la qual és un protocol de comunicacions basat en cables per a comunicacions de semiconductors de curt abast desenvolupat per Nvidia, que es pot usar per a transferències de codis de dades i control en sistemes de processadors basats en CPU i GPU i en aquells basats únicament en GPU. NVLink especifica una connexió punt a punt amb velocitats de dades de 20 i 25 Gb / s per carril de dades i per direcció en les seves versions primera i segona. Les taxes de dades totals en els sistemes de l'món real són 160 i 300 GB / s per a la suma total de sistema de fluxos de dades d'entrada i sortida. Els productes NVLink introduïts fins a la data se centren en l'espai d'aplicacions d'alt rendiment. NVLINK va ser anunciat per primera vegada al març de 2014 i utilitza una interconnexió de senyalització d'alta velocitat patentada i desenvolupada per Nvidia.

La següent taula resumeix les característiques més importants de les targetes basades en Volta:

TARGETES GRÀFIQUES NVIDIA VOLTA

CUDA Cores tensor Core Freqüències (MHz) memòria Interfície de la memòria Ample de banda de la memòria (GB / s)

TDP (W)

Tesla V100 5120 640 1465 32 GB HBM2 4.096 bit 900 250
GeForce Titan V 5120 640 1200/1455 12 GB HBM2 3.072 bit 652 250
GeForce Titan V CEO Edition 5120 640 1200/1455 32 GB HBM2 4.096 bit 900 250

El futur de Nvidia passa per Turing i Ampere

Les dues futures arquitectures de Nvidia seran Turing i Ampere segons tots els rumors apareguts fins a la data, és possible que quan llegeixis aquest post alguna de les dues ja hagi estat anunciada oficialment. Per ara no se sap res cert sobre aquestes dues arquitectures, encara que es parla que Turing seria una versió de Volta simplificada per al mercat gaming, de fet s'espera que arribi amb el mateix procés de fabricació a 12 nm.

Ampere sona com l'arquitectura successora de Turing, encara que també podria ser la successora de Volta per al sector de la intel·ligència artificial. D'aquesta si que no se sap absolutament res, encara que sembla lògic esperar que arribi fabricada a 7 nm. Els rumors apunten que Nvidia anunciarà les seves noves targetes GeForce en Gamecom en el pròxim mes d'agost, només llavors sortirem de dubtes sobre el que seran Turing o Ampere, si és que arriben a existir realment.

NVIDIA G-Sync, acabant amb els problemes de sincronització d'imatge

G-Sync és una tecnologia patentada de sincronització adaptativa desenvolupada per Nvidia, l'objectiu principal és eliminar l'esquinç de la pantalla i la necessitat d'alternatives en forma de programari com VSync. G-Sync elimina l'esquinç de la pantalla a l'forçar que aquesta que s'adapti a l'framerate de el dispositiu de sortida, la targeta gràfica, en lloc que el dispositiu de sortida s'adapti a la pantalla, el que resulta en trencament de la imatge en la pantalla.

Perquè un monitor sigui compatible amb G-Sync, ha de contenir un mòdul de maquinari venut per Nvidia. AMD (Advanced Micro Devices) ha llançat una tecnologia similar per pantalles, anomenada FreeSync, que té la mateixa funció que G-Sync però no requereix de cap maquinari específic.

Nvidia va crear una funció especial per evitar la possibilitat que un nou fotograma estigui llest mentre es dibuixa un duplicat a la pantalla, cosa que pot generar retard i / o quequeig, el mòdul anticipa l'actualització i espera el següent fotograma per ser completat. La sobrecàrrega de píxels també es torna enganyosa en un escenari d'actualització no fix, i les solucions prediuen quan es realitzarà la propera actualització, per tant, s'ha d'implementar i ajustar el valor de sobre marxa per a cada panell per tal d'evitar l'efecte fantasma.

El mòdul es basa en un FPGA de la família Altera Arria V GX amb elements lògics 156K, 396 blocs DSP i 67 canals LVDS. Es produeix en el procés TSMC 28LP i es combina amb tres xips que sumen un total de 768 MB de DRAM DDR3L, per assolir un cert ample de banda. El FPGA empleat també presenta una interfície LVDS per controlar el panell de l'monitor. Aquest mòdul destinat a reemplaçar els escaladors comuns ja integrar fàcilment els fabricants de monitors, que només s'han d'encarregar de la placa de circuit de subministrament d'energia i les connexions d'entrada.

G-Sync s'ha enfrontat a algunes crítiques per la seva naturalesa patentada, i a el fet que encara es promou quan hi ha alternatives lliures, com l'estàndard VESA Adaptive-Sync, que és una característica opcional de DisplayPort 1.2a. Mentre que FreeSync d'AMD es basa en DisplayPort 1.2a, G-Sync requereix un mòdul fet a Nvidia en lloc de l'escalador habitual a la pantalla perquè funcioni correctament les targetes gràfiques Nvidia GeForce, i és compatible amb les microarquitectures Kepler, Maxwell, Pascal i Volta.

El següent pas s'ha donat amb la tecnologia G-Sync HDR, que com el seu propi nom indica, afegeix capacitats HDR per millorar en gran mesura la qualitat d'imatge de l'monitor. Per fer això possible, s'ha hagut de fer un salt significatiu amb el maquinari. Aquesta nova versió G-Sync HDR usa un FPGA Intel Altera Arria 10 GX 480, un processador altament programable i molt avançat que pot codificar per a una àmplia gamma d'aplicacions, i l qual s'acompanya de 3 GB de memòria DDR4 a 2400MHz fabricada per Micron. Això fa que el preu d'aquests monitors s'encareixi d'una forma molt més notable.

Aquí finalitza el nostre post sobre tot el que ha de saber de Nvidia. Recorda que pots compartir-ho en les xarxes sociale spara que arribi a més usuaris. També pots fer un comentari si tens algun suggeriment o alguna cosa a afegir.

Android

Selecció de l'editor

Back to top button