2016-ban végre beigazolódtak a GPU-k teljes értékű generációváltásába vetett remények, amit korábban a bevált 28 nm-es folyamattechnológia által lehetővé tettnél lényegesen nagyobb tranzisztorsűrűségű és órajelű chipek előállításához szükséges gyártási képességek hiánya nehezített. A 20 nm-es technológia, amelyet két évvel ezelőtt reméltünk, kereskedelmileg veszteségesnek bizonyult a diszkrét GPU-khoz hasonló méretű chipek esetében. Mivel a TSMC és a Samsung, akik az AMD és az NVIDIA alvállalkozói lettek volna, nem használtak FinFET-et 20 nm-en, a potenciális wattonkénti teljesítménynövekedés 28 nm felett akkora volt, hogy mindkét vállalat inkább megvárta a 14/16 nm-es szabványok általános átvételét, már FinFET.

A fárasztó várakozás azonban évek teltek el, és most kiértékelhetjük, hogy a GPU-gyártók miként adtak meg a frissített technikai folyamatban rejlő lehetőségeket. Amint a gyakorlat ismét megmutatta, a "nanométerek" önmagukban nem garantálják a chip magas energiahatékonyságát, így az NVIDIA és az AMD új architektúrája ebben a paraméterben nagyon eltérőnek bizonyult. További érdekességet pedig az is bevezetett, hogy a cégek már nem egy gyár (TSMC) szolgáltatásait veszik igénybe, mint a korábbi években. Az AMD a GlobalFoundries céget választotta a 14 nm-es FinFET technológián alapuló Polaris GPU-k gyártásához. Az NVIDIA viszont továbbra is együttműködik a TSMC-vel, amely 16 nm-es FinFET-eljárást alkalmaz az összes Pascal chipen, kivéve a low-end GP107-et (amit a Samsung gyárt). Ez volt a Samsung 14 nm-es FinFET sorozata, amelyet egykor a GlobalFoundries licencelt, így a GP107 és riválisa, a Polaris 11 kényelmes lehetőséget biztosít számunkra, hogy összehasonlítsuk az AMD és az NVIDIA mérnöki eredményeit hasonló gyártási bázison.

A technikai részletekben azonban nem merülünk el idő előtt. Általánosságban elmondható, hogy mindkét cég következő generációs GPU-ra épülő javaslatai a következők. Az NVIDIA a Pascal architektúragyorsítók teljes sorát hozta létre, amelyek három fogyasztói minőségű GPU-n – GP107, GP106 és GP104 – alapulnak. Azonban a helye a zászlóshajó adapter, amely minden bizonnyal megkapja a nevet GeForce GTX 1080 Ti, jelenleg üres. Erre a pozícióra egy GP102 processzoros kártya pályázik, amelyet jelenleg csak az NVIDIA prosumer TITAN X gyorsítójában használnak.Tesla számítási gyorsítók.

Az AMD eddigi sikere szerényebb. A Polaris családból két processzor jelent meg, amelyek alapján a termékek a játék grafikus kártyák alsó és középkategóriájába tartoznak. A felső szintet a soron következő Vega GPU-család foglalja majd el, amely várhatóan átfogóan továbbfejlesztett GCN architektúrával fog rendelkezni (miközben a Polaris ebből a szempontból nem különbözik annyira a 28 nm-es Fiji és Tonga chipektől).

NVIDIA Tesla P100 és új TITAN X

Jensen Huang, az NVIDIA állandó vezetőjének erőfeszítései révén a vállalat már az általános célú számítástechnikai processzorok gyártójaként pozicionálja magát, mint a játék GPU-k gyártója. A jele annak, hogy az NVIDIA minden eddiginél komolyabban veszi a szuperszámítógép-üzletágat, az volt, hogy a Pascal GPU vonalat játékpozíciókra, másrészt számítástechnikai pozíciókra osztották.

Miután a 16 nm-es FinFET folyamat életbe léptetett a TSMC-nél, az NVIDIA első erőfeszítéseit a GP100 szuperszámítógép-chipbe fektette, amely a Pascal fogyasztói termékcsaládja előtt debütált.

A GP100 példátlan számú tranzisztort (15,3 milliárd) és shader ALU-t (3840) tartalmaz CUDA magok). Ez az első olyan gyorsító, amelyet HBM2 memóriával (16 GB) és szilícium alapú GPU-val kombináltak. A GP100 a Tesla P100 gyorsítók részeként használatos, kezdetben szuperszámítógépekre korlátozódott az NVLINK busszal rendelkező speciális formai tényező miatt, de később az NVIDIA kiadta a Tesla P100-at szabványos bővítőkártya formátumban. PCI Express.

Kezdetben a szakértők azt feltételezték, hogy a P100 megjelenhet játék grafikus kártyák. Az NVIDIA láthatóan nem tagadta ezt a lehetőséget, mivel a chip teljes értékű csővezetékkel rendelkezik a 3D grafika megjelenítéséhez. De most már világos, hogy nem valószínű, hogy valaha is túllép a számítástechnikai rést. A grafika terén az NVIDIA-nak van egy testvérterméke - a GP102, amely ugyanazzal a shader ALU-val, textúra leképezővel és ROP-val rendelkezik, mint a GP100-ban, de hiányzik belőle az előtét nagyszámú 64 bites CUDA mag formájában, nem is beszélve az egyéb építészeti elemekről. változások (kevesebb ütemező, csonka L2 gyorsítótár stb.). Az eredmény egy kompaktabb (12 milliárd tranzisztoros) mag, amely a HBM2 memória elhagyásával a GDDR5X javára lehetővé tette az NVIDIA számára a GP102 szélesebb piacra való kiterjesztését.

A GP102 mostantól a TITAN X prosumer gyorsító számára van fenntartva (nem tévesztendő össze a Maxwell architektúrájú GM200 chipen alapuló GeForce GTX TITAN X-szel), amely táblaként van elhelyezve a csökkentett precíziós számításokhoz (8-32 bites tartományban, amelyek közül a 8 és a 16 az NVIDIA kedvenc mélyedzése) még inkább, mint a játékoknál, bár a gazdag játékosok 1200 dollárért vásárolhatnak videokártyát. a GeForce GTX 1080 felett, de ez a túlhajtás segít. Ha összehasonlítjuk a túlhúzott GTX 1080-at és a TITAN X-et, akkor utóbbi már 34%-kal gyorsabb lesz. A GP102-re épülő új játék zászlóshajó azonban valószínűleg kevesebb aktív számítási egységgel rendelkezik, vagy elveszíti a számítási funkciók támogatását (vagy mindkettőt).

Mindent összevetve, a hatalmas GPU-k, például a GP100 és a GP102 kiadása a 16 nm-es FinFET folyamat korai szakaszában nagy eredmény az NVIDIA számára, különösen figyelembe véve azokat a kihívásokat, amelyekkel a vállalat szembesült a 40 és 28 nm-es periódus során.

NVIDIA GeForce GTX 1070 és 1080

Az NVIDIA a szokásos sorrendben dobta piacra GeForce 10-es sorozatú játékgyorsítóinak sorát – a legtöbbtől erős modellek költségvetésibbekhez. A GeForce GTX 1080 és más Pascal architektúrájú játékkártyák, amelyek azóta megjelentek a legvilágosabban azt mutatják, hogy az NVIDIA teljes mértékben kihasználta a 14/16 nm-es FinFET folyamat előnyeit a chipek sűrűbbé és energiahatékonyabbá tételére.

Ráadásul a Pascal létrehozásával az NVIDIA nemcsak a teljesítményt növelte a különféle számítási feladatokban (amint azt a GP100 és GP102 példája is mutatta), hanem a Maxwell chip architektúrát is kiegészítette a grafikai megjelenítést optimalizáló funkciókkal.

Röviden jegyezze meg a főbb újításokat:

  • továbbfejlesztett színtömörítés akár 8:1 arányban;
  • a PolyMorph Engine Simultaneous Multi-Projection funkciója, amely lehetővé teszi akár 16 vetítés létrehozását a jelenet geometriájából egy menetben (VR és több kijelzővel rendelkező rendszerek esetében az NVIDIA Surround konfigurációban);
  • megszakítási (preemption) képesség egy húzási hívás (rendereléskor) és egy parancsfolyam végrehajtása során (számítások során), amely a GPU számítási erőforrásainak dinamikus kiosztásával együtt biztosítja teljes támogatás aszinkron számítástechnika (Async Compute) – további teljesítményforrás a DirectX 12 API alatti játékokban és csökkentett késleltetés a VR-ben.

Az utolsó pont különösen érdekes, mivel a Maxwell chipek technikailag kompatibilisek voltak az aszinkron számítással (egyidejű munka a számítási és grafikus parancssorokkal), de a teljesítmény ebben a módban sok kívánnivalót hagyott maga után. Az aszinkron számítások Pascalban az elvárásoknak megfelelően működnek, lehetővé téve a GPU hatékonyabb betöltését olyan játékokban, amelyeknél külön szál van a fizikai számításokhoz (bár igaz, az NVIDIA chipek esetében a shader ALU-k teljes betöltésének problémája nem olyan akut, mint az AMD GPU-k esetében).

A GTX 1070-ben és GTX 1080-ban használt GP104 processzor a GM204 utódja (a Maxwell család második szintű chipje), de az NVIDIA olyan magas órajelet ért el, hogy a GTX 1080 felülmúlja a GTX TITAN X-et (egy nagyobb GPU) átlagosan 29%-kal, és mindezt egy konzervatívabb hőcsomagon belül (180 vs. 250 watt). Még a GTX 1070 is, amely erősebben szeletelt, mint a GTX 970-et a GTX 980-hoz képest (és a GTX 1070 GDDR5-öt használ a GDDR5X helyett a GTX 1080-ban), még mindig 5%-kal gyorsabb, mint a GTX TITAN X.

Az NVIDIA Pascalban frissítette a kijelzővezérlőjét, amely immár kompatibilis a DisplayPort 1.3 / 1.4 és a HDMI 2.b interfésszel, ami azt jelenti, hogy egyetlen kábelen keresztül nagyobb felbontású vagy frissítési gyakoriságú képet továbbíthat – akár 5K 60 Hz vagy 4K 120 Hz-en. A 10/12 bites színmegjelenítés támogatja a dinamikus tartományt (HDR) azon a néhány képernyőn, amely még rendelkezik ezzel a képességgel. A dedikált Pascal hardverblokk HEVC (H.265) videó kódolására és dekódolására képes akár 4K felbontásban, 10 bites színben (12 bites dekódolás) és 60 Hz-en.

Végül a Pascal megszüntette az SLI busz előző verziójának korlátait. A fejlesztők megemelték az interfész frekvenciáját, és kiadtak egy új, kétcsatornás hidat.

A Pascal architektúra ezen jellemzőiről a GeForce GTX 1080 áttekintésünkben olvashat bővebben. Mielőtt azonban rátérnénk az elmúlt év egyéb újdonságaira, érdemes megemlíteni, hogy a 10. GeForce sorozatban az NVIDIA először ad ki referenciatervező kártyákat az adott modellek teljes élettartamára. Mostantól Founders Edition néven kaphatók, és a partnerkártyák ajánlott kiskereskedelmi áránál drágábbak. Például a GTX 1070 és a GTX 1080 ajánlott ára 379 és 599 dollár (már fiatal korukban magasabb, mint a GTX 970 és GTX 980), míg a Founders Edition ára 449 és 699 dollár.

GeForce GTX 1050 és1060

A GP106 chip elterjesztette a Pascal architektúrát a mainstream játékgyorsító szegmensben. Funkcionálisan nem különbözik a régebbi modellektől, számítási egységek számát tekintve pedig a fele a GP104-nek. Igaz, a GP106 a GM206-tal ellentétben (ami a GM204 fele volt) 192 bites memóriabuszt használ. Ezenkívül az NVIDIA eltávolította az SLI-csatlakozókat a GTX 1060 kártyáról, ami felzaklatta a videoalrendszer fokozatos frissítésének rajongóit: ha ez a gyorsító kimeríti képességeit, többé nem lehet hozzá második videokártyát hozzáadni (kivéve azokat a DirectX 12-es játékokat). amelyek lehetővé teszik a terhelés elosztását a GPU megkerülő illesztőprogramjai között).

A GTX 1060 eredetileg 6 GB-os GDDR5-tel, egy teljesen működőképes GP106 chippel volt felszerelve, és 249/299 dollárért került eladásra (partnerkártyák és Founders Edition). Ekkor azonban az NVIDIA kiadott egy videokártyát 3 GB memóriával és 199 dolláros javasolt árral, ami a számítási egységek számát is csökkentette. Mindkét grafikus kártya vonzó, 120 W-os TDP-vel rendelkezik, sebességét tekintve pedig a GeForce GTX 970 és GTX 980 analógja.

A GeForce GTX 1050 és GTX 1050 Ti a Pascal architektúra által elsajátított legalacsonyabb kategóriába tartoznak. De bármennyire is szerénynek tűnnek az idősebb testvérek hátterében, az NVIDIA megtette a legnagyobb előrelépést a költségvetési rést illetően. A korábban is elfoglalt GTX 750/750 Ti a Maxwell architektúra első iterációjába tartozik, így a GTX 1050/1050 Ti a Pascal család többi gyorsítójával ellentétben nem egy, hanem másfél generációt lépett előre. A lényegesen nagyobb GPU-val és a magasabb frekvencián futó memóriával a GTX 1050/1050 Ti jobban megnövelte a teljesítményt elődeikhez képest, mint bármely más Pascal sorozat (90%-os különbség a GTX 750 Ti és a GTX 1050 Ti között).

Bár a GTX 1050/1050 Ti valamivel több energiát használnak (75 W vs 60 W), még mindig a PCI Express kártyák teljesítménytartományába esnek, kiegészítő tápcsatlakozó nélkül. Az NVIDIA nem adott ki junior gyorsítókat a Founders Edition formátumban, és az ajánlott kiskereskedelmi árak 109 és 139 dollár voltak.

AMD Polaris: Radeon RX 460/470/480

Az AMD válasza Pascalra a Polaris chipcsalád volt. A Polaris sorozat már csak két chipet tartalmaz, amelyek alapján az AMD három videokártyát (Radeon RX 460 , RX 470 és RX 480) gyárt, amelyekben a beépített RAM mennyisége is változik. Ahogy a modellszámokból is jól látható, a 400-as sorozatú Radeon a teljesítmény felső szintjét foglalta el. Az AMD-nek meg kell töltenie Vega szilícium alapú termékekkel. Az AMD még a 28 nm-es korszakban elsajátította azt a szokást, hogy viszonylag kis chipeken teszteli az innovációkat, és csak azután implementálja azokat zászlóshajó GPU-kba.

Rögtön meg kell jegyezni, hogy az AMD esetében az új grafikus processzorcsalád nem azonos új verzió az alapul szolgáló GCN (Graphics Core Next) architektúra, de tükrözi az architektúra és más termékjellemzők kombinációját. Az új folyamattechnológia szerint épített GPU-k esetében az AMD elhagyta a kódnévben szereplő különféle "szigeteket" (Északi-szigetek, Déli-szigetek stb.), és csillagok nevével jelöli azokat.

Ennek ellenére a Polarisban a GCN architektúra újabb, zsinórban harmadik frissítést kapott, aminek köszönhetően (a 14nm-es FinFET folyamatra való átállással együtt) az AMD jelentősen növelte a wattonkénti teljesítményt.

  • A számítási egység, a shader ALU-k GCN-ben való rendszerezésének alapvető formája, számos változáson ment keresztül az utasítások előzetes lekérésével és gyorsítótárazásával, az L2 cache hozzáférésekkel kapcsolatban, amelyek együttesen 15%-kal növelték a CU fajlagos teljesítményét.
  • Támogatják a félpontos (FP16) számításokat, amelyeket a számítógépes látás és a gépi tanulási programokban használnak.
  • A GCN 1.3 közvetlen hozzáférést biztosít a stream processzorok belső utasításkészletéhez (ISA), aminek köszönhetően a fejlesztők a legtöbb "alacsony szintű" és leggyorsabb kódot írhatják - szemben a DirectX és OpenGL shader nyelvekkel, hardvertől elvonatkoztatva.
  • A geometria-processzorok most már a folyamat elején képesek kizárni a nulla méretű poligonokat vagy a vetítési pixeleket nem tartalmazó sokszögeket, és rendelkeznek egy index-gyorsítótárral, amely csökkenti az erőforrás-felhasználást kis duplikált geometriák renderelésekor.
  • Dupla L2 gyorsítótár.

Emellett az AMD mérnökei sok erőfeszítést tettek annak érdekében, hogy a Polaris a lehető legmagasabb frekvencián működjön. A GPU frekvenciáját mostantól minimális késleltetéssel szabályozzák (a késleltetés kevesebb, mint 1 ns), és a kártya minden PC-indításkor módosítja a feszültséggörbét, hogy figyelembe vegye az egyes chipek és a szilíciumöregedés működés közbeni paramétereinek változását.

A 14 nm-es FinFET-re való átállás azonban nem volt zökkenőmentes az AMD számára. A vállalat ugyanis 62%-kal tudta növelni a wattonkénti teljesítményt (a Radeon RX 480 és Radeon R9 380X játéktesztek eredményeiből és a kártyák névtábláján szereplő TDP-ből ítélve). azonban maximális frekvenciák A Polaris nem haladja meg az 1266 MHz-et, és a gyártópartnerek közül csak néhány ért el többet a hűtési és energiaellátási rendszerek terén végzett további munkával. Másrészt a GeForce videokártyák továbbra is vezetik a sebesség-teljesítmény arányt, amit az NVIDIA még a Maxwell generációban ért el. Úgy tűnik, az AMD az első szakaszban nem tudta feltárni az új generációs folyamattechnológia minden képességét, vagy maga a GCN architektúra már mélyreható modernizációt igényel - az utolsó feladatot a Vega chipekre bízták.

A Polaris alapú gyorsítók 109 és 239 dollár közötti ársávot foglalnak el (lásd a táblázatot), bár a GeForce GTX 1050/1050 Ti megjelenésére reagálva az AMD 100 dollárra, illetve 170 dollárra csökkentette a két alacsonyabb kártya árát. A Ebben a pillanatban minden ár/teljesítmény kategóriában hasonló az erőviszonyok a versengő termékek között: a GeForce GTX 1050 Ti gyorsabb, mint a 4 GB RAM-mal rendelkező Radeon RX 460, a 3 GB memóriával rendelkező GTX 1060 gyorsabb, mint az RX 470, és a teljes értékű GTX 1060 megelőzi az RX 480-at. AMD videokártyák Olcsóbbak, ami azt jelenti, hogy népszerűek.

AMD Radeon Pro Duo

Nem lesz teljes a beszámoló az elmúlt évről a diszkrét GPU-k terén, ha figyelmen kívül hagyunk még egyet a "piros" grafikus kártyák közül. Míg az AMD még nem adott ki zászlóshajó egy-GPU-t a Radeon R9 Fury X-hez, a cégnek egyetlen bizonyított lépése maradt, hogy folytassa az új határok meghódítását – két Fiji chip telepítése egyetlen kártyára. Ez a kártya, amelynek kiadását az AMD többször is elhalasztotta, mindazonáltal nem sokkal a GeForce GTX 1080 előtt megjelent, de a professzionális gyorsítók kategóriájába került. Radeon Proés platformként helyezték el a játékok VR környezetben való létrehozásához.

Az 1499 dolláros (drágább, mint egy pár Radeon R9 Fury Xs induláskor) játékos számára a Radeon Pro Duo nem választható, és még csak nem is volt lehetőségünk tesztelni. Kár, mert technikai szempontból a Radeon Pro Duo érdekfeszítőnek tűnik. A névkártya TDP mindössze 27%-kal nőtt a Fury X-hez képest, annak ellenére, hogy a csúcsfrekvenciák AMD processzorok 50 MHz-rel csökkentve. Korábban az AMD-nek már sikerült kiadnia egy sikeres kétprocesszoros videokártyát - Radeon R9 295X2-t, így a gyártó által bejelentett specifikációk nem keltenek nagy szkepticizmust.

Mi várható 2017-ben

A következő év fő elvárásai az AMD-vel kapcsolatosak. Az NVIDIA valószínűleg egy zászlóshajó GP102-alapú játékkártya kiadására szorítkozik GeForce GTX 1080 Ti néven, és talán a GeForce 10 sorozat másik megüresedését tölti be a GTX 1060 Ti-vel. Egyébként a Pascal-gyorsítók sora már kialakult, a következő architektúra, a Volta debütálását pedig csak 2018-ra tervezik.

Akárcsak a CPU területén, az AMD is egy igazán áttörést jelentő GPU mikroarchitektúra kifejlesztésére összpontosította erőfeszítéseit, míg a Polaris csak egy állomás lett az utóbbi felé vezető úton. Vélhetően már 2017 első negyedévében a társaság először bocsátja a tömegpiacra a legjobb szilíciumot, a Vega 10-et (és vele együtt, vagy ezt követően egy vagy több junior chipet a sorban). Képességeinek legmegbízhatóbb bizonyítéka az MI25 számítási kártya bejelentése volt a Radeon Instinct termékcsaládban, amely a mély tanulási feladatok gyorsítójaként szolgál. A specifikációk szerint nem kevesebb, mint a Vega 10-re épül. A kártya 12,5 TFLOPS feldolgozási teljesítményt fejleszt az egyszeri precíziós számításokban (FP32) - ez több, mint a GP102 TITAN X-e -, és 16 GB HBM2 memóriával van felszerelve. A videokártya TDP-je 300 watton belül van. A processzor tényleges sebességéről csak találgatni lehet, de az ismert, hogy a Vega a legmasszívabb frissítést hozza a GPU mikroarchitektúrájába az első GCN-alapú chipek öt évvel ezelőtti megjelenése óta. Ez utóbbi jelentősen javítja a wattonkénti teljesítményt, és hatékonyabb felhasználást tesz lehetővé számítási teljesítmény shader ALU-k (amelyekben az AMD chipek hagyományosan nem hiányoznak) a játékalkalmazásokban.

Azt is pletykálják, hogy az AMD mérnökei mára tökéletesre elsajátították a 14 nm-es FinFET folyamatot, és a cég készen áll a Polaris grafikus kártyák második verziójának kiadására, lényegesen alacsonyabb TDP-vel. Számunkra úgy tűnik, hogy ha ez igaz, akkor a frissített chipek inkább a Radeon RX 500-as vonalra kerülnek, mintsem a meglévő 400-as sorozatban kapnak emelt indexeket.

Alkalmazás. Az AMD és NVIDIA diszkrét videoadapterek jelenlegi sorozata

Gyártó AMD
Modell Radeon RX 460 Radeon RX 470 Radeon RX 480 Radeon R9 Nano Radeon R9 Fury Radeon R9 Fury X
GPU
Név Polaris 11 Polaris 10 Polaris 10 Fiji xt Fiji PRO Fiji xt
mikroarchitektúra GCN 1.3 GCN 1.3 GCN 1.3 GCN 1.2 GCN 1.2 GCN 1.2
Folyamat technológia, nm 14 nm-es FinFET 14 nm-es FinFET 14 nm-es FinFET 28 28 28
Tranzisztorok száma, millió 3 000 5 700 5 700 8900 8900 8900
1 090 / 1 200 926 / 1 206 1 120 / 1 266 — / 1 000 — / 1 000 — / 1 050
Shader ALU-k száma 896 2 048 2 304 4096 3584 4096
56 128 144 256 224 256
ROP-ok száma 16 32 32 64 64 64
RAM
Buszszélesség, bit 128 256 256 4096 4096 4096
Chip típusa GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM HBM HBM HBM
1 750 (7 000) 1 650 (6 600) 1 750 (7 000) / 2 000 (8 000) 500 (1000) 500 (1000) 500 (1000)
Kötet, MB 2 048 / 4 096 4 096 4 096 / 8 192 4096 4096 4096
I/O busz PCI Express 3.0 x8 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
Teljesítmény
2 150 4 940 5 834 8 192 7 168 8 602
Teljesítmény FP32/FP64 1/16 1/16 1/16 1/16 1/16 1/16
112 211 196/224 512 512 512
Képkimenet
DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2
TDP, W <75 120 150 175 275 275
109/139 179 199/229 649 549 649
8 299 / 10 299 15 999 16 310 / 18 970 ND ND ND
Gyártó NVIDIA
Modell GeForce GTX 1050 GeForce GTX 1050 Ti GeForce GTX 1060 3 GB GeForce GTX 1060 GeForce GTX 1070 GeForce GTX 1080 TITAN X
GPU
Név GP107 GP107 GP106 GP106 GP104 GP104 GP102
mikroarchitektúra Pascal Pascal Maxwell Maxwell Pascal Pascal Pascal
Folyamat technológia, nm 14 nm-es FinFET 14 nm-es FinFET 16 nm-es FinFET 16 nm-es FinFET 16 nm-es FinFET 16 nm-es FinFET 16 nm-es FinFET
Tranzisztorok száma, millió 3 300 3 300 4 400 4 400 7 200 7 200 12 000
Órajel frekvencia, MHz: Alap órajel / Boost Clock 1 354 / 1 455 1 290 / 1 392 1506/1708 1506/1708 1 506 / 1 683 1 607 / 1 733 1 417 / 1531
Shader ALU-k száma 640 768 1 152 1 280 1 920 2 560 3 584
A textúrafedések száma 40 48 72 80 120 160 224
ROP-ok száma 32 32 48 48 64 64 96
RAM
Buszszélesség, bit 128 128 192 192 256 256 384
Chip típusa GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5X SDRAM GDDR5X SDRAM
Órajel frekvencia, MHz (érintkezőnkénti sávszélesség, Mbps) 1 750 (7 000) 1 750 (7 000) 2000 (8000) 2000 (8000) 2000 (8000) 1 250 (10 000) 1 250 (10 000)
Kötet, MB 2 048 4 096 6 144 6 144 8 192 8 192 12 288
I/O busz PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
Teljesítmény
Csúcsteljesítmény FP32, GFLOPS (a megadott maximális frekvencia alapján) 1 862 2 138 3 935 4 373 6 463 8 873 10 974
Teljesítmény FP32/FP64 1/32 1/32 1/32 1/32 1/32 1/32 1/32
Sávszélesség véletlen hozzáférésű memória, GB/s 112 112 192 192 256 320 480
Képkimenet
Képkimeneti interfészek DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b
TDP, W 75 75 120 120 150 180 250
Javasolt kiskereskedelmi ár a kiadáskor (USA, adó nélkül), $ 109 139 199 249/299 (Founders Edition / partnerkártyák) 379/449 (Founders Edition / partnerkártyák) 599/699 (Founders Edition / partnerkártyák) 1 200
Ajánlott kiskereskedelmi ár a kiadás időpontjában (Oroszország), dörzsölje. 8 490 10 490 ND 18 999 / — (Founders Edition / partnerkártyák) ND / 34 990 (Founders Edition / partnerkártyák) ND / 54 990 (Founders Edition / partnerkártyák)

Az integrált grafikus processzor fontos szerepet játszik mind a játékosok, mind az igénytelen felhasználók számára.

A játékok, filmek, az internetes videók és képek minősége attól függ.

Működés elve

A grafikus processzor a számítógép alaplapjába van integrálva – így néz ki a beépített grafika.

Általában arra használják, hogy eltávolítsák a grafikus adapter telepítésének szükségességét -.

Ez a technológia segít csökkenteni a késztermék költségeit. Ezenkívül az ilyen processzorok kompaktsága és alacsony energiafogyasztása miatt gyakran telepítik őket laptopokba és alacsony fogyasztású asztali számítógépekbe.

Így az integrált grafikus processzorok annyira betöltötték ezt a rést, hogy az amerikai boltok polcain található laptopok 90%-a éppen ilyen processzorral rendelkezik.

A hagyományos, integrált grafikus videokártya helyett gyakran maga a számítógép RAM-ja szolgál segédeszközként.

Igaz, ez a megoldás némileg korlátozza a készülék teljesítményét. Maga a számítógép és a GPU azonban ugyanazt a buszt használja a memória számára.

Tehát egy ilyen „szomszédság” befolyásolja a feladatok teljesítményét, különösen összetett grafikával és játék közben.

Fajták

Az integrált grafikának három csoportja van:

  1. A megosztott memóriás grafika a fő processzorral közös memóriakezelésen alapuló eszköz. Ez nagymértékben csökkenti a költségeket, javítja az energiatakarékos rendszert, de rontja a teljesítményt. Ennek megfelelően azok számára, akik összetett programokkal dolgoznak, az ilyen típusú integrált GPU-k nagyobb valószínűséggel nem működnek.
  2. Diszkrét grafika - egy videochip és egy vagy két videomemória modul van forrasztva az alaplapon. Ennek a technológiának köszönhetően jelentősen javul a képminőség, és lehetővé válik a háromdimenziós grafikával való munkavégzés is a legjobb eredménnyel. Igaz, ezért sokat kell fizetni, és ha minden szempontból nagy teljesítményű processzort keresel, akkor a költségek hihetetlenül magasak lehetnek. Ráadásul a villanyszámla is enyhén emelkedik – a különálló GPU-k energiafogyasztása magasabb a szokásosnál.
  3. Hibrid diszkrét grafika - a két korábbi típus kombinációja, amely biztosította a PCI Express busz létrehozását. Így a memóriához való hozzáférés mind a forrasztott videomemórián, mind az üzemi memórián keresztül történik. Ezzel a megoldással a gyártók kompromisszumos megoldást akartak alkotni, de ez továbbra sem szünteti meg a hiányosságokat.

Gyártók

Általában a nagyvállalatok foglalkoznak beágyazott grafikus processzorok gyártásával és fejlesztésével -, de sok kisvállalkozás is kapcsolódik ehhez a területhez.

Könnyű megtenni. Először keresse meg az Elsődleges vagy Init kijelzőt. Ha nem lát ilyesmit, keresse az Onboard, PCI, AGP vagy PCI-E elemeket (minden az alaplapra telepített buszoktól függ).

A PCI-E kiválasztásával például engedélyezi a PCI-Express videokártyát, és letiltja a beépített integrált kártyát.

Így az integrált videokártya engedélyezéséhez meg kell találni a megfelelő paramétereket a BIOS-ban. Az aktiválási folyamat gyakran automatikus.

Letiltás

A letiltást legjobban a BIOS-ban lehet megtenni. Ez a legegyszerűbb és legszerényebb lehetőség, amely szinte minden számítógéphez alkalmas. Az egyetlen kivétel néhány laptop.

Ismét keresse meg a Peripherals vagy Integrated Peripherals részt a BIOS-ban, ha asztali számítógépen dolgozik.

Laptopoknál a funkció neve más, és nem mindenhol ugyanaz. Tehát csak keressen valamit, ami a grafikával kapcsolatos. Például a kívánt beállításokat elhelyezheti az Advanced és Config részekben.

A leállítás is különböző módokon történik. Néha elég csak a „Letiltva” gombra kattintani, és a PCI-E videokártyát a lista első helyére beállítani.

Ha Ön laptop felhasználó, ne ijedjen meg, ha nem talál megfelelő opciót, lehet, hogy eleve nem rendelkezik ilyen funkcióval. Az összes többi eszközre ugyanazok a szabályok egyszerűek – függetlenül attól, hogy maga a BIOS hogyan néz ki, a kitöltés ugyanaz.

Ha két videokártyája van, és mindkettő megjelenik az eszközkezelőben, akkor a dolog nagyon egyszerű: kattintson jobb gombbal az egyikre, és válassza a „letiltást”. Ne feledje azonban, hogy a kijelző kialudhat. És nagy valószínűséggel az is lesz.

Azonban ez is megoldható probléma. Elegendő a számítógép újraindítása vagy a.

Végezzen el rajta minden további beállítást. Ha ez a módszer nem működik, állítsa vissza a műveleteket csökkentett módban. Használhatja az előző módszert is - a BIOS-on keresztül.

Két program – az NVIDIA Control Center és a Catalyst Control Center – konfigurálja egy adott videoadapter használatát.

A másik két módszerhez képest ezek a legszerényebbek - a képernyő valószínűleg nem fog kikapcsolni, nem fogja véletlenül leütni a beállításokat a BIOS-on keresztül sem.

NVIDIA esetén minden beállítás a 3D részben található.

Kiválaszthatja a kívánt videoadaptert a teljes operációs rendszerhez, valamint bizonyos programokhoz és játékokhoz.

A Catalyst szoftverben ugyanez a funkció található a "Tápellátás" opcióban a "Változható grafika" alpont alatt.

Így a GPU-k közötti váltás nem nehéz.

Különböző módszerek léteznek, különösen mind a programokon, mind a BIOS-on keresztül, Egy-egy integrált grafika be- és kikapcsolása bizonyos, elsősorban a képpel kapcsolatos hibákkal járhat.

Előfordulhat, hogy kialszik, vagy csak torznak tűnik. Semmi sem befolyásolhatja magukat a számítógépen lévő fájlokat, hacsak nem kattintott valamire a BIOS-ban.

Következtetés

Emiatt olcsóságuk és kompaktságuk miatt keresettek az integrált grafikus processzorok.

Ehhez magának a számítógépnek a teljesítményszintjét kell fizetnie.

Bizonyos esetekben az integrált grafika egyszerűen szükséges - a különálló processzorok ideálisak a háromdimenziós képekkel való munkavégzéshez.

Emellett az iparág vezetői az Intel, az AMD és az Nvidia. Mindegyik saját grafikus gyorsítót, processzort és egyéb összetevőket kínál.

A legújabb népszerű modellek az Intel HD Graphics 530 és az AMD A10-7850K. Teljesen működőképesek, de vannak hibáik. Ez különösen a késztermék teljesítményére, teljesítményére és költségére vonatkozik.

Engedélyezheti vagy letilthatja a beépített kernellel rendelkező grafikus processzort, vagy saját maga is megteheti a BIOS-on, segédprogramokon és különféle programokon keresztül, de ezt maga a számítógép is megteheti helyetted. Minden attól függ, hogy melyik videokártya csatlakozik a monitorhoz.

A videokártya alapvető összetevői:

  • kijáratok;
  • interfészek;
  • hűtőrendszer;
  • grafikus processzor;
  • videó memória.

Grafikai technológiák:

  • szótár;
  • építészet GPU: funkciók
    vertex/pixel units, shader, fillrate, texture/raster units, pipelines;
  • GPU architektúra: technológia
    gyártási folyamat, GPU frekvencia, helyi videomemória (méret, busz, típus, frekvencia), megoldások több videokártyával;
  • vizuális jellemzők
    DirectX, nagy dinamikatartomány (HDR), FSAA, textúra szűrés, nagy felbontású textúrák.

Az alapvető grafikai kifejezések szószedete

Frissítési ráta

Mint egy moziban vagy a TV-n, a számítógép képkockák sorozatának megjelenítésével szimulálja a mozgást a monitoron. A monitor frissítési gyakorisága azt jelzi, hogy másodpercenként hányszor frissül a kép a képernyőn. Például a 75 Hz másodpercenként 75 frissítésnek felel meg.

Ha a számítógép gyorsabban dolgozza fel a képkockákat, mint amennyit a monitor ki tud adni, akkor a játékokban problémák léphetnek fel. Például, ha a számítógép másodpercenként 100 képkockát számol, és a monitor frissítési gyakorisága 75 Hz, akkor az átfedések miatt a monitor csak a kép egy részét tudja megjeleníteni a frissítési periódusa alatt. Ennek eredményeként vizuális műtermékek jelennek meg.

Megoldásként engedélyezheti a V-Sync (vertikális szinkron) funkciót. A számítógép által elkészíthető képkockák számát a monitor frissítési gyakoriságára korlátozza, így megakadályozza a műtermékeket. Ha engedélyezi a V-Syncet, a játékban megjelenített képkockák száma soha nem haladja meg a frissítési gyakoriságot. Vagyis 75 Hz-en a számítógép legfeljebb 75 képkockát ad ki másodpercenként.

Pixel

A „Pixel” szó jelentése „ kép túra el ement" egy képelem. Ez egy apró pont a kijelzőn, amely egy bizonyos színben világít (a legtöbb esetben az árnyalat három alapszín: piros, zöld és kék kombinációjával jelenik meg). Ha a képernyő felbontása 1024×768, akkor egy 1024 pixel szélességű és 768 pixel magas mátrixot láthatunk. A pixelek együtt alkotnak egy képet. A képernyőn megjelenő kép másodpercenként 60-ról 120-ra frissül, a kijelző típusától és a videokártya kimenete által szolgáltatott adatoktól függően. A katódsugárcsöves monitorok soronként frissítik a megjelenítést, míg a lapos LCD monitorok minden pixelt egyenként frissíthetnek.

Csúcs

A 3D-s jelenet összes objektuma csúcsokból áll. A csúcs egy pont a 3D-s térben x, y és z koordinátákkal.Egy sokszögbe több csúcs is csoportosítható: legtöbbször háromszög, de bonyolultabb alakzatok is lehetségesek. A sokszöget ezután textúrázzák, hogy az objektum valósághűen nézzen ki. A fenti ábrán látható 3D kockának nyolc csúcsa van. Az összetettebb objektumok ívelt felülettel rendelkeznek, amelyek valójában nagyon sok csúcsból állnak.

Struktúra

A textúra egyszerűen egy tetszőleges méretű 2D-s kép, amelyet egy 3D-s objektumra helyeznek, hogy szimulálják annak felületét. Például a 3D-kockánknak nyolc csúcsa van. A textúra-leképezés előtt úgy néz ki, mint egy egyszerű doboz. De amikor alkalmazzuk a textúrát, a doboz színes lesz.

Shader

A pixel-shaderek lehetővé teszik, hogy a grafikus kártya lenyűgöző hatásokat produkáljon, mint például ez a víz az Elder Scrolls: Oblivionban.

Ma kétféle shader létezik: vertex és pixel. A Vertex shaderek módosíthatják vagy átalakíthatják a 3D objektumokat. A Pixel shader programok lehetővé teszik a pixelek színének megváltoztatását bizonyos adatok alapján. Képzeljen el egy fényforrást egy 3D-s jelenetben, amely fényesebbé teszi a megvilágított tárgyakat, ugyanakkor árnyékot vet más tárgyakra. Mindez a pixelek színinformációinak változtatásával valósul meg.

A pixel shaderekkel összetett effektusokat hozhat létre kedvenc játékaiban. Például a shader kód fényesebbé teheti a 3D-s kardot körülvevő pixeleket. Egy másik shader képes feldolgozni egy összetett 3D objektum összes csúcsát, és szimulálni egy robbanást. A játékfejlesztők egyre gyakrabban fordulnak összetett shader programokhoz, hogy valósághű grafikát készítsenek. Szinte minden modern, grafikában gazdag játék használ shadereket.

A következő alkalmazásprogramozási felület (API, Application Programming Interface) Microsoft DirectX 10 megjelenésével megjelenik a harmadik típusú shader, az úgynevezett geometriai árnyékolók. Segítségükkel a kívánt eredménytől függően lehetőség nyílik tárgyak törésére, módosítására és akár megsemmisítésére is. A harmadik típusú shader pontosan ugyanúgy programozható, mint az első kettő, de a szerepe más lesz.

Teljesítési arány

Nagyon gyakran a videokártyával ellátott dobozon található a kitöltési arány értéke. Alapvetően a kitöltési sebesség azt jelzi, hogy a GPU milyen gyorsan képes megjeleníteni a képpontokat. A régebbi videokártyák háromszög kitöltési arányúak voltak. Ma azonban kétféle kitöltési arány létezik: a pixelkitöltési arány és a textúrakitöltési arány. Mint már említettük, a pixelkitöltési arány megfelel a pixelkimeneti aránynak. Kiszámítása a raszteres műveletek számának (ROP) és az órajel frekvenciájának szorzata.

Az ATi és az nVidia eltérően számítja ki a textúra kitöltési arányát. Az Nvidia úgy gondolja, hogy a sebességet úgy kapjuk meg, hogy a pixel csővezetékek számát megszorozzuk az órajellel. Az ATi pedig megszorozza a textúra egységek számát az órajellel. Elvileg mindkét módszer helyes, mivel az nVidia pixel shader egységenként egy textúra egységet használ (azaz egy pixel pipeline-onként).

Ezeket a meghatározásokat szem előtt tartva lépjünk tovább, és beszéljük meg a GPU legfontosabb funkcióit, azok funkcióit és miért olyan fontosak.

GPU architektúra: jellemzők

A 3D grafika valósághűsége nagymértékben függ a grafikus kártya teljesítményétől. Minél több pixel shader blokkot tartalmaz a processzor, és minél magasabb a frekvencia, annál több effektus alkalmazható a 3D-s jelenetre a vizuális érzékelés javítása érdekében.

A GPU számos különböző funkcionális blokkot tartalmaz. Egyes összetevők száma alapján megbecsülheti a GPU teljesítményét. Mielőtt továbblépnénk, nézzük meg a legfontosabb funkcionális blokkokat.

Vertex processzorok (Vertex Shader egységek)

A pixel shaderekhez hasonlóan a vertex processzorok is olyan shader kódot hajtanak végre, amely érinti a csúcsokat. Mivel a nagyobb vertex költségvetés lehetővé teszi összetettebb 3D objektumok létrehozását, a csúcsprocesszorok teljesítménye nagyon fontos az összetett vagy nagy számú objektumot tartalmazó 3D jeleneteknél. A vertex shader egységek azonban még mindig nem gyakorolnak olyan nyilvánvaló hatást a teljesítményre, mint a pixel processzorok.

Pixel processzorok (pixel shader)

A pixelprocesszor a grafikus chip része, amely a pixel shader programok feldolgozására szolgál. Ezek a processzorok csak a képpontokra vonatkozó számításokat végeznek. Mivel a képpontok színinformációkat tartalmaznak, a pixel shaderekkel lenyűgöző grafikai hatások érhetők el. Például a játékokban látható vízeffektusok többsége pixel shaderekkel jön létre. Általában a pixelprocesszorok számát használják a videokártyák pixelteljesítményének összehasonlítására. Ha az egyik kártya nyolc, a másik 16 egységgel van felszerelve, akkor teljesen logikus az a feltételezés, hogy egy 16 egységgel rendelkező videokártya gyorsabban dolgozza fel az összetett pixelprogramokat. Figyelembe kell venni az órajelet is, de manapság a pixelprocesszorok számának megkétszerezése hatékonyabb a fogyasztás szempontjából, mint a grafikus chip frekvenciájának megduplázása.

Egységes árnyékolók

Az egyesített (single) shaderek még nem érkeztek meg a PC-világba, de a hamarosan megjelenő DirectX 10 szabvány is hasonló architektúrára támaszkodik. Vagyis a vertex-, geometriai- és pixelprogramok kódszerkezete ugyanaz lesz, bár a shaderek más-más munkát végeznek. Az új specifikáció megtekinthető az Xbox 360-on, ahol a GPU-t az ATi egyedi tervezésű a Microsoft számára. Nagyon érdekes lesz látni, hogy az új DirectX 10 milyen lehetőségeket rejt magában.

Texture Mapping Units (TMU)

A textúrákat ki kell választani és szűrni kell. Ezt a munkát a textúra-leképező egységek végzik, amelyek a pixel és a vertex shader egységekkel együtt működnek. A TMU feladata, hogy textúraműveleteket alkalmazzon a pixelekre. A GPU-ban lévő textúraegységek számát gyakran használják a grafikus kártyák textúra-teljesítményének összehasonlítására. Teljesen ésszerű feltételezni, hogy egy több TMU-val rendelkező videokártya jobb textúrateljesítményt nyújt.

Raszteres kezelőegység (ROP)

A RIP-ek felelősek a pixeladatok memóriába írásáért. A művelet végrehajtásának sebessége a kitöltési sebesség. A 3D-s gyorsítók korai idejében a ROP-ok és a kitöltési arányok nagyon fontos jellemzői voltak a grafikus kártyáknak. Ma is fontos a ROP munkája, de a videokártya teljesítményét már nem korlátozzák ezek a blokkok, mint régen. Ezért a ROP teljesítményét (és számát) ritkán használják a videokártya sebességének értékelésére.

Szállítószalagok

A csővezetékek a videokártyák architektúrájának leírására szolgálnak, és nagyon vizuálisan ábrázolják a GPU teljesítményét.

A szállítószalag nem tekinthető szigorú szakkifejezésnek. A GPU különböző folyamatokat használ, amelyek különböző funkciókat látnak el. A történelem során a csővezetéket pixel processzorként értelmezték, amely a saját textúra-leképező egységéhez (TMU) csatlakozik. Például a Radeon 9700 videokártya nyolc pixeles processzort használ, amelyek mindegyike saját TMU-hoz csatlakozik, így a kártya nyolc csővezetékesnek tekinthető.

De nagyon nehéz leírni a modern processzorokat a csővezetékek számával. A korábbi kialakításokhoz képest az új processzorok moduláris, töredezett felépítést alkalmaznak. Ezen a területen újítónak tekinthető az ATi, amely az X1000-es videokártyákkal moduláris felépítésre váltott, ami belső optimalizálás révén tette lehetővé a teljesítménynövekedést. Egyes CPU blokkokat többet használnak, mint másokat, és a GPU teljesítményének javítása érdekében az ATi megpróbált kompromisszumot találni a szükséges blokkok száma és a kockaterület között (ezt nem lehet nagyon növelni). Ebben az architektúrában a "pixel pipeline" kifejezés már értelmét vesztette, mivel a pixelprocesszorok már nincsenek csatlakoztatva saját TMU-jukhoz. Például az ATi Radeon X1600 GPU 12 pixel shaderrel és összesen négy TMU-val rendelkezik. Ezért nem lehet azt mondani, hogy ennek a processzornak az architektúrájában 12 pixeles pipeline van, ahogy azt sem, hogy csak négy van belőlük. A hagyomány szerint azonban a pixelcsővezetékeket még mindig emlegetik.

Ezeket a feltételezéseket szem előtt tartva, a GPU-ban lévő pixelfolyamatok számát gyakran használják a videokártyák összehasonlítására (az ATi X1x00 vonal kivételével). Például, ha 24 és 16 csővezetékes videokártyákat veszünk, akkor teljesen jogos azt feltételezni, hogy egy 24 pipeline kártya gyorsabb lesz.

GPU architektúra: technológia

Folyamat technológia

Ez a kifejezés a chip egy elemének (tranzisztorának) méretére és a gyártási folyamat pontosságára vonatkozik. A műszaki folyamatok fejlesztése lehetővé teszi kisebb méretű elemek beszerzését. Például a 0,18 µm-es eljárás nagyobb jellemzőket produkál, mint a 0,13 µm-es eljárás, tehát nem olyan hatékony. A kisebb tranzisztorok alacsonyabb feszültségen működnek. A feszültség csökkenése viszont a hőellenállás csökkenéséhez vezet, ami csökkenti a termelt hő mennyiségét. A folyamattechnológia fejlesztése lehetővé teszi a chip funkcionális blokkjai közötti távolság csökkentését, és kevesebb időt vesz igénybe az adatátvitel. A rövidebb távolságok, az alacsonyabb feszültségek és egyéb fejlesztések magasabb órajel elérését teszik lehetővé.

Némileg bonyolítja annak megértését, hogy ma a mikrométereket (µm) és a nanométereket (nm) is használják a folyamattechnológia megjelölésére. Valójában minden nagyon egyszerű: 1 nanométer egyenlő 0,001 mikrométerrel, tehát a 0,09 mikronos és a 90 nm-es gyártási folyamatok ugyanazok. Amint fentebb megjegyeztük, a kisebb folyamattechnológia lehetővé teszi magasabb órajel elérését. Például, ha összehasonlítjuk a 0,18 mikronos és a 0,09 mikronos (90 nm-es) chipekkel rendelkező videokártyákat, akkor egy 90 nm-es kártyától teljesen ésszerű magasabb frekvenciát várni.

GPU órajel

A GPU órajelét megahertzben (MHz) mérik, ami több millió ciklus másodpercenként.

Az órajel közvetlenül befolyásolja a GPU teljesítményét. Minél magasabb, annál több munka végezhető el másodpercenként. Első példának vegyük az nVidia GeForce 6600 és 6600 GT videokártyákat: a 6600 GT grafikus processzor 500 MHz-en, míg a normál 6600-as kártya 400 MHz-en működik. Mivel a processzorok műszakilag azonosak, a 6600 GT órajelének 20%-os növelése jobb teljesítményt eredményez.

De az órajel nem minden. Ne feledje, hogy a teljesítményt nagyban befolyásolja az architektúra. A második példaként vegyük a GeForce 6600 GT és GeForce 6800 GT videokártyákat. A 6600 GT GPU frekvenciája 500 MHz, de a 6800 GT csak 350 MHz-en fut. Most vegyük figyelembe, hogy a 6800 GT 16 pixeles csővezetéket használ, míg a 6600 GT csak nyolcat. Ezért egy 6800 GT 16 pipeline 350 MHz-en nagyjából ugyanolyan teljesítményt nyújt, mint egy nyolc pipeline processzor és kétszer akkora órajel (700 MHz). Ezzel együtt az órajel használható a teljesítmény összehasonlítására.

Helyi videomemória

A grafikus kártya memóriája nagy hatással van a teljesítményre. De a különböző memóriabeállítások eltérően hatnak.

Videó memória

A videomemória mennyisége valószínűleg a videokártya paraméterének nevezhető, amit leginkább túlbecsülnek. A tapasztalatlan fogyasztók gyakran használják a videomemória mennyiségét a különböző kártyák összehasonlítására, de a valóságban ez a mennyiség kevéssé befolyásolja a teljesítményt az olyan paraméterekhez képest, mint a memóriabusz-frekvencia és az interfész (buszszélesség).

A legtöbb esetben egy 128 MB videomemóriával rendelkező kártya majdnem ugyanolyan teljesítményt nyújt, mint a 256 MB-os kártya. Természetesen vannak olyan helyzetek, amikor a több memória jobb teljesítményt eredményez, de ne feledje, hogy a több memória nem növeli automatikusan a játék sebességét.

A hangerő hasznos a nagy felbontású textúrájú játékokban. A játékfejlesztők több textúrakészletet is tartalmaznak a játékhoz. És minél több memória van a videokártyán, annál nagyobb felbontásúak lehetnek a betöltött textúrák. A nagy felbontású textúrák nagyobb felbontást és részletességet biztosítanak a játékban. Ezért teljesen ésszerű nagy memóriamennyiségű kártyát venni, ha minden más kritérium megegyezik. Emlékezzünk vissza még egyszer, hogy a memóriabusz szélessége és frekvenciája sokkal erősebb hatással van a teljesítményre, mint a kártyán lévő fizikai memória mennyisége.

Memóriabusz szélesség

A memóriabusz szélessége a memória teljesítményének egyik legfontosabb szempontja. A modern buszok szélessége 64 bittől 256 bitig terjed, sőt esetenként 512 bites is. Minél szélesebb a memóriabusz, annál több információt tud átvinni óránként. És ez közvetlenül befolyásolja a teljesítményt. Például, ha két azonos frekvenciájú buszt veszünk, akkor elméletileg egy 128 bites busz órajelenként kétszer annyi adatot továbbít, mint egy 64 bites. A 256 bites busz kétszer akkora.

A nagyobb buszsávszélesség (bitben vagy bájtban másodpercenként, 1 bájt = 8 bit) jobb memóriateljesítményt biztosít. Éppen ezért a memóriabusz sokkal fontosabb, mint a mérete. Egyenlő frekvenciákon a 64 bites memóriabusz csak 25%-án működik a 256 bitesnek!

Vegyük a következő példát. A 128 MB videomemóriával, de 256 bites busszal rendelkező videokártya sokkal jobb memóriateljesítményt nyújt, mint egy 512 MB-os modell 64 bites busszal. Fontos megjegyezni, hogy az ATi X1x00 sorozat egyes kártyáinál a gyártók megadják a belső memóriabusz specifikációit, de minket a külső busz paraméterei érdekelnek. Például az X1600 belső gyűrűs busza 256 bit széles, a külső viszont csak 128 bit széles. És a valóságban a memóriabusz 128 bites teljesítménnyel működik.

Memória típusok

A memória két fő kategóriába sorolható: SDR (egyszeri adatátvitel) és DDR (kettős adatátvitel), amelyekben az adatátvitel óránként kétszer gyorsabban történik. Ma az SDR egyátviteli technológia elavult. Mivel a DDR memória kétszer olyan gyorsan továbbítja az adatokat, mint az SDR, fontos megjegyezni, hogy a DDR memóriával rendelkező videokártyák gyakran kétszeres frekvenciát jeleznek, nem a fizikait. Például, ha a DDR-memória 1000 MHz-en szerepel, akkor ez az a tényleges frekvencia, amelyen a normál SDR-memóriának futnia kell, hogy ugyanazt a sávszélességet biztosítsa. De valójában a fizikai frekvencia 500 MHz.

Emiatt sokan meglepődnek, amikor a videokártya memóriája 1200 MHz-es DDR-en szerepel, míg a közművek 600 MHz-en. Szóval meg kell szokni. A DDR2 és GDDR3/GDDR4 memória ugyanazon az elven működik, azaz kettős adatátvitellel. A DDR, DDR2, GDDR3 és GDDR4 memória közötti különbség a gyártástechnológiában és néhány részletben rejlik. A DDR2 magasabb frekvencián tud működni, mint a DDR memória, a DDR3 pedig még magasabb frekvencián, mint a DDR2.

Memóriabusz frekvencia

A processzorokhoz hasonlóan a memória (pontosabban a memóriabusz) bizonyos, megahertzben mért órajelen működik. Itt az órajelek növelése közvetlenül befolyásolja a memória teljesítményét. A memóriabusz frekvenciája pedig az egyik paraméter, amelyet a videokártyák teljesítményének összehasonlítására használnak. Például, ha az összes többi jellemző (memóriabusz szélessége stb.) megegyezik, akkor teljesen logikus azt mondani, hogy egy 700 MHz-es memóriával rendelkező videokártya gyorsabb, mint egy 500 MHz-es.

Ismétlem, az órajel nem minden. A 700 MHz-es memória 64 bites busszal lassabb lesz, mint a 400 MHz-es memória 128 bites busszal. A 400 MHz-es memória teljesítménye 128 bites buszon megközelítőleg egy 64 bites buszon lévő 800 MHz-es memóriának felel meg. Ne feledje azt is, hogy a GPU és a memória frekvenciája teljesen különböző paraméterek, és általában eltérőek.

Videokártya interfész

A videokártya és a processzor között átvitt összes adat áthalad a videokártya interfészén. Ma háromféle interfészt használnak a videokártyákhoz: PCI, AGP és PCI Express. Sávszélességben és egyéb jellemzőikben különböznek. Nyilvánvaló, hogy minél nagyobb a sávszélesség, annál magasabb az árfolyam. Nagy sávszélességet azonban csak a legmodernebb kártyák tudnak használni, és akkor is csak részben. Valamikor az interfész sebessége megszűnt "szűk keresztmetszet" lenni, ma már egyszerűen elég.

A leglassabb busz, amelyhez videokártyákat gyártottak, a PCI (Peripheral Components Interconnect). A történelembe való belemenés nélkül persze. A PCI nagyon rontotta a videokártyák teljesítményét, ezért áttértek az AGP (Accelerated Graphics Port) interfészre. De még az AGP 1.0 és 2x specifikációi is korlátozták a teljesítményt. Amikor a szabvány AGP 4x-re növelte a sebességet, elkezdtük megközelíteni a videokártyák által használható sávszélesség gyakorlati határát. Az AGP 8x specifikációja ismét megduplázta a sávszélességet az AGP 4x-hez képest (2,16 GB/s), de a grafikus teljesítményben nem értünk észrevehető növekedést.

A legújabb és leggyorsabb busz a PCI Express. Az újabb grafikus kártyák általában a PCI Express x16 interfészt használják, amely 16 PCI Express sávot kombinál 4 GB/s teljes sávszélességgel (egy irányban). Ez kétszerese az AGP 8x átviteli sebességének. A PCI Express busz az említett sávszélességet mindkét irányban (adatátvitel a videokártyára és a videokártyáról) adja. De az AGP 8x szabvány sebessége már elég volt, így még nem láttunk olyan helyzetet, hogy a PCI Expressre váltás teljesítménynövekedést adna az AGP 8x-hoz képest (ha a többi hardver paraméter megegyezik). Például a GeForce 6800 Ultra AGP változata ugyanúgy fog működni, mint a 6800 Ultra for PCI Express.

Ma a legjobb, ha PCI Express interfésszel rendelkező kártyát veszünk, ez még évekig kibírja a piacon. A legproduktívabb kártyák már nem az AGP 8x interfésszel készülnek, és a PCI Express megoldások általában már könnyebben megtalálhatók, mint az AGP analógok, és olcsóbbak.

Multi-GPU megoldások

Több grafikus kártya használata a grafikus teljesítmény növelésére nem új ötlet. A 3D grafika korai időszakában a 3dfx két párhuzamosan futó grafikus kártyával lépett a piacra. A 3dfx eltűnésével azonban feledésbe merült a több fogyasztói videokártya együttdolgozásának technológiája, bár az ATi a Radeon 9700 megjelenése óta gyárt hasonló rendszereket professzionális szimulátorokhoz. Pár éve a technológia visszatért a piacra. az nVidia SLI megoldások, majd kicsit később az ATi Crossfire megjelenése.

Több grafikus kártya megosztása elegendő teljesítményt biztosít ahhoz, hogy a játék kiváló minőségi beállítások mellett, nagy felbontásban is futhasson. De egyiket vagy másikat választani nem könnyű.

Kezdjük azzal, hogy a több videokártyára épülő megoldások sok energiát igényelnek, tehát a tápnak kellően erősnek kell lennie. Mindezt a hőt el kell távolítani a videokártyáról, ezért figyelni kell a PC házára és a hűtésére, hogy a rendszer ne melegedjen túl.

Ne feledje továbbá, hogy az SLI/CrossFire megfelelő alaplapot igényel (akár egyik, akár másik technológiához), ami általában drágább, mint a szabványos modellek. Az nVidia SLI konfiguráció csak bizonyos nForce4 kártyákon működik, míg az ATi CrossFire kártyák csak CrossFire lapkakészlettel rendelkező alaplapokon vagy egyes Intel modelleken. Tovább rontja a helyzetet, hogy egyes CrossFire konfigurációk megkövetelik, hogy az egyik kártya különleges legyen: a CrossFire Edition. A CrossFire megjelenése után egyes videokártya-modelleknél az ATi lehetővé tette a PCI Express buszon keresztüli együttműködés technológiájának beépítését, az új illesztőprogram-verziók megjelenésével pedig megnő a lehetséges kombinációk száma. De a hardver CrossFire a megfelelő CrossFire Edition kártyával jobb teljesítményt nyújt. De a CrossFire Edition kártyák drágábbak is, mint a hagyományos modellek. Jelenleg a CrossFire szoftver mód (CrossFire Edition kártya nélkül) engedélyezhető a Radeon X1300, X1600 és X1800 GTO grafikus kártyákon.

Más tényezőket is figyelembe kell venni. Bár a két grafikus kártya együtt működik, teljesítménynövekedést ad, de ez közel sem duplája. De kétszer annyi pénzt fog fizetni. Leggyakrabban a termelékenység növekedése 20-60%. És bizonyos esetekben az egyeztetés további számítási költségei miatt egyáltalán nincs nyereség. Emiatt nem valószínű, hogy a többkártyás konfigurációk kifizetődőek az olcsó modellekkel, mivel egy drágább videokártya általában mindig felülmúl egy pár olcsó kártyát. Általában a legtöbb fogyasztó számára nincs értelme az SLI / CrossFire megoldásnak. De ha az összes minőségjavítási lehetőséget szeretné engedélyezni, vagy extrém felbontáson szeretne játszani, például 2560x1600-as felbontással, amikor képkockánként több mint 4 millió pixelt kell számolnia, akkor két vagy négy párosított videokártya nélkülözhetetlen.

Vizuális jellemzők

A tisztán hardveres specifikációk mellett a GPU-k különböző generációi és modelljei funkciókészletekben is eltérhetnek. Például gyakran mondják, hogy az ATi Radeon X800 XT generációs kártyák kompatibilisek a Shader Model 2.0b-vel (SM), míg az nVidia GeForce 6800 Ultra kompatibilis az SM 3.0-val, bár hardverspecifikációik közel állnak egymáshoz (16 pipeline) . Ezért sok fogyasztó dönt egyik vagy másik megoldás mellett, anélkül, hogy tudná, mit jelent ez a különbség.

Microsoft DirectX és Shader Model verziók

Ezeket a neveket leggyakrabban vitákban használják, de kevesen tudják, mit jelentenek valójában. A megértéshez kezdjük a grafikus API-k történetével. A DirectX és az OpenGL grafikus API-k, azaz Application Programming Interfaces – mindenki számára elérhető nyílt kódú szabványok.

A grafikus API-k megjelenése előtt minden GPU-gyártónak saját mechanizmusa volt a játékokkal való kommunikációhoz. A fejlesztőknek külön kódot kellett írniuk minden egyes támogatni kívánt GPU-hoz. Nagyon költséges és nem hatékony megközelítés. A probléma megoldására 3D grafikus API-kat fejlesztettek ki, hogy a fejlesztők egy adott API-hoz írjanak kódot, és ne ehhez vagy ahhoz a videokártyához. Ezt követően a kompatibilitási problémák a videokártya-gyártók vállára kerültek, akiknek gondoskodniuk kellett arról, hogy a meghajtók kompatibilisek legyenek az API-val.

Az egyetlen bonyodalom, hogy ma két különböző API-t használnak, mégpedig a Microsoft DirectX-et és az OpenGL-t, ahol a GL a Graphics Library (grafikus könyvtár) rövidítése. Mivel manapság a DirectX API népszerűbb a játékokban, erre fogunk összpontosítani. Ez a szabvány pedig erősebben befolyásolta a játékok fejlődését.

A DirectX a Microsoft alkotása. Valójában a DirectX számos API-t tartalmaz, amelyek közül csak egyet használnak 3D-s grafikákhoz. A DirectX API-kat tartalmaz a hanghoz, zenéhez, beviteli eszközökhöz és sok máshoz. A Direct3D API felelős a DirectX 3D grafikájáért. Amikor videokártyákról beszélnek, pontosan azt értik, ezért ebből a szempontból a DirectX és a Direct3D fogalma felcserélhető.

A DirectX rendszeres időközönként frissül, ahogy a grafikai technológia fejlődik, és a játékfejlesztők új játékprogramozási technikákat vezetnek be. Ahogy a DirectX népszerűsége gyorsan nőtt, a GPU-gyártók elkezdték az új termékkiadásokat a DirectX képességeihez igazítani. Emiatt a videokártyákat gyakran a DirectX egyik vagy másik generációjának hardveres támogatásához kötik (DirectX 8, 9.0 vagy 9.0c).

A helyzetet tovább bonyolítja, hogy a Direct3D API egyes részei idővel változhatnak a DirectX generációinak megváltoztatása nélkül. A DirectX 9.0 specifikációja például a Pixel Shader 2.0 támogatását írja elő. De a DirectX 9.0c frissítés tartalmazza a Pixel Shader 3.0-t. Tehát bár a kártyák a DirectX 9 osztályba tartoznak, különféle funkciókat támogathatnak. Például a Radeon 9700 támogatja a Shader Model 2.0-t, a Radeon X1800 pedig a Shader Model 3.0-t, bár mindkét kártya a DirectX 9 generációhoz sorolható.

Ne feledje, hogy új játékok létrehozásakor a fejlesztők figyelembe veszik a régi gépek és videokártyák tulajdonosait, mert ha figyelmen kívül hagyja ezt a felhasználói szegmenst, akkor az eladások alacsonyabbak lesznek. Emiatt több kódút is be van építve a játékokba. Egy DirectX 9 osztályú játékban nagy valószínűséggel lesz DirectX 8 elérési út és még DirectX 7 elérési út is a kompatibilitás érdekében.Általában ha a régi utat választjuk, akkor néhány virtuális effekt, ami az új videokártyákon van, eltűnik a játékban. De legalább még a régi hardveren is lehet játszani.

Sok új játékhoz a DirectX legújabb verzióját kell telepíteni, még akkor is, ha a grafikus kártya előző generációs. Vagyis egy új játékhoz, amely a DirectX 8 útvonalat használja, továbbra is a DirectX 9 legújabb verzióját kell telepíteni egy DirectX 8 osztályú grafikus kártyára.

Mi a különbség a Direct3D API különböző verziói között a DirectX-ben? A DirectX korai verziói – 3, 5, 6 és 7 – viszonylag egyszerűek voltak a Direct3D API tekintetében. A fejlesztők egy listából választhatnak vizuális effektusokat, majd ellenőrizhetik a játékban végzett munkájukat. A grafikus programozás következő nagy lépése a DirectX 8 volt. Ez bevezette a grafikus kártya shaderekkel történő programozásának lehetőségét, így a fejlesztők először szabadon programozhatták az effektusokat úgy, ahogy akarták. A DirectX 8 támogatja a Pixel Shader 1.0–1.3 és a Vertex Shader 1.0 verzióit. A DirectX 8.1, a DirectX 8 frissített verziója megkapta a Pixel Shader 1.4-et és a Vertex Shader 1.1-et.

A DirectX 9-ben még összetettebb shader programokat készíthet. A DirectX 9 támogatja a Pixel Shader 2.0-t és a Vertex Shader 2.0-t. A DirectX 9c, a DirectX 9 frissített verziója tartalmazza a Pixel Shader 3.0 specifikációt.

A DirectX 10, az API közelgő verziója a Windows Vista új verzióját fogja kísérni. A DirectX 10 nem telepíthető Windows XP rendszeren.

HDR világítás és OpenEXR HDR

A HDR a "High Dynamic Range" rövidítése, nagy dinamikatartomány. A HDR megvilágítású játék sokkal valósághűbb képet tud adni, mint a nélküle, és nem minden grafikus kártya támogatja a HDR világítást.

A DirectX 9-osztályú grafikus kártyák megjelenése előtt a GPU-kat erősen korlátozta világítási számításaik pontossága. A világítást eddig csak 256 (8 bites) belső szinttel lehetett kiszámítani.

Amikor megjelentek a DirectX 9-osztályú grafikus kártyák, képesek voltak nagy pontosságú világítást létrehozni – teljes 24 bitet vagy 16,7 millió szintet.

A 16,7 millió szinttel és a DirectX 9/Shader Model 2.0 osztályú grafikus kártya teljesítményének következő lépésével a HDR világítás számítógépeken is lehetséges. Ez egy meglehetősen összetett technológia, és dinamikusan kell figyelni. Egyszerűen fogalmazva, a HDR világítás növeli a kontrasztot (a sötét árnyalatok sötétebbnek, a világos árnyalatok világosabbnak tűnnek), ugyanakkor növeli a megvilágítás részleteit a sötét és világos területeken. A HDR megvilágítású játék élethűbb és valósághűbb, mint nélküle.

A legújabb Pixel Shader 3.0 specifikációnak megfelelő GPU-k nagyobb 32 bites pontosságú megvilágítási számításokat, valamint lebegőpontos keverést tesznek lehetővé. Így az SM 3.0 osztályú grafikus kártyák támogathatják az OpenEXR speciális, kifejezetten a filmipar számára kialakított HDR világítási módszerét.

Egyes játékok, amelyek csak az OpenEXR módszerrel támogatják a HDR világítást, nem futnak HDR világítással a Shader Model 2.0 grafikus kártyákon. Azonban azok a játékok, amelyek nem támaszkodnak az OpenEXR módszerre, minden DirectX 9 grafikus kártyán működni fognak. Az Oblivion például az OpenEXR HDR módszert használja, és csak a Shader Model 3.0 specifikációt támogató legújabb grafikus kártyákon engedélyezi a HDR világítást. Például nVidia GeForce 6800 vagy ATi Radeon X1800. A Half-Life 2 3D motort használó játékok, mint például a Counter-Strike: Source és a hamarosan megjelenő Half-Life 2: Aftermath, lehetővé teszik a HDR-megjelenítés engedélyezését régebbi DirectX 9 grafikus kártyákon, amelyek csak a Pixel Shader 2.0-t támogatják. Ilyen például a GeForce 5 vonal vagy az ATi Radeon 9500.

Végül ne feledje, hogy a HDR-megjelenítés minden formája komoly feldolgozási teljesítményt igényel, és még a legerősebb GPU-kat is térdre kényszerítheti. Ha a legújabb játékokkal szeretne játszani HDR világítással, a nagy teljesítményű grafika elengedhetetlen.

Teljes képernyős élsimítás

A teljes képernyős élsimítás (rövidítve AA) lehetővé teszi a poligonok határain lévő jellegzetes "létrák" megszüntetését. De ne feledje, hogy a teljes képernyős élsimítás sok számítási erőforrást fogyaszt, ami a képkockasebesség csökkenéséhez vezet.

Az élsimítás nagymértékben függ a videomemória teljesítményétől, így egy gyors, gyors memóriával rendelkező videokártya képes lesz a teljes képernyős élsimítást kiszámítani, kevesebb teljesítményhatással, mint egy olcsó videokártya. Az élsimítás többféle módban engedélyezhető. Például a 4-szeres élsimítás jobb képet ad, mint a 2-szeres élsimítás, de nagy teljesítményű lesz. Míg a 2x élsimítás megduplázza a vízszintes és függőleges felbontást, a 4x mód megnégyszerezi azt.

Textúraszűrés

A játékban minden 3D objektum texturált, és minél nagyobb a megjelenített felület szöge, annál torzabbnak tűnik a textúra. Ennek a hatásnak a kiküszöbölésére a GPU-k textúraszűrőt használnak.

Az első szűrési módszert bilineárisnak nevezték, és jellegzetes csíkokat adott, amelyek nem voltak túl kellemesek a szemnek. A helyzet a trilineáris szűrés bevezetésével javult. A modern videokártyákon mindkét lehetőség gyakorlatilag teljesítményromlás nélkül működik.

Az anizotróp szűrés (AF) messze a legjobb módja a textúrák szűrésének. Az FSAA-hoz hasonlóan az anizotróp szűrés is különböző szinteken kapcsolható be. Például a 8x AF jobb szűrési minőséget biztosít, mint a 4x AF. Az FSAA-hoz hasonlóan az anizotróp szűréshez is szükség van bizonyos feldolgozási teljesítményre, amely az AF-szint növekedésével növekszik.

Nagy felbontású textúrák

Minden 3D-s játék meghatározott specifikációk szerint épül fel, és ezen követelmények egyike határozza meg, hogy a játéknak milyen textúra memóriára lesz szüksége. Minden szükséges textúrának bele kell férnie a videokártya memóriájába játék közben, különben a teljesítmény drámaian csökken, mivel a RAM-ban lévő textúra elérése jelentős késést ad, nem beszélve a merevlemezen lévő lapozófájlról. Tehát ha egy játékfejlesztő 128 MB VRAM-mal számol minimális követelményként, akkor az aktív textúrakészlet soha nem haladhatja meg a 128 MB-ot.

A modern játékok több textúrakészlettel rendelkeznek, így a játék zökkenőmentesen fog futni régebbi, kevesebb VRAM-mal rendelkező grafikus kártyákon, valamint több VRAM-mal rendelkező újabb kártyákon. Például egy játék három textúrakészletet tartalmazhat: 128 MB, 256 MB és 512 MB. Ma már nagyon kevés olyan játék létezik, amely 512 MB videomemóriát támogat, de még mindig ez a legobjektívebb indok, hogy ekkora memóriával videokártyát vásároljunk. Bár a memória növekedésének alig vagy egyáltalán nincs hatása a teljesítményre, a vizuális minőség javulni fog, ha a játék támogatja a megfelelő textúrakészletet.

Mit kell tudni a videokártyákról?

Kapcsolatban áll

Feladatkezelő Windows 10 részletes felügyeleti eszközöket tartalmaz GPU (GPU). Megtekintheti az egyes alkalmazások és a rendszerszintű GPU használatát, és Microsoft azt ígéri, hogy mutat feladatkezelő pontosabb lesz, mint a harmadik féltől származó segédprogramok.

Hogyan működik

Ezeket a funkciókat GPU bekerültek a frissítésbe Fall Creators for Windows 10 , más néven Windows 10 1709-es verzió . Ha Windows 7, 8 vagy a Windows 10 régebbi verzióját használja, ezek az eszközök nem jelennek meg a Feladatkezelőben.

ablakok a Windows Display Driver Model újabb funkcióit használja az információk közvetlen kinyerésére GPU (VidSCH) és videó memóriakezelő (VidMm) a WDDM grafikus magban, amelyek felelősek az erőforrások tényleges elosztásáért. Nagyon pontos adatokat mutat, függetlenül attól, hogy milyen API-alkalmazásokat használnak a GPU eléréséhez – Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle vagy bármi más.

Ezért be feladatkezelő csak a WDDM 2.0 kompatibilis rendszerek jelennek meg GPU-k . Ha nem látja, akkor a rendszer GPU-ja valószínűleg régebbi típusú illesztőprogramot használ.

Ellenőrizheti, hogy a WDDM melyik verzióját használja az illesztőprogram GPU a Windows gomb + R megnyomásával, írja be a "dxdiag" mezőt, majd nyomja meg az "Enter" billentyűt"Az eszköz megnyitásához" DirectX diagnosztikai eszköz". Lépjen a Képernyő fülre, és nézze meg a Modell jobb oldalán az Illesztőprogramok alatt. Ha itt WDDM 2.x illesztőprogramot lát, akkor a rendszere kompatibilis. Ha lát itt egy WDDM 1.x illesztőprogramot, az Ön GPUösszeegyeztethetetlen.

A GPU teljesítményének megtekintése

Ez az információ itt érhető el feladatkezelő , bár alapértelmezés szerint rejtve van. A megnyitáshoz nyissa meg Feladatkezelő jobb gombbal kattintson a tálcán lévő üres helyre, és válassza a " Feladatkezelő” vagy a Ctrl+Shift+Esc lenyomásával a billentyűzeten.

Kattintson a További részletek gombra az ablak alján Feladatkezelő' ha a normál egyszerű nézetet látja.

Ha egy A GPU nem jelenik meg a feladatkezelőben , teljes képernyős módban a lapon Folyamatok» kattintson jobb gombbal bármelyik oszlop fejlécére, majd engedélyezze a « lehetőséget GPU ". Ez hozzáad egy oszlopot GPU , amely lehetővé teszi az erőforrások százalékos arányának megjelenítését GPU az egyes alkalmazások által használt.

Engedélyezheti a " GPU mag hogy megtudja, melyik GPU-t használja az alkalmazás.

Általános használat GPU A rendszeren lévő összes alkalmazás közül az oszlop tetején jelenik meg GPU. Kattintson egy oszlopra GPU a lista rendezéséhez, és megtekintheti, hogy mely alkalmazások használják GPU jelenleg a legtöbbet.

Szám az oszlopban GPU az alkalmazás által az összes motorhoz használt legmagasabb használat. Így például, ha egy alkalmazás a GPU 3D motorjának 50%-át és a GPU videodekódoló motorjának 2%-át használja, akkor a GPU oszlopban csak az 50%-ot fogja látni.

A " oszlopban GPU mag” jelenik meg minden alkalmazásnál. Megmutatja, mit fizikai GPUés milyen motort használ az alkalmazás, például hogy 3D-s motort vagy videódekódoló motort használ-e. A " Teljesítmény', amiről a következő részben lesz szó.

Egy alkalmazás videomemória-használatának megtekintése

Ha kíváncsi arra, hogy egy alkalmazás mennyi videomemóriát használ, lépjen a Feladatkezelő Részletek lapjára. A Részletek lapon kattintson jobb gombbal bármelyik oszlopfejlécre, és válassza az Oszlopok kiválasztása lehetőséget. Görgessen le, és engedélyezze az oszlopokat " GPU », « GPU mag », « "és" ". Az első kettő a Folyamatok lapon is elérhető, de az utolsó két memóriaopció csak a Részletek panelen érhető el.

" oszlop Dedikált GPU memória » megmutatja, mennyi memóriát használ az alkalmazás az Ön készülékén GPU. Ha a számítógépen különálló NVIDIA vagy AMD grafikus kártya van, akkor ez a VRAM része, vagyis mennyi fizikai memóriát használ egy alkalmazás a grafikus kártyán. Ha van integrált grafikus processzor , a normál rendszermemória egy része kizárólag a grafikus hardver számára van fenntartva. Ez azt mutatja, hogy a lefoglalt memória mekkora részét használja az alkalmazás.

ablakok lehetővé teszi az alkalmazások számára, hogy bizonyos adatokat a rendszeres DRAM-ban tároljanak. " oszlop Megosztott GPU memória ' megmutatja, hogy az alkalmazás jelenleg mennyi memóriát használ a videoeszközökhöz a számítógép normál rendszer-RAM-jából.

Bármelyik oszlopra kattintva rendezheti őket, és megnézheti, melyik alkalmazás használja a legtöbb erőforrást. Például a GPU-n a legtöbb videomemóriát használó alkalmazások megtekintéséhez kattintson a " Dedikált GPU memória ».

A GPU megosztás használatának nyomon követése

Az általános erőforrás-használati statisztikák nyomon követése GPU, menj a " Teljesítmény'és nézd' GPU» az oldalsáv alján. Ha számítógépe több GPU-val rendelkezik, itt több lehetőséget is láthat GPU.

Ha több összekapcsolt GPU-ja van – olyan funkció használatával, mint az NVIDIA SLI vagy az AMD Crossfire, akkor a nevükben „#” jellel azonosíthatja őket.

ablakok használatot jeleníti meg GPU valós időben. Alapértelmezett Feladatkezelő megpróbálja megjeleníteni a legérdekesebb négy motort a rendszereden történt események alapján. Például különböző grafikákat fog látni attól függően, hogy 3D-s játékokkal játszik vagy videókat kódol. Azonban rákattinthat a grafikonok feletti bármelyik névre, és kiválaszthatja a többi elérhető motort.

Az Ön neve GPU Az oldalsávban és az ablak tetején is megjelenik, így könnyen ellenőrizhető, hogy milyen grafikus hardver van telepítve a számítógépére.

Dedikált és megosztott memóriahasználati grafikonokat is láthat majd GPU. Megosztott memóriahasználat GPU arra utal, hogy a rendszer teljes memóriájából mennyit használnak fel feladatokra GPU. Ez a memória normál rendszerfeladatokhoz és videofelvételekhez egyaránt használható.

Az ablak alján olyan információk jelennek meg, mint a telepített videó-illesztőprogram verziószáma, a fejlesztés dátuma és a fizikai hely. GPU a rendszerén.

Ha ezt az információt egy kisebb ablakban szeretné megtekinteni, amelyet könnyebb a képernyőn hagyni, kattintson duplán bárhol a GPU képernyőjén, vagy kattintson a jobb gombbal bárhová, és válassza ki a lehetőséget. Grafikus összefoglaló". Maximalizálhatja az ablak méretét, ha duplán kattint a panelre, vagy jobb gombbal kattintson rá, és törölje a " Grafikus összefoglaló».

Ha csak egy motorgrafikont szeretne megtekinteni, kattintson a jobb gombbal a diagramra, és válassza a Grafikon szerkesztése > Egymagos lehetőséget GPU.

Ha azt szeretné, hogy ez az ablak állandóan megjelenjen a képernyőn, kattintson az "Opciók" > " A többi ablak tetején».

Kattintson duplán a sávon belülre GPU még egyszer, és van egy minimális ablak, amelyet bárhol elhelyezhet a képernyőn.

Szép napot mindenkinek, kedves barátaim és blogom vendégeim. Ma a számítógépeink hardveréről szeretnék beszélni egy kicsit. Kérem, mondja meg, hallott már olyanról, hogy GPU? Kiderült, hogy sokan most hallanak először ilyen rövidítést.

Bármilyen elcsépeltnek is hangzik, de ma egy korszakot élünk számítógépes technológia, és néha nehéz találni valakit, akinek fogalma sincs a számítógép működéséről. Így például elég, ha valaki rájön, hogy a számítógép annak köszönhetően működik processzor(PROCESSZOR).

Valaki továbbmegy, és megtudja, hogy van egy bizonyos GPU is. Ilyen bonyolult rövidítés, de hasonló az előzőhöz. Tehát nézzük meg, mi a GPU a számítógépben, mik azok, és milyen különbségek vannak a CPU-hoz képest.

Nem nagy különbség

Egyszerű szavakkal, A GPU egy grafikus feldolgozó egység, amelyet néha videokártyának is neveznek, ami részben hiba. A videokártya egy kész komponens eszköz, amely tartalmazza az általunk leírt processzort. Képes a parancsok formázásra történő feldolgozására 3D grafika. Érdemes megjegyezni, hogy ennek kulcseleme, teljesítményétől függ a videórendszer egészének sebessége és különféle képességei.

A GPU-nak megvan a sajátja megkülönböztető jellegzetességek CPU megfelelőjéhez képest. A fő különbség az építészetben rejlik, amelyre épül. A GPU architektúráját úgy építették fel, hogy lehetővé tegye nagy mennyiségű adat hatékonyabb feldolgozását. A CPU pedig egymás után dolgozza fel az adatokat és a feladatokat. Természetesen ezt a funkciót nem szabad mínuszként venni.

A GPU-k típusai

Nem sok fajta grafikus processzor létezik, az egyiket diszkrétnek nevezik, és azon használják egyedi modulok. Egy ilyen chip elég erős, ezért radiátorokból, hűtőkből álló hűtőrendszert igényel, folyadékhűtés különösen terhelt rendszerekben használható.

Napjainkban jelentős lépést figyelhetünk meg a grafikus komponensek fejlesztésében, ennek oka a GPU-k nagyszámú típusának megjelenése. Ha korábban bármilyen számítógépet külön grafikával kellett felszerelni, hogy hozzáférjen a játékokhoz vagy másokhoz grafikus alkalmazások, most egy ilyen feladatot az IGP - integrált grafikus processzor tud elvégezni.

Integrált grafikát ma már szinte minden számítógéphez mellékelünk (a szerverek kivételével), legyen az laptop vagy asztali számítógép. Maga a videoprocesszor a CPU-ba van beépítve, ami jelentősen csökkentheti az energiafogyasztást és magának a készüléknek az árát. Ezenkívül az ilyen grafika más alfajokban is lehet, például: diszkrét vagy hibrid-diszkrét.

Az első lehetőség a legdrágább megoldást jelenti, a vezetékezést alaplap vagy külön mobil modul. A második opciót okkal hívják hibridnek, valójában egy kisméretű videomemóriát használ, amely a táblára van forrasztva, de ugyanakkor képes bővíteni a RAM segítségével.

Természetesen az ilyen grafikus megoldások nem egyezhetnek meg a teljes értékű diszkrét videokártyákkal, de még most is elég jó teljesítményt mutat. A fejlesztőknek mindenesetre van mire törekedniük, talán egy ilyen döntésé a jövő.

Nos, nagyjából ennyi van. Remélem tetszett a cikk! Várlak újra a blogomon. Sok szerencsét. Viszlát!