През 2016 г. най-накрая се оправдаха надеждите за пълноценна смяна на поколенията в графичните процесори, които преди това бяха възпрепятствани от липсата на производствени възможности, необходими за производството на чипове със значително по-висока плътност на транзисторите и тактови честоти, отколкото позволява доказаната 28 nm технология. 20nm технологията, на която се надявахме преди две години, се оказа комерсиално нерентабилна за чипове с големина като дискретни графични процесори. Тъй като TSMC и Samsung, които можеха да бъдат изпълнители на AMD и NVIDIA, не използваха FinFET при 20nm, потенциалното увеличение на производителността на ват над 28nm беше такова, че и двете компании предпочетоха да изчакат масовото приемане на 14/16-nm норми, вече използвайки FinFET.

Изминаха обаче години на досадно чакане и сега можем да оценим как производителите на GPU са се разпоредили с възможностите на актуализирания технически процес. Както отново показа практиката, "нанометрите" сами по себе си не гарантират висока енергийна ефективност на чипа, така че новите архитектури на NVIDIA и AMD се оказаха много различни по този параметър. А допълнителна интрига внесе фактът, че компаниите вече не използват услугите на една фабрика (TSMC), както беше в предишни години. AMD избра GlobalFoundries за производство на Polaris GPU, базирани на 14nm FinFET технология. NVIDIA, от друга страна, все още си сътрудничи с TSMC, който има 16nm FinFET процес, за всички Pascal чипове с изключение на GP107 от ниския клас (който Samsung прави). Това беше 14nm FinFET линията на Samsung, която някога беше лицензирана от GlobalFoundries, така че GP107 и съперникът му Polaris 11 ни дават удобна възможност да сравним инженерните постижения на AMD и NVIDIA на подобна производствена база.

Въпреки това няма да навлизаме преждевременно в технически подробности. Като цяло предложенията на двете компании, базирани на GPU от следващо поколение, са следните. NVIDIA създаде пълна гама от архитектурни ускорители на Pascal, базирани на три GPU за потребителски клас - GP107, GP106 и GP104. Въпреки това, мястото на флагманския адаптер, който със сигурност ще получи името GeForce GTX 1080 Ti, в момента е вакантен. Кандидат за тази позиция е карта с процесор GP102, който засега се използва само в "просумер" ускорителя TITAN X на NVIDIA. Изчислителните ускорители на Tesla.

Успехът на AMD досега е по-скромен. Бяха пуснати два процесора от семейството Polaris, продуктите, базирани на които принадлежат към по-ниските и средните категории графични карти за игри. Горните ешелони ще бъдат заети от предстоящото семейство графични процесори Vega, които се очаква да включват цялостно надградена GCN архитектура (докато Polaris не е толкова различен от 28nm чиповете Fiji и Tonga от тази гледна точка).

NVIDIA Tesla P100 и новият TITAN X

Благодарение на усилията на Дженсън Хуанг, постоянен ръководител на NVIDIA, компанията вече се позиционира като производител на изчислителни процесори с общо предназначение не по-малко от производител на графични процесори за игри. Сигналът, че NVIDIA приема суперкомпютърния бизнес по-сериозно от всякога, беше разделянето на линията Pascal GPU на позиции за игри, от една страна, и позиции за изчисления, от друга.

След като 16nm FinFET процесът стартира в TSMC, NVIDIA положи първите си усилия в суперкомпютърния чип GP100, който дебютира преди потребителската продуктова линия на Pascal.

GP100 разполага с безпрецедентен брой транзистори (15,3 милиарда) и шейдър ALU (3840 CUDA ядра). Това е и първият ускорител, който е оборудван с HBM2 памет (16 GB), комбинирана със силициев GPU. GP100 се използва като част от ускорителите Tesla P100, първоначално ограничени до суперкомпютри поради специален форм фактор с шината NVLINK, но по-късно NVIDIA пусна Tesla P100 в стандартен формат на разширителна платка PCI Express.

Първоначално експертите предположиха, че P100 може да се появи в графични карти за игри. NVIDIA, очевидно, не отрече тази възможност, тъй като чипът има пълноценен конвейер за изобразяване на 3D графики. Но сега е ясно, че е малко вероятно някога да надхвърли компютърната ниша. За графики NVIDIA има сестрински продукт, GP102, който има същия набор от шейдърни ALU, преобразуватели на текстури и ROP като GP100, но му липсва баластът на голям брой 64-битови CUDA ядра, да не говорим за други архитектурни промени (по-малко програмисти, пресечен L2 кеш и т.н.). Резултатът е по-компактно (12 милиарда транзистора) ядро, което, заедно с изоставянето на паметта HBM2 в полза на GDDR5X, позволи на NVIDIA да разшири GP102 до по-широк пазар.

Сега GP102 е запазен за ускорителя TITAN X prosumer (да не се бърка с GeForce GTX TITAN X, базиран на чипа GM200 с архитектура Maxwell), който е позициониран като платка за изчисления с намалена точност (в диапазона от 8 до 32 бита, сред които 8 и 16 са любимото задълбочено обучение на NVIDIA) дори повече, отколкото за игри, въпреки че богатите геймъри могат да закупят видеокарта за $ 1200. Наистина, в нашите тестове за игри, TITAN X не оправдава цената си с 15-20 процента предимство пред GeForce GTX 1080, но на помощ идва овърклокването. Ако сравним овърклокнатия GTX 1080 и TITAN X, последният вече ще бъде с 34% по-бърз. Въпреки това, новият флагман за игри, базиран на GP102, най-вероятно ще има по-малко активни изчислителни единици или ще загуби поддръжка за всякакви изчислителни функции (или и двете).

Като цяло, пускането на масивни графични процесори като GP100 и GP102 в началото на 16nm FinFET процеса е голямо постижение за NVIDIA, особено предвид предизвикателствата, пред които е изправена компанията в периода от 40nm и 28nm.

NVIDIA GeForce GTX 1070 и 1080

NVIDIA пусна своята линия геймърски ускорители от серия GeForce 10 в обичайната си последователност - от най-много мощни моделикъм по-бюджетните. GeForce GTX 1080 и други карти за игри с архитектура Pascal, които бяха пуснати оттогава, най-ясно показват, че NVIDIA е използвала напълно възможностите на 14/16 nm FinFET процеса, за да направи чиповете по-плътни и енергийно ефективни.

В допълнение, чрез създаването на Pascal, NVIDIA не само увеличи производителността при различни изчислителни задачи (както показа примерът на GP100 и GP102), но също така допълни архитектурата на чипа Maxwell с функции, които оптимизират графичното изобразяване.

Обърнете внимание на основните нововъведения:

  • подобрена компресия на цветовете със съотношения до 8:1;
  • функцията за едновременна мултипроекция на PolyMorph Engine, която ви позволява да създавате до 16 проекции на геометрията на сцената с едно преминаване (за VR и системи с множество дисплеи в NVIDIA Surround конфигурация);
  • способността за прекъсване (предварително изключване) в процеса на изпълнение на повикване за изтегляне (при рендиране) и поток от команди (по време на изчисления), което заедно с динамичното разпределение на изчислителните ресурси на GPU осигурява пълна подкрепаасинхронно изчисление (Async Compute) - допълнителен източник на производителност в игрите под DirectX 12 API и намалена латентност във VR.

Последната точка е особено интересна, тъй като чиповете Maxwell бяха технически съвместими с асинхронни изчисления (едновременна работа с изчислителните и графичните командни опашки), но производителността в този режим остави много да се желае. Асинхронните изчисления в Pascal работят според очакванията, позволявайки по-ефективно зареждане на графичния процесор в игри с отделна нишка за физични изчисления (въпреки че, разбира се, за чиповете на NVIDIA проблемът с пълното зареждане на шейдърните ALU не е толкова остър, колкото за AMD GPU).

Процесорът GP104, използван в GTX 1070 и GTX 1080, е наследник на GM204 (чипът от второ ниво в семейството Maxwell), но NVIDIA е постигнала толкова високи тактови скорости, че GTX 1080 превъзхожда GTX TITAN X (базиран на по-голям GPU) средно с 29% и всичко това в рамките на по-консервативен термичен пакет (180 срещу 250 вата). Дори GTX 1070, която е по-силно нарязана, отколкото GTX 970 беше нарязана в сравнение с GTX 980 (и GTX 1070 използва GDDR5 вместо GDDR5X в GTX 1080), все още е с 5% по-бърза от GTX TITAN Х.

NVIDIA актуализира контролера на дисплея в Pascal, който вече е съвместим с DisplayPort 1.3 / 1.4 и HDMI 2.b интерфейси, което означава, че ви позволява да извеждате картина с по-висока разделителна способност или честота на опресняване през един кабел - до 5K при 60 Hz или 4K при 120 Hz. 10/12-битовото цветово представяне осигурява поддръжка за динамичен обхват (HDR) на малкото екрани, които все още са способни на това. Специализираният хардуерен блок Pascal е способен да кодира и декодира HEVC (H.265) видео с резолюция до 4K, 10-битов цвят (12-битово декодиране) и 60Hz.

И накрая, Pascal премахна ограниченията на предишната версия на SLI шината. Разработчиците повишиха честотата на интерфейса и пуснаха нов, двуканален мост.

Можете да прочетете повече за тези характеристики на архитектурата Pascal в нашия преглед на GeForce GTX 1080. Въпреки това, преди да преминем към други нови продукти от изминалата година, струва си да споменем, че в 10-та линия GeForce NVIDIA за първи път ще пусне референтни дизайнерски карти за целия живот на съответните модели. Сега те се наричат ​​Founders Edition и се продават на повече от препоръчителната цена на дребно за партньорски карти. Например GTX 1070 и GTX 1080 имат препоръчителни цени от $379 и $599 (вече по-високи от GTX 970 и GTX 980 в тяхната младост), докато Founders Editions са на цени от $449 и $699.

GeForce GTX 1050 и1060

Чипът GP106 разпространи архитектурата Pascal в масовия сегмент на гейминг ускорителите. Функционално той не се различава от по-старите модели, а по отношение на броя на изчислителните единици е половината от GP104. Вярно е, че GP106, за разлика от GM206 (който беше половината от GM204), използва 192-битова шина на паметта. В допълнение, NVIDIA премахна SLI конекторите от платката GTX 1060, което разстрои феновете на постепенното надграждане на видео подсистемата: когато този ускорител изчерпи възможностите си, вече не можете да добавите втора видеокарта към него (с изключение на тези DirectX 12 игри които ви позволяват да разпределите натоварването между GPU, заобикаляйки драйверите).

GTX 1060 първоначално беше оборудван с 6 GB GDDR5, напълно функционален чип GP106 и беше пуснат в продажба за $249/299 (съответно партньорски карти и Founders Edition). Но тогава NVIDIA пусна видеокарта с 3 GB памет и препоръчителна цена от $199, което също намали броя на изчислителните единици. И двете графични карти имат атрактивен TDP от 120W, а по отношение на скоростта са аналогични на GeForce GTX 970 и GTX 980.

GeForce GTX 1050 и GTX 1050 Ti принадлежат към най-ниската категория, овладяна от архитектурата Pascal. Но колкото и скромни да изглеждат на фона на по-големите братя, NVIDIA направи най-голямата крачка напред в бюджетната ниша. GTX 750/750 Ti, които го заемат по-рано, принадлежат към първата итерация на архитектурата Maxwell, така че GTX 1050/1050 Ti, за разлика от други ускорители от семейството на Pascal, са напреднали не едно, а едно и половина поколения. Със значително по-голям графичен процесор и по-бърза памет, GTX 1050/1050 Ti повиши производителността спрямо своите предшественици повече от всяка друга серия Pascal (90% разлика между GTX 750 Ti и GTX 1050 Ti).

Въпреки че GTX 1050/1050 Ti използват малко повече мощност (75 W срещу 60 W), те все още попадат в обхвата на мощността на PCI Express карта без допълнителен конектор за захранване. NVIDIA не пусна младши ускорители във формат Founders Edition, а препоръчителните цени на дребно бяха $109 и $139.

AMD Polaris: Radeon RX 460/470/480

Отговорът на AMD на Pascal беше фамилията чипове Polaris. Сега линията Polaris включва само два чипа, на базата на които AMD произвежда три видеокарти (Radeon RX 460, RX 470 и RX 480), в които количеството на вградената RAM допълнително варира. Както можете лесно да видите дори от номерата на моделите, Radeon от серия 400 е оставил горния ешелон на производителността незает. AMD ще трябва да го напълни с продукти, базирани на Vega силиций. Още в ерата на 28 nm AMD придоби такъв навик - да тества иновациите на сравнително малки чипове и едва след това да ги внедрява във водещите графични процесори.

Веднага трябва да се отбележи, че в случая на AMD новото семейство графични процесори не е идентично нова версияосновна GCN (Graphics Core Next) архитектура, но отразява комбинация от архитектура и други характеристики на продукта. За графичните процесори, изградени според новата технологична технология, AMD изостави различните „острови“ в кодовото име (Северни острови, Южни острови и т.н.) и ги обозначава с имена на звезди.

Независимо от това, GCN архитектурата в Polaris получи още една, трета поредна актуализация, благодарение на която (заедно с прехода към 14nm FinFET процес) AMD значително увеличи производителността на ват.

  • Compute Unit - елементарната форма на организация на ALU на шейдъри в GCN - претърпя редица промени, свързани с предварително извличане и кеширане на инструкции, достъп до L2 кеша, което заедно увеличи специфичната производителност на CU с 15%.
  • Има поддръжка за изчисления с половин точност (FP16), които се използват в програми за компютърно зрение и машинно обучение.
  • GCN 1.3 осигурява директен достъп до вътрешния набор от инструкции (ISA) на поточните процесори, поради което разработчиците могат да пишат най-„ниско ниво“ и бърз код - за разлика от DirectX и OpenGL шейдърните езици, абстрахирани от хардуера.
  • Геометричните процесори вече са в състояние да изключат полигони с нулев размер или полигони без проекционни пиксели в началото на конвейера и имат индексен кеш, който намалява потреблението на ресурси при рендиране на малка дублирана геометрия.
  • Двоен L2 кеш.

В допълнение, инженерите на AMD са положили много усилия, за да накарат Polaris да работи на възможно най-високата честота. Честотата на графичния процесор сега се контролира с минимална латентност (латентност по-малка от 1 ns), а картата коригира кривата на напрежението при всяко зареждане на компютъра, за да вземе предвид вариацията в параметрите между отделните чипове и стареенето на силиция по време на работа.

Въпреки това, преминаването към 14nm FinFET не беше гладко за AMD. Наистина, компанията успя да увеличи производителността на ват с 62% (съдейки по резултатите на Radeon RX 480 и Radeon R9 380X в тестовете за игри и табличното TDP на картите). въпреки това максимални честоти Polaris не надвишават 1266 MHz и само няколко от производствените партньори са постигнали повече с допълнителна работа по системите за охлаждане и захранване. От друга страна видеокартите GeForce все още запазват лидерството по отношение на съотношението производителност към мощност, което NVIDIA постигна още в поколението Maxwell. Изглежда, че AMD на първия етап не успя да разкрие всички възможности на новото поколение технология или самата архитектура GCN вече изисква дълбока модернизация - последната задача беше оставена на Vega чиповете.

Базираните на Polaris ускорители заемат ценови диапазон от $109 до $239 (виж таблицата), въпреки че в отговор на появата на GeForce GTX 1050/1050 Ti, AMD намали цените на двете по-ниски карти съответно до $100 и $170. На този моментвъв всяка категория цена/производителност има подобен баланс на мощността между конкурентните продукти: GeForce GTX 1050 Ti е по-бърз от Radeon RX 460 с 4 GB RAM, GTX 1060 с 3 GB памет е по-бърз от RX 470 и пълната GTX 1060 е пред RX 480. Заедно така видеокарти AMDТе са по-евтини, което означава, че са популярни.

AMD Radeon Pro Duo

Отчетът за изминалата година в областта на дискретните графични процесори няма да бъде пълен, ако пренебрегнем още една от „червените“ графични карти. Докато AMD все още не е пуснала флагмански заместител с един GPU за Radeon R9 Fury X, компанията има още един доказан ход, за да продължи да завладява нови граници - инсталирането на два чипа Fiji на една платка. Тази карта, чието пускане AMD многократно отлагаше, въпреки това се появи в продажба малко преди GeForce GTX 1080, но попадна в категорията на професионалните ускорители Radeon Proи беше позициониран като платформа за създаване на игри във VR среда.

За геймърите на $1499 (по-скъпо от чифт Radeon R9 Fury Xs при пускането на пазара), Radeon Pro Duo не е опция и дори не сме имали възможност да го тестваме. Жалко, защото от техническа гледна точка Radeon Pro Duo изглежда интригуващо. TDP на картата с име се е увеличил само с 27% в сравнение с Fury X, въпреки факта, че пиковите честоти AMD процесоринамалена с 50 MHz. По-рано AMD вече успя да пусне успешна двупроцесорна видеокарта - Radeon R9 295X2, така че обявените от производителя спецификации не предизвикват много скептицизъм.

Какво да очакваме през 2017 г

Основните очаквания за следващата година са свързани с AMD. NVIDIA най-вероятно ще се ограничи до пускането на водеща игрална карта, базирана на GP102, наречена GeForce GTX 1080 Ti, и може би ще запълни друго празно място в серията GeForce 10 с GTX 1060 Ti. В противен случай линията на ускорителите Pascal вече е оформена, а дебютът на следващата архитектура Volta е насрочен едва за 2018 г.

Както в сферата на процесора, AMD фокусира усилията си върху разработването на наистина революционна микроархитектура на графичния процесор, докато Polaris се превърна само в отправна точка по пътя към последната. Предполага се, че още през първото тримесечие на 2017 г. компаниятаза първи път ще пусне на масовия пазар своя най-добър силикон, Vega 10 (и с него, или впоследствие, един или повече младши чипове в линията). Най-надеждното доказателство за неговите възможности беше обявяването на изчислителната карта MI25 в линията Radeon Instinct, която се позиционира като ускорител на задачи за дълбоко обучение. Въз основа на спецификациите, тя се захранва от не кой да е друг, а от Vega 10. Картата осигурява 12,5 TFLOPS изчислителна мощност с единична точност (FP32) – повече от TITAN X на GP102 – и е оборудвана с 16 GB HBM2 памет. TDP на видеокартата е в рамките на 300 вата. Човек може само да гадае за реалната скорост на процесора, но е известно, че Vega ще донесе най-мащабната актуализация на микроархитектурата на GPU след пускането на първите GCN-базирани чипове преди пет години. Последното значително ще подобри производителността на ват и ще позволи по-ефективно използване на изчислителна мощностшейдърни ALU (в които чиповете на AMD традиционно не липсват) в приложения за игри.

Има също слухове, че инженерите на AMD вече са усвоили 14 nm FinFET процеса до съвършенство и компанията е готова да пусне втора версия на видеокарти Polaris със значително по-нисък TDP. Струва ни се, че ако това е вярно, тогава актуализираните чипове по-скоро ще отидат в линията Radeon RX 500, отколкото да получат повишени индекси в съществуващата серия 400.

Приложение. Текущи линии на дискретни видео адаптери AMD и NVIDIA

производител AMD
Модел Radeon RX 460 Radeon RX 470 Radeon RX 480 Radeon R9 Nano Radeon R9 Fury Radeon R9 Fury X
GPU
Име Поларис 11 Поларис 10 Поларис 10 фиджи xt Fiji PRO фиджи xt
микроархитектура GCN 1.3 GCN 1.3 GCN 1.3 GCN 1.2 GCN 1.2 GCN 1.2
Технология на процеса, nm 14nm FinFET 14nm FinFET 14nm FinFET 28 28 28
Брой транзистори, милион 3 000 5 700 5 700 8900 8900 8900
1 090 / 1 200 926 / 1 206 1 120 / 1 266 — / 1 000 — / 1 000 — / 1 050
Брой ALU на шейдъри 896 2 048 2 304 4096 3584 4096
56 128 144 256 224 256
Брой ROP 16 32 32 64 64 64
RAM
Ширина на шината, бит 128 256 256 4096 4096 4096
Тип чип GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM HBM HBM HBM
1 750 (7 000) 1 650 (6 600) 1 750 (7 000) / 2 000 (8 000) 500 (1000) 500 (1000) 500 (1000)
Обем, MB 2 048 / 4 096 4 096 4 096 / 8 192 4096 4096 4096
I/O шина PCI Express 3.0 x8 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
производителност
2 150 4 940 5 834 8 192 7 168 8 602
Производителност FP32/FP64 1/16 1/16 1/16 1/16 1/16 1/16
112 211 196/224 512 512 512
Извеждане на изображение
DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2 HDMI 1.4a, DisplayPort 1.2
TDP, W <75 120 150 175 275 275
109/139 179 199/229 649 549 649
8 299 / 10 299 15 999 16 310 / 18 970 ND ND ND
производител NVIDIA
Модел GeForce GTX 1050 GeForce GTX 1050 Ti GeForce GTX 1060 3 GB GeForce GTX 1060 GeForce GTX 1070 GeForce GTX 1080 ТИТАН X
GPU
Име GP107 GP107 GP106 GP106 GP104 GP104 GP102
микроархитектура Паскал Паскал Максуел Максуел Паскал Паскал Паскал
Технология на процеса, nm 14nm FinFET 14nm FinFET 16nm FinFET 16nm FinFET 16nm FinFET 16nm FinFET 16nm FinFET
Брой транзистори, милион 3 300 3 300 4 400 4 400 7 200 7 200 12 000
Тактова честота, MHz: Base Clock / Boost Clock 1 354 / 1 455 1 290 / 1 392 1506/1708 1506/1708 1 506 / 1 683 1 607 / 1 733 1 417 / 1531
Брой ALU на шейдъри 640 768 1 152 1 280 1 920 2 560 3 584
Брой наслагвания на текстури 40 48 72 80 120 160 224
Брой ROP 32 32 48 48 64 64 96
RAM
Ширина на шината, бит 128 128 192 192 256 256 384
Тип чип GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5X SDRAM GDDR5X SDRAM
Тактова честота, MHz (честотна лента на контакт, Mbps) 1 750 (7 000) 1 750 (7 000) 2000 (8000) 2000 (8000) 2000 (8000) 1 250 (10 000) 1 250 (10 000)
Обем, MB 2 048 4 096 6 144 6 144 8 192 8 192 12 288
I/O шина PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16 PCI Express 3.0 x16
производителност
Пикова производителност FP32, GFLOPS (на базата на максимална посочена честота) 1 862 2 138 3 935 4 373 6 463 8 873 10 974
Производителност FP32/FP64 1/32 1/32 1/32 1/32 1/32 1/32 1/32
Честотна лента оперативна памет, GB/s 112 112 192 192 256 320 480
Извеждане на изображение
Интерфейси за извеждане на изображения DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b
TDP, W 75 75 120 120 150 180 250
Препоръчителна цена на дребно към момента на пускане (САЩ, без данък), $ 109 139 199 249/299 (Издание на основателите / партньорски карти) 379/449 (Издание на основателите / партньорски карти) 599/699 (Издание на основателите / партньорски карти) 1 200
Препоръчителна цена на дребно към момента на пускане (Русия), руб. 8 490 10 490 ND 18 999 / — (Издание на основателите / партньорски карти) ND / 34 990 (Издание на основателите / партньорски карти) ND / 54 990 (Издание на основателите / партньорски карти)

Интегрираният графичен процесор играе важна роля както за геймърите, така и за непретенциозните потребители.

От това зависи качеството на игрите, филмите, гледането на видеоклипове в интернет и изображенията.

Принцип на действие

Графичният процесор е интегриран в дънната платка на компютъра - така изглежда вградената графика.

Като правило те го използват, за да премахнат необходимостта от инсталиране на графичен адаптер -.

Тази технология помага да се намали цената на крайния продукт. Освен това, поради компактността и ниската консумация на енергия на такива процесори, те често се инсталират в лаптопи и настолни компютри с ниска мощност.

Така интегрираните графични процесори са запълнили тази ниша толкова много, че 90% от лаптопите на рафтовете на магазините в САЩ имат точно такъв процесор.

Вместо конвенционална видеокарта с интегрирана графика, самата RAM памет на компютъра често служи като спомагателен инструмент.

Вярно е, че това решение донякъде ограничава производителността на устройството. Но самият компютър и GPU използват една и съща шина за памет.

Така че подобно „съседство“ влияе върху изпълнението на задачите, особено при работа със сложни графики и по време на игра.

Видове

Интегрираната графика има три групи:

  1. Графиката със споделена памет е устройство, базирано на управление на споделена памет с главния процесор. Това значително намалява разходите, подобрява системата за пестене на енергия, но влошава производителността. Съответно, за тези, които работят със сложни програми, интегрираните графични процесори от този вид е по-вероятно да не работят.
  2. Дискретна графика - на дънната платка са запоени видео чип и един или два модула видео памет. Благодарение на тази технология качеството на изображението е значително подобрено, а също така става възможно да се работи с триизмерна графика с най-добри резултати. Вярно е, че ще трябва да платите много за това и ако търсите процесор с висока производителност във всички отношения, тогава цената може да бъде невероятно висока. Освен това сметката за електричество леко ще се повиши - консумацията на енергия на дискретните графични процесори е по-висока от обикновено.
  3. Хибридна дискретна графика - комбинация от двата предишни типа, която осигури създаването на шината PCI Express. Така достъпът до паметта се осъществява както през запоената видеопамет, така и през оперативната. С това решение производителите искаха да създадат компромисно решение, но то все още не премахва недостатъците.

Производители

По правило големите компании се занимават с производството и разработването на вградени графични процесори - и, но много малки предприятия също са свързани с тази област.

Лесно е да се направи. Първо потърсете Primary Display или Init Display. Ако не виждате нещо подобно, потърсете Onboard, PCI, AGP или PCI-E (всичко зависи от инсталираните шини на дънната платка).

Като изберете PCI-E, например, активирате видеокартата PCI-Express и деактивирате вградената интегрирана.

По този начин, за да активирате интегрираната видеокарта, трябва да намерите подходящите параметри в BIOS. Често процесът на активиране е автоматичен.

Деактивиране

Деактивирането се извършва най-добре в BIOS. Това е най-простият и непретенциозен вариант, подходящ за почти всички компютри. Единствените изключения са някои лаптопи.

Отново намерете Периферни устройства или Интегрирани периферни устройства в BIOS, ако работите на настолен компютър.

При лаптопите името на функцията е различно и не е еднакво навсякъде. Така че просто потърсете нещо свързано с графики. Например, желаните опции могат да бъдат поставени в разделите Advanced и Config.

Изключването също се извършва по различни начини. Понякога е достатъчно просто да щракнете върху „Disabled“ и да зададете PCI-E видеокартата на първо място в списъка.

Ако сте потребител на лаптоп, не се тревожете, ако не намерите подходяща опция, може да нямате такава функция предварително. За всички останали устройства същите правила са прости - без значение как изглежда самият BIOS, пълненето е същото.

Ако имате две видеокарти и и двете са показани в диспечера на устройствата, тогава въпросът е доста прост: щракнете с десния бутон върху една от тях и изберете „деактивиране“. Имайте предвид обаче, че дисплеят може да изгасне. И най-вероятно ще стане.

Това обаче също е разрешим проблем. Достатъчно е да рестартирате компютъра или от.

Извършете всички последващи настройки върху него. Ако този метод не работи, отменете действията си, като използвате безопасен режим. Можете също да прибягвате до предишния метод - чрез BIOS.

Две програми - NVIDIA Control Center и Catalyst Control Center - конфигурират използването на конкретен видео адаптер.

Те са най-непретенциозните в сравнение с другите два метода - екранът едва ли ще се изключи, няма случайно да съборите настройките и през BIOS.

За NVIDIA всички настройки са в раздела 3D.

Можете да изберете предпочитания от вас видео адаптер за цялата операционна система, както и за определени програми и игри.

В софтуера Catalyst идентична функция се намира в опцията "Захранване" под подпозицията "Превключваема графика".

По този начин превключването между GPU не е трудно.

Има различни методи, по-специално, както чрез програми, така и чрез BIOS.Включването или изключването на една или друга интегрирана графика може да бъде придружено от някои повреди, свързани главно с изображението.

Може да изгасне или просто да изглежда изкривен. Нищо не трябва да засяга самите файлове в компютъра, освен ако не сте щракнали нещо в BIOS.

Заключение

В резултат на това интегрираните графични процесори са търсени поради тяхната евтиност и компактност.

За това ще трябва да платите нивото на производителност на самия компютър.

В някои случаи интегрираната графика е просто необходима - дискретните процесори са идеални за работа с триизмерни изображения.

Освен това лидерите в индустрията са Intel, AMD и Nvidia. Всеки от тях предлага свои собствени графични ускорители, процесори и други компоненти.

Най-новите популярни модели са Intel HD Graphics 530 и AMD A10-7850K. Те са доста функционални, но имат някои недостатъци. По-специално, това се отнася за мощността, производителността и цената на крайния продукт.

Можете да активирате или деактивирате графичен процесор с вградено ядро ​​или можете да го направите сами чрез BIOS, помощни програми и различни програми, но самият компютър може да го направи вместо вас. Всичко зависи от това коя видео карта е свързана към самия монитор.

Основните компоненти на видеокартата:

  • изходи;
  • интерфейси;
  • охладителна система;
  • графичен процесор;
  • видео памет.

Графични технологии:

  • речник;
  • архитектура GPU: функции
    върхови/пикселни единици, шейдъри, скорост на запълване, текстурни/растерни единици, конвейери;
  • GPU архитектура: технология
    производствен процес, GPU честота, локална видео памет (размер, шина, тип, честота), решения с множество видео карти;
  • визуални характеристики
    DirectX, висок динамичен обхват (HDR), FSAA, филтриране на текстури, текстури с висока разделителна способност.

Речник на основните графични термини

Скорост на обновяване

Подобно на кино или на телевизор, вашият компютър симулира движение на монитор, като показва последователност от кадри. Честотата на опресняване на монитора показва колко пъти в секунда ще се актуализира картината на екрана. Например 75 Hz съответства на 75 актуализации в секунда.

Ако компютърът обработва кадри по-бързо, отколкото мониторът може да изведе, тогава игрите може да имат проблеми. Например, ако компютърът изчислява 100 кадъра в секунда и честотата на опресняване на монитора е 75 Hz, тогава поради наслагвания мониторът може да показва само част от картината по време на периода на опресняване. В резултат на това се появяват визуални артефакти.

Като решение можете да активирате V-Sync (вертикална синхронизация). Той ограничава броя на кадрите, които компютърът може да произведе до честотата на опресняване на монитора, предотвратявайки артефакти. Ако активирате V-Sync, броят на кадрите, изобразени в играта, никога няма да надвиши честотата на опресняване. Тоест при 75 Hz компютърът ще изведе не повече от 75 кадъра в секунда.

пиксел

Думата "Pixel" означава " снимкатура ел ement" е елемент на изображението. Това е малка точка на дисплея, която може да свети в определен цвят (в повечето случаи нюансът се показва чрез комбинация от три основни цвята: червен, зелен и син). Ако разделителната способност на екрана е 1024×768, тогава можете да видите матрица от 1024 пиксела на ширина и 768 пиксела на височина. Заедно пикселите образуват изображение. Картината на екрана се актуализира от 60 до 120 пъти в секунда, в зависимост от вида на дисплея и данните, предоставени от изхода на видеокартата. CRT мониторите актуализират дисплея ред по ред, докато LCD мониторите с плосък панел могат да актуализират всеки пиксел поотделно.

Вертекс

Всички обекти в 3D сцената са съставени от върхове. Вертексът е точка в 3D пространство с координати x, y и z. Няколко върха могат да бъдат групирани в многоъгълник: най-често триъгълник, но са възможни и по-сложни форми. След това многоъгълникът се текстурира, за да изглежда обектът реалистичен. 3D кубът, показан на илюстрацията по-горе, има осем върха. По-сложните обекти имат извити повърхности, които всъщност се състоят от много голям брой върхове.

Текстура

Текстурата е просто 2D изображение с произволен размер, което се наслагва върху 3D обект, за да симулира повърхността му. Например, нашият 3D куб има осем върха. Преди картографиране на текстури изглежда като проста кутия. Но когато нанесем текстурата, кутията се оцветява.

Шейдър

Пикселните шейдъри позволяват на графичната карта да произвежда впечатляващи ефекти, като тази вода в Elder Scrolls: Oblivion.

Днес има два вида шейдъри: върхови и пикселни. Vertex шейдърите могат да променят или трансформират 3D обекти. Програмите за пикселни шейдъри ви позволяват да променяте цветовете на пикселите въз основа на някои данни. Представете си източник на светлина в 3D сцена, който кара осветените обекти да светят по-ярко и в същото време хвърля сенки върху други обекти. Всичко това се реализира чрез промяна на цветовата информация на пикселите.

Пикселните шейдъри се използват за създаване на сложни ефекти в любимите ви игри. Например кодът на шейдър може да накара пикселите около 3D меч да светят по-ярко. Друг шейдър може да обработва всички върхове на сложен 3D обект и да симулира експлозия. Разработчиците на игри все повече се обръщат към сложни програми за шейдъри, за да създадат реалистични графики. Почти всяка съвременна богата на графика игра използва шейдъри.

С пускането на следващия интерфейс за приложно програмиране (API, Application Programming Interface) Microsoft DirectX 10, ще бъде пуснат трети тип шейдър, наречен геометричен шейдър. С тяхна помощ ще бъде възможно да се чупят предмети, да се модифицират и дори да се унищожават, в зависимост от желания резултат. Третият тип шейдъри може да се програмира точно по същия начин като първите два, но ролята му ще бъде различна.

Скорост на запълване

Много често на кутията с видеокартата можете да намерите стойността на скоростта на запълване. По принцип скоростта на запълване показва колко бързо GPU може да рендира пиксели. По-старите видео карти имаха скорост на запълване на триъгълник. Но днес има два вида скорост на запълване: скорост на запълване на пиксели и скорост на запълване на текстури. Както вече споменахме, скоростта на запълване на пикселите съответства на скоростта на изход на пикселите. Изчислява се като броят на растерните операции (ROP), умножен по тактовата честота.

ATi и nVidia изчисляват степента на запълване на текстурата по различен начин. Nvidia смята, че скоростта се получава чрез умножаване на броя на пикселните конвейери по тактовата честота. И ATi умножава броя на текстурните единици по тактовата честота. По принцип и двата метода са правилни, тъй като nVidia използва една текстурна единица на единица пикселен шейдър (т.е. една на пикселен конвейер).

Имайки предвид тези дефиниции, нека продължим напред и да обсъдим най-важните функции на GPU, какво правят и защо са толкова важни.

GPU архитектура: характеристики

Реализмът на 3D графиката зависи много от производителността на графичната карта. Колкото повече пикселни шейдърни блокове съдържа процесорът и колкото по-висока е честотата, толкова повече ефекти могат да бъдат приложени към 3D сцената, за да се подобри нейното визуално възприятие.

GPU съдържа много различни функционални блокове. По броя на някои компоненти можете да прецените колко мощен е графичният процесор. Преди да продължим, нека разгледаме най-важните функционални блокове.

Vertex процесори (Vertex Shader Units)

Подобно на пикселните шейдъри, върховите процесори изпълняват шейдър код, който докосва върховете. Тъй като по-големият бюджет за върхове ви позволява да създавате по-сложни 3D обекти, производителността на процесорите за върхове е много важна в 3D сцени със сложни или голям брой обекти. Въпреки това модулите за върхови шейдъри все още нямат толкова очевидно влияние върху производителността като пикселните процесори.

Пиксел процесори (пикселни шейдъри)

Пикселният процесор е компонент на графичния чип, предназначен за обработка на програми за пикселни шейдъри. Тези процесори извършват изчисления, отнасящи се само до пиксели. Тъй като пикселите съдържат информация за цвета, пикселните шейдъри могат да постигнат впечатляващи графични ефекти. Например, повечето от водните ефекти, които виждате в игрите, са създадени с помощта на пикселни шейдъри. Обикновено броят на пикселните процесори се използва за сравняване на пикселната производителност на видеокартите. Ако едната карта е оборудвана с осем пикселни шейдъра, а другата с 16, тогава е съвсем логично да се предположи, че видеокарта с 16 единици ще обработва по-бързо сложни пикселни програми. Тактовата честота също трябва да се има предвид, но днес удвояването на броя на пикселните процесори е по-ефективно по отношение на консумацията на енергия, отколкото удвояването на честотата на графичния чип.

Унифицирани шейдъри

Унифицираните (единични) шейдъри все още не са дошли в света на компютрите, но предстоящият стандарт DirectX 10 разчита на подобна архитектура. Това означава, че структурата на кода на върховите, геометричните и пикселните програми ще бъде една и съща, въпреки че шейдърите ще изпълняват различна работа. Новата спецификация може да се види на Xbox 360, където GPU е специално проектиран от ATi за Microsoft. Ще бъде много интересно да видим какъв потенциал носи новият DirectX 10.

Единици за картографиране на текстури (TMU)

Текстурите трябва да бъдат избрани и филтрирани. Тази работа се извършва от единиците за картографиране на текстури, които работят заедно с единиците за пикселни и върхови шейдъри. Работата на TMU е да прилага текстурни операции към пикселите. Броят на текстурните единици в GPU често се използва за сравняване на текстурната производителност на графичните карти. Съвсем разумно е да се предположи, че видеокарта с повече TMU ще даде по-добра текстурна производителност.

Растерно операторско звено (ROP)

RIP са отговорни за записването на пикселни данни в паметта. Скоростта, с която се извършва тази операция, е скоростта на запълване. В ранните дни на 3D ускорителите, ROP и скоростите на запълване бяха много важни характеристики на графичните карти. Днес работата на ROP все още е важна, но производителността на видеокартата вече не е ограничена от тези блокове, както беше преди. Следователно производителността (и броят) на ROP рядко се използва за оценка на скоростта на видеокарта.

Конвейери

Тръбопроводите се използват за описание на архитектурата на видеокартите и дават много визуално представяне на производителността на GPU.

Конвейерът не може да се счита за строг технически термин. GPU използва различни тръбопроводи, които изпълняват различни функции. Исторически погледнато, тръбопроводът се разбира като пикселен процесор, който е свързан към своя собствена единица за картографиране на текстури (TMU). Например, видеокартата Radeon 9700 използва осем пикселни процесора, всеки от които е свързан към собствен TMU, така че се счита, че картата има осем конвейера.

Но е много трудно да се опишат съвременните процесори с броя на тръбопроводите. В сравнение с предишните проекти, новите процесори използват модулна, фрагментирана структура. ATi може да се счита за новатор в тази област, който с линията видеокарти X1000 премина към модулна структура, което направи възможно постигането на увеличение на производителността чрез вътрешна оптимизация. Някои CPU блокове се използват повече от други и за да подобри производителността на GPU, ATi се опита да намери компромис между броя на необходимите блокове и площта на матрицата (тя не може да бъде увеличена много). В тази архитектура терминът "пикселна тръба" вече е загубил значението си, тъй като пикселните процесори вече не са свързани към техните собствени TMU. Например графичният процесор ATi Radeon X1600 има 12 пикселни шейдъра и общо четири TMU. Следователно не може да се каже, че в архитектурата на този процесор има 12 пикселни конвейера, както не може да се каже, че има само четири от тях. Въпреки това, по традиция, пикселните тръбопроводи все още се споменават.

Имайки предвид тези предположения, броят на пикселните конвейери в GPU често се използва за сравняване на видеокарти (с изключение на линията ATi X1x00). Например, ако вземем видеокарти с 24 и 16 конвейера, тогава е съвсем разумно да се предположи, че карта с 24 конвейера ще бъде по-бърза.

Архитектура на GPU: Технология

Технология на процеса

Този термин се отнася до размера на един елемент (транзистор) на чипа и точността на производствения процес. Подобряването на техническите процеси позволява да се получат елементи с по-малки размери. Например процесът 0,18 µm произвежда по-големи характеристики от процеса 0,13 µm, така че не е толкова ефективен. По-малките транзистори работят с по-ниско напрежение. На свой ред намаляването на напрежението води до намаляване на топлинното съпротивление, което намалява количеството генерирана топлина. Подобряването на технологията на процеса ви позволява да намалите разстоянието между функционалните блокове на чипа и отнема по-малко време за прехвърляне на данни. По-късите разстояния, по-ниските напрежения и други подобрения позволяват постигането на по-високи тактови честоти.

Донякъде усложнява разбирането, че и микрометрите (µm), и нанометрите (nm) се използват днес за обозначаване на технологията на процеса. Всъщност всичко е много просто: 1 нанометър е равен на 0,001 микрометър, така че 0,09 микрона и 90 nm производствени процеси са едно и също нещо. Както беше отбелязано по-горе, по-малката технология на процеса ви позволява да получите по-високи тактови честоти. Например, ако сравним видеокарти с 0,18 микрона и 0,09 микрона (90 nm) чипове, тогава е съвсем разумно да очакваме по-висока честота от 90 nm карта.

Тактова честота на GPU

Тактовата честота на GPU се измерва в мегахерци (MHz), което представлява милиони цикли в секунда.

Тактовата честота пряко влияе върху производителността на графичния процесор. Колкото по-високо е, толкова повече работа може да се извърши за секунда. За първия пример нека вземем видеокартите nVidia GeForce 6600 и 6600 GT: графичният процесор 6600 GT работи на 500 MHz, докато обикновената карта 6600 работи на 400 MHz. Тъй като процесорите са технически идентични, 20% увеличение на тактовата честота на 6600 GT води до по-добра производителност.

Но тактовата честота не е всичко. Имайте предвид, че производителността е силно повлияна от архитектурата. За втория пример нека вземем видеокартите GeForce 6600 GT и GeForce 6800 GT. Честотата на GPU на 6600 GT е 500 MHz, но 6800 GT работи само на 350 MHz. Сега нека вземем предвид, че 6800 GT използва 16 пикселни конвейера, докато 6600 GT има само осем. Следователно, 6800 GT с 16 конвейера на 350 MHz ще даде приблизително същата производителност като процесор с осем конвейера и два пъти по-висока тактова честота (700 MHz). С това казано, тактовата честота може да се използва за сравняване на производителността.

Локална видео памет

Паметта на графичната карта има огромно влияние върху производителността. Но различните настройки на паметта влияят по различен начин.

Видео памет

Обемът на видео паметта вероятно може да се нарече параметър на видеокарта, който е най-надценен. Неопитните потребители често използват количеството видео памет, за да сравняват различни карти една с друга, но в действителност количеството има малък ефект върху производителността в сравнение с параметри като честота на шината на паметта и интерфейс (ширина на шината).

В повечето случаи карта със 128 MB видео памет ще работи почти същото като карта с 256 MB. Разбира се, има ситуации, при които повече памет води до по-добра производителност, но имайте предвид, че повече памет няма автоматично да доведе до по-бърза производителност при игрите.

Там, където обемът е полезен, са игрите с текстури с висока разделителна способност. Разработчиците на игри включват няколко комплекта текстури с играта. И колкото повече памет има на видеокартата, толкова по-висока резолюция могат да имат заредените текстури. Текстурите с висока разделителна способност дават по-висока дефиниция и детайлност в играта. Следователно е съвсем разумно да вземете карта с голямо количество памет, ако всички други критерии са еднакви. Спомнете си още веднъж, че ширината на шината на паметта и нейната честота имат много по-силен ефект върху производителността, отколкото количеството физическа памет на картата.

Ширина на шината на паметта

Ширината на шината на паметта е един от най-важните аспекти на производителността на паметта. Модерните шини варират в ширина от 64 до 256 бита, а в някои случаи дори 512 бита. Колкото по-широка е шината на паметта, толкова повече информация може да прехвърли на такт. И това пряко влияе върху производителността. Например, ако вземем две шини с еднакви честоти, тогава теоретично 128-битова шина ще прехвърли два пъти повече данни на такт от 64-битова. 256-битовата шина е два пъти по-голяма.

По-високата честотна лента на шината (изразена в битове или байтове за секунда, 1 байт = 8 бита) дава по-добра производителност на паметта. Ето защо шината на паметта е много по-важна от нейния размер. При еднакви честоти 64-битовата шина на паметта работи само на 25% от 256-битовата!

Да вземем следния пример. Видеокарта със 128 MB видео памет, но с 256-битова шина дава много по-добра производителност на паметта от модел с 512 MB с 64-битова шина. Важно е да се отбележи, че за някои карти от серията ATi X1x00 производителите посочват спецификациите на вътрешната шина на паметта, но ние се интересуваме от параметрите на външната шина. Например вътрешната пръстеновидна шина на X1600 е широка 256 бита, но външната е само 128 бита. И в действителност шината на паметта работи със 128-битова производителност.

Видове памет

Паметта може да бъде разделена на две основни категории: SDR (единичен трансфер на данни) и DDR (двоен трансфер на данни), при които данните се прехвърлят на такт два пъти по-бързо. Днес технологията за единично предаване на SDR е остаряла. Тъй като DDR паметта прехвърля данни два пъти по-бързо от SDR, важно е да запомните, че видеокартите с DDR памет често показват двойно по-висока честота, а не физическата. Например, ако DDR паметта е посочена на 1000 MHz, това е ефективната честота, на която обикновената SDR памет трябва да работи, за да даде същата честотна лента. Но всъщност физическата честота е 500 MHz.

Поради тази причина много хора са изненадани, когато паметта на видеокартата им е посочена на 1200 MHz DDR, докато помощните програми съобщават за 600 MHz. Така че ще трябва да свикнете. DDR2 и GDDR3/GDDR4 паметта работят на същия принцип, т.е. с двоен трансфер на данни. Разликата между DDR, DDR2, GDDR3 и GDDR4 памет е в производствената технология и някои детайли. DDR2 може да работи на по-високи честоти от DDR паметта, а DDR3 може да работи на дори по-високи честоти от DDR2.

Честота на шината на паметта

Подобно на процесора, паметта (или по-точно шината на паметта) работи на определени тактови честоти, измерени в мегахерци. Тук увеличаването на тактовите честоти пряко влияе върху производителността на паметта. А честотата на шината на паметта е един от параметрите, които се използват за сравнение на производителността на видеокартите. Например, ако всички други характеристики (ширина на шината на паметта и т.н.) са еднакви, тогава е съвсем логично да се каже, че видеокарта с памет 700 MHz е по-бърза от 500 MHz.

Отново, тактовата честота не е всичко. 700 MHz памет с 64-битова шина ще бъде по-бавна от 400 MHz памет със 128-битова шина. Производителността на 400 MHz памет на 128-битова шина съответства приблизително на 800 MHz памет на 64-битова шина. Трябва също да запомните, че честотите на GPU и паметта са напълно различни параметри и обикновено са различни.

Интерфейс на видеокартата

Всички данни, прехвърляни между видеокартата и процесора, преминават през интерфейса на видеокартата. Днес за видеокартите се използват три вида интерфейси: PCI, AGP и PCI Express. Те се различават по честотна лента и други характеристики. Ясно е, че колкото по-висока е честотната лента, толкова по-висок е обменният курс. Но само най-модерните карти могат да използват висока честотна лента и дори тогава само частично. В един момент скоростта на интерфейса престана да бъде "тясно място", просто е достатъчно днес.

Най-бавната шина, за която са произведени видеокарти, е PCI (Peripheral Components Interconnect). Без да навлизаме в историята, разбира се. PCI наистина влоши производителността на видеокартите, така че те преминаха към интерфейса AGP (Accelerated Graphics Port). Но дори спецификациите AGP 1.0 и 2x ограничават производителността. Когато стандартът увеличи скоростта до AGP 4x, започнахме да се доближаваме до практическата граница на честотната лента, която могат да използват видеокартите. Спецификацията AGP 8x отново удвои честотната лента в сравнение с AGP 4x (2,16 GB / s), но не получихме забележимо увеличение на графичната производителност.

Най-новата и най-бърза шина е PCI Express. По-новите графични карти обикновено използват интерфейса PCI Express x16, който комбинира 16 PCI Express ленти за обща честотна лента от 4 GB/s (в една посока). Това е два пъти повече от пропускателната способност на AGP 8x. Шината PCI Express дава споменатата честотна лента и в двете посоки (пренос на данни към и от видеокартата). Но скоростта на стандарта AGP 8x вече беше достатъчна, така че все още не сме срещали ситуации, при които преходът към PCI Express даде тласък на производителността в сравнение с AGP 8x (ако другите хардуерни параметри са същите). Например AGP версията на GeForce 6800 Ultra ще работи идентично с 6800 Ultra за PCI Express.

Днес е най-добре да си купите карта с PCI Express интерфейс, тя ще продължи на пазара още няколко години. Най-производителните карти вече не се произвеждат с AGP 8x интерфейс, а PCI Express решенията, като правило, вече са по-лесни за намиране от аналозите на AGP и са по-евтини.

Multi-GPU решения

Използването на няколко графични карти за увеличаване на графичната производителност не е нова идея. В първите дни на 3D графиката, 3dfx навлезе на пазара с две графични карти, работещи паралелно. Но с изчезването на 3dfx технологията за съвместна работа на няколко потребителски видеокарти беше забравена, въпреки че ATi произвежда подобни системи за професионални симулатори след пускането на Radeon 9700. Преди няколко години технологията се върна на пазара с появата на решенията nVidia SLI и малко по-късно ATi Crossfire.

Споделянето на няколко графични карти дава достатъчно производителност за стартиране на играта при висококачествени настройки с висока разделителна способност. Но изборът на едното или другото не е лесен.

Нека започнем с факта, че решенията, базирани на множество видеокарти, изискват много енергия, така че захранването трябва да е достатъчно мощно. Цялата тази топлина ще трябва да бъде премахната от видеокартата, така че трябва да обърнете внимание на корпуса на компютъра и охлаждането, така че системата да не прегрява.

Освен това не забравяйте, че SLI/CrossFire изисква подходяща дънна платка (или една или друга технология), която обикновено е по-скъпа от стандартните модели. Конфигурацията nVidia SLI ще работи само на определени платки nForce4, докато ATi CrossFire картите ще работят само на дънни платки с чипсет CrossFire или някои модели на Intel. За да влошат нещата, някои конфигурации на CrossFire изискват една от картите да бъде специална: CrossFire Edition. След пускането на CrossFire за някои модели видеокарти, ATi позволи включването на технологията за сътрудничество по шината PCI Express, а с пускането на нови версии на драйвери броят на възможните комбинации се увеличава. Но все пак хардуерният CrossFire със съответната карта CrossFire Edition дава по-добра производителност. Но картите CrossFire Edition също са по-скъпи от обикновените модели. В момента можете да активирате софтуерния режим CrossFire (без карта CrossFire Edition) на графични карти Radeon X1300, X1600 и X1800 GTO.

Трябва да се вземат предвид и други фактори. Въпреки че две графични карти, работещи заедно, дават повишение на производителността, то далеч не е двойно. Но ще платите два пъти повече пари. Най-често увеличението на производителността е 20-60%. А в някои случаи, поради допълнителни изчислителни разходи за съпоставяне, изобщо няма увеличение. Поради тази причина конфигурациите с няколко карти е малко вероятно да се изплатят с евтини модели, тъй като по-скъпата видеокарта обикновено винаги ще надмине чифт евтини карти. Като цяло, за повечето потребители вземането на SLI / CrossFire решение няма смисъл. Но ако искате да активирате всички опции за подобряване на качеството или да играете при екстремни разделителни способности, например 2560x1600, когато трябва да изчислите повече от 4 милиона пиксела на кадър, тогава две или четири сдвоени видеокарти са незаменими.

Визуални функции

В допълнение към чисто хардуерните спецификации, различните поколения и модели графични процесори могат да се различават по набор от функции. Например, често се казва, че картите от поколение ATi Radeon X800 XT са съвместими с Shader Model 2.0b (SM), докато nVidia GeForce 6800 Ultra е съвместима със SM 3.0, въпреки че техните хардуерни спецификации са близки една до друга (16 конвейера). Поради това много потребители правят избор в полза на едно или друго решение, без дори да знаят какво означава тази разлика.

Версии на Microsoft DirectX и Shader Model

Тези имена най-често се използват в спорове, но малко хора знаят какво всъщност означават. За да разберем, нека започнем с историята на графичните API. DirectX и OpenGL са графични API, тоест интерфейси за програмиране на приложения - стандарти с отворен код, достъпни за всички.

Преди появата на графичните API, всеки производител на GPU имаше свой собствен механизъм за комуникация с игри. Разработчиците трябваше да напишат отделен код за всеки GPU, който искаха да поддържат. Много скъп и неефективен подход. За да се реши този проблем, бяха разработени API за 3D графики, така че разработчиците да пишат код за конкретен API, а не за тази или онази видеокарта. След това проблемите със съвместимостта паднаха върху плещите на производителите на видеокарти, които трябваше да гарантират, че драйверите са съвместими с API.

Единственото усложнение остава, че днес се използват два различни API, а именно Microsoft DirectX и OpenGL, където GL означава Graphics Library (графична библиотека). Тъй като DirectX API е по-популярен в игрите днес, ще се съсредоточим върху него. И този стандарт повлия по-силно на развитието на игрите.

DirectX е творение на Microsoft. Всъщност DirectX включва няколко API, само един от които се използва за 3D графики. DirectX включва API за звук, музика, входни устройства и др. Direct3D API отговаря за 3D графиките в DirectX. Когато говорят за видеокарти, те имат предвид точно това, следователно в това отношение понятията DirectX и Direct3D са взаимозаменяеми.

DirectX се актуализира периодично с напредъка на графичните технологии и разработчиците на игри въвеждат нови техники за програмиране на игри. Тъй като популярността на DirectX нарасна бързо, производителите на графични процесори започнаха да адаптират нови версии на продукти, за да отговарят на възможностите на DirectX. Поради тази причина видеокартите често са обвързани с хардуерната поддръжка на едно или друго поколение DirectX (DirectX 8, 9.0 или 9.0c).

За да се усложнят допълнително нещата, части от Direct3D API могат да се променят с времето, без да се променят поколенията на DirectX. Например, спецификацията DirectX 9.0 определя поддръжка за Pixel Shader 2.0. Но актуализацията на DirectX 9.0c включва Pixel Shader 3.0. Така че докато картите са в клас DirectX 9, те може да поддържат различни набори от функции. Например Radeon 9700 поддържа Shader Model 2.0, а Radeon X1800 поддържа Shader Model 3.0, въпреки че и двете карти могат да бъдат класифицирани като DirectX 9 поколение.

Не забравяйте, че когато създавате нови игри, разработчиците вземат предвид собствениците на стари машини и видеокарти, защото ако пренебрегнете този сегмент от потребители, тогава продажбите ще бъдат по-ниски. Поради тази причина в игрите са вградени множество кодови пътища. Игра от клас DirectX 9 вероятно има път за съвместимост с DirectX 8 и дори път с DirectX 7. Обикновено, ако се избере старият път, някои виртуални ефекти, които са на новите видеокарти, изчезват в играта. Но поне можете да играете дори на стария хардуер.

Много нови игри изискват инсталирането на най-новата версия на DirectX, дори ако графичната карта е от предишно поколение. Това означава, че нова игра, която ще използва пътя на DirectX 8, все още изисква най-новата версия на DirectX 9 да бъде инсталирана на графична карта от клас DirectX 8.

Какви са разликите между различните версии на Direct3D API в DirectX? Ранните версии на DirectX — 3, 5, 6 и 7 — бяха относително прости по отношение на Direct3D API. Разработчиците могат да избират визуални ефекти от списък и след това да проверяват работата си в играта. Следващата голяма стъпка в графичното програмиране беше DirectX 8. Той въведе възможността за програмиране на графичната карта с помощта на шейдъри, така че за първи път разработчиците имаха свободата да програмират ефектите по начина, по който искат. DirectX 8 поддържа Pixel Shader версии 1.0 до 1.3 и Vertex Shader 1.0. DirectX 8.1, актуализирана версия на DirectX 8, получи Pixel Shader 1.4 и Vertex Shader 1.1.

В DirectX 9 можете да създавате още по-сложни шейдър програми. DirectX 9 поддържа Pixel Shader 2.0 и Vertex Shader 2.0. DirectX 9c, актуализирана версия на DirectX 9, включваше спецификацията Pixel Shader 3.0.

DirectX 10, предстояща версия на API, ще придружава новата версия на Windows Vista. DirectX 10 не може да се инсталира на Windows XP.

HDR осветление и OpenEXR HDR

HDR означава "High Dynamic Range", висок динамичен диапазон. Игра с HDR осветление може да даде много по-реалистична картина от игра без него, а не всички графични карти поддържат HDR осветление.

Преди появата на графичните карти от клас DirectX 9, графичните процесори бяха силно ограничени от точността на техните изчисления за осветление. Досега осветлението можеше да се изчислява само с 256 (8 бита) вътрешни нива.

Когато се появиха графичните карти от клас DirectX 9, те успяха да произвеждат осветление с висока прецизност - пълни 24 бита или 16,7 милиона нива.

С 16,7 милиона нива и след като направи следващата стъпка в DirectX 9/Shader Model 2.0 клас производителност на графични карти, HDR осветлението е възможно и на компютри. Това е доста сложна технология и трябва да я гледате в динамика. С прости думи, HDR осветлението увеличава контраста (тъмните тонове изглеждат по-тъмни, светлите тонове изглеждат по-светли), като в същото време увеличава количеството детайли на осветлението в тъмните и светлите зони. Игра с HDR осветление се чувства по-жива и реалистична, отколкото без него.

Графичните процесори, които отговарят на най-новата спецификация Pixel Shader 3.0, позволяват по-високи 32-битови прецизни изчисления на осветлението, както и смесване с плаваща запетая. По този начин графичните карти от клас SM 3.0 могат да поддържат специалния HDR метод на осветление на OpenEXR, специално проектиран за филмовата индустрия.

Някои игри, които поддържат HDR осветление само чрез метода OpenEXR, няма да работят с HDR осветление на графични карти Shader Model 2.0. Въпреки това игрите, които не разчитат на метода OpenEXR, ще работят на всяка графична карта DirectX 9. Например Oblivion използва метода OpenEXR HDR и позволява HDR осветлението да бъде активирано само на най-новите графични карти, които поддържат спецификацията Shader Model 3.0. Например nVidia GeForce 6800 или ATi Radeon X1800. Игрите, които използват 3D двигателя на Half-Life 2, като Counter-Strike: Source и предстоящата Half-Life 2: Aftermath, ви позволяват да активирате HDR рендиране на по-стари DirectX 9 графични карти, които поддържат само Pixel Shader 2.0. Примерите включват линията GeForce 5 или ATi Radeon 9500.

И накрая, имайте предвид, че всички форми на HDR рендиране изискват сериозна процесорна мощност и могат да поставят на колене дори най-мощните графични процесори. Ако искате да играете най-новите игри с HDR осветление, високопроизводителната графика е задължителна.

Anti-aliasing на цял екран

Anti-aliasing на цял екран (съкратено като AA) ви позволява да премахнете характерните "стълби" на границите на полигоните. Но имайте предвид, че изглаждането на цял екран изразходва много изчислителни ресурси, което води до спад в честотата на кадрите.

Антиалиасингът зависи много от производителността на видео паметта, така че бърза видеокарта с бърза памет ще може да изчисли антиалиасинг на цял екран с по-малко въздействие върху производителността, отколкото евтина видеокарта. Anti-aliasing може да се активира в различни режими. Например 4x anti-aliasing ще даде по-добра картина от 2x anti-aliasing, но ще бъде голям удар в производителността. Докато 2x anti-aliasing удвоява хоризонталната и вертикалната разделителна способност, режимът 4x я учетворява.

Текстурно филтриране

Всички 3D обекти в играта са текстурирани и колкото по-голям е ъгълът на показаната повърхност, толкова по-изкривена ще изглежда текстурата. За да елиминират този ефект, графичните процесори използват филтриране на текстури.

Първият метод на филтриране се нарича билинеен и дава характерни ивици, които не са много приятни за окото. Ситуацията се подобри с въвеждането на трилинейно филтриране. И двата варианта на съвременните видеокарти работят практически без влошаване на производителността.

Анизотропното филтриране (AF) е най-добрият начин за филтриране на текстури. Подобно на FSAA, анизотропното филтриране може да бъде включено на различни нива. Например 8x AF дава по-добро качество на филтриране от 4x AF. Подобно на FSAA, анизотропното филтриране изисква определено количество процесорна мощност, която се увеличава с увеличаване на нивото на AF.

Текстури с висока резолюция

Всички 3D игри са създадени по специфични спецификации и едно от тези изисквания определя текстурната памет, от която ще се нуждае играта. Всички необходими текстури трябва да се поберат в паметта на видеокартата по време на играта, в противен случай производителността ще падне драстично, тъй като достъпът до текстурата в RAM дава значително забавяне, да не говорим за файла за пейджинг на твърдия диск. Следователно, ако разработчикът на игри разчита на 128MB VRAM като минимално изискване, тогава наборът от активни текстури не трябва да надвишава 128MB в нито един момент.

Съвременните игри имат множество набори текстури, така че играта ще работи гладко на по-стари графични карти с по-малко VRAM, както и на по-нови карти с повече VRAM. Например една игра може да съдържа три комплекта текстури: за 128 MB, 256 MB и 512 MB. Днес има много малко игри, които поддържат 512 MB видеопамет, но все пак те са най-обективната причина да закупите видеокарта с такъв обем памет. Въпреки че увеличаването на паметта има малък или никакъв ефект върху производителността, ще получите подобрение във визуалното качество, ако играта поддържа подходящия набор текстури.

Какво трябва да знаете за видеокартите?

Във връзка с

Диспечер на задачите Windows 10съдържа подробни инструменти за наблюдение GPU (GPU). Можете да видите използването на всяко приложение и GPU за цялата система и Microsoftобещава, че индикатори Диспечер на задачите ще бъде по-точен от помощните програми на трети страни.

Как работи

Тези функции GPUбяха добавени в актуализацията Fall Creators за Windows 10 , също известен като Windows 10 версия 1709 . Ако използвате Windows 7, 8 или по-стара версия на Windows 10, няма да видите тези инструменти в диспечера на задачите.

Windowsизползва по-нови функции в Windows Display Driver Model за извличане на информация директно от GPU (VidSCH) и мениджър на видео памет (VidMm) в графичното ядро ​​WDDM, които отговарят за действителното разпределение на ресурсите. Той показва много точни данни, без значение какви API приложения използват за достъп до GPU - Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle или каквото и да е друго.

Ето защо в Диспечер на задачите показват се само системи, съвместими с WDDM 2.0 графични процесори . Ако не го виждате, GPU на вашата система вероятно използва по-стар тип драйвер.

Можете да проверите коя версия на WDDM използва вашият драйвер GPUкато натиснете бутона Windows + R, въведете в полето " dxdiag", И след това натиснете" Въведете "За да отворите инструмента" Инструмент за диагностика на DirectX". Отидете в раздела Екран и погледнете вдясно от Модел под Драйвери. Ако видите WDDM 2.x драйвер тук, вашата система е съвместима. Ако видите WDDM 1.x драйвер тук, вашият GPUнесъвместими.

Как да видите производителността на GPU

Тази информация е достъпна в Диспечер на задачите , въпреки че е скрит по подразбиране. За да го отворите, отворете Диспечер на задачитекато щракнете с десния бутон върху произволно празно място в лентата на задачите и изберете " Диспечер на задачите” или като натиснете Ctrl+Shift+Esc на клавиатурата.

Щракнете върху бутона Още подробности в долната част на прозореца Диспечер на задачите' ако виждате стандартния прост изглед.

Ако GPU не се показва в диспечера на задачите , в режим на цял екран в раздела " процеси» щракнете с десния бутон върху произволно заглавие на колона и след това активирайте опцията « GPU ". Това ще добави колона GPU , което ви позволява да видите процента на ресурсите GPU използвани от всяко приложение.

Можете също да активирате опцията " GPU ядроза да видите кой GPU използва приложението.

Обща употреба GPUна всички приложения във вашата система се показва в горната част на колоната GPU. Щракнете върху колона GPUза да сортирате списъка и да видите кои приложения използват вашите GPUнай-много в момента.

Номер в колона GPUе най-високата употреба, която приложението използва за всички двигатели. Така, например, ако дадено приложение използва 50% от GPU 3D двигателя и 2% от GPU за декодиране на видео, вие просто ще видите числото 50%, показано в графата GPU.

В колоната " GPU ядро” се показва за всяко приложение. Показва ви какво физически GPUи какъв двигател използва приложението, като например дали използва 3D двигател или двигател за декодиране на видео. Можете да определите кой GPU отговаря на конкретен показател, като поставите отметка в " производителност“, което ще обсъдим в следващия раздел.

Как да видите използването на видеопаметта на приложението

Ако се чудите колко видеопамет се използва от приложение, трябва да отидете в раздела Подробности в диспечера на задачите. В раздела Подробности щракнете с десния бутон върху произволно заглавие на колона и изберете Избор на колони. Превъртете надолу и активирайте колони " GPU », « GPU ядро », « " и " ". Първите две са налични и в раздела Процеси, но последните две опции за памет са налични само в панела с подробности.

Колона " Специализирана GPU памет » показва колко памет използва приложението на вашия GPU. Ако вашият компютър има дискретна NVIDIA или AMD графична карта, тогава това е част от неговата VRAM, тоест колко физическа памет използва дадено приложение на вашата графична карта. Ако имате интегриран графичен процесор , част от обичайната ви системна памет е запазена изключително за вашия графичен хардуер. Това показва каква част от запазената памет се използва от приложението.

Windowsсъщо така позволява на приложенията да съхраняват някои данни в обикновена системна DRAM. Колона " Споделена GPU памет ' показва колко памет в момента използва приложението за видео устройства от нормалната системна RAM на компютъра.

Можете да щракнете върху която и да е от колоните, за да сортирате по тях и да видите кое приложение използва най-много ресурси. Например, за да видите приложенията, които използват най-много видео памет на вашия GPU, щракнете върху " Специализирана GPU памет ».

Как да проследите използването на споделяне на GPU

За проследяване на общата статистика за използване на ресурсите GPU, отидете на " производителност"и погледни" GPU» в долната част на страничната лента. Ако вашият компютър има няколко графични процесора, тук ще видите няколко опции GPU.

Ако имате няколко свързани графични процесора - като използвате функция като NVIDIA SLI или AMD Crossfire, ще ги видите идентифицирани с "#" в името им.

Windowsпоказва използването GPUв реално време. По подразбиране Диспечер на задачите опитва се да покаже най-интересните четири двигателя според това, което се случва във вашата система. Например, ще видите различни графики в зависимост от това дали играете 3D игри или кодирате видеоклипове. Можете обаче да щракнете върху всяко от имената над графиките и да изберете някой от другите налични двигатели.

Вашето име GPUсъщо се появява в страничната лента и в горната част на този прозорец, което улеснява проверката какъв графичен хардуер е инсталиран на вашия компютър.

Ще видите също графики за използване на специална и споделена памет GPU. Използване на споделена памет GPUсе отнася до това колко от общата памет на системата се използва за задачи GPU. Тази памет може да се използва както за нормални системни задачи, така и за видеозаписи.

В долната част на прозореца ще видите информация като номера на версията на инсталирания видео драйвер, дата на разработка и физическо местоположение. GPUна вашата система.

Ако искате да видите тази информация в по-малък прозорец, който е по-лесен за задържане на екрана, щракнете двукратно някъде в екрана на GPU или щракнете с десния бутон някъде в него и изберете опцията Графично резюме". Можете да увеличите прозореца, като щракнете двукратно върху панела или като щракнете с десния бутон върху него и премахнете отметката от „ Графично резюме».

Можете също да щракнете с десния бутон върху диаграмата и да изберете Edit Graph > Single Core, за да видите само една графика на двигателя GPU.

За да бъде този прозорец постоянно показан на екрана ви, щракнете върху „Опции“ > „ Върху други прозорци».

Кликнете два пъти вътре в панела GPUоще веднъж и имате минимален прозорец, който можете да позиционирате навсякъде на екрана.

Добър ден на всички, скъпи приятели и гости на моя блог. Днес бих искал да поговорим малко за хардуера на нашите компютри. Моля, кажете ми, чували ли сте за такова нещо като GPU? Оказва се, че много хора просто чуват такова съкращение за първи път.

Колкото и банално да звучи, но днес живеем в епоха компютърна технология, а понякога е трудно да се намери някой, който няма представа как работи компютърът. Така например е достатъчно някой да разбере, че компютърът работи благодарение на процесор(ПРОЦЕСОР).

Някой ще отиде по-далеч и ще разбере, че има и определен GPU. Такова сложно съкращение, но подобно на предишното. Така че нека да разберем какво е графичният процесор в компютъра, какви са те и какви са разликите с процесора.

Не голяма разлика

С прости думи, GPU е графичен процесор, понякога наричан видеокарта, което отчасти е грешка. Видеокартата е готово компонентно устройство, което включва процесора, който описваме. Той е способен да обработва команди за формиране 3D графики. Заслужава да се отбележи, че това е ключов елемент за това, скоростта и различните възможности на видеосистемата като цяло зависят от нейната мощност.

Графичният процесор има свой собствен отличителни чертив сравнение с аналога на процесора. Основната разлика е в архитектурата, върху която е построен. Архитектурата на GPU е изградена по такъв начин, че ви позволява да обработвате големи количества данни по-ефективно. Централният процесор, от своя страна, обработва данни и задачи последователно. Естествено, тази функция не трябва да се приема като минус.

Видове графични процесори

Няма много видове графични процесори, един от тях се нарича дискретен и се използва на отделни модули. Такъв чип е доста мощен, така че изисква охладителна система от радиатори, охладители, течно охлаждане може да се използва в особено натоварени системи.

Днес можем да наблюдаваме значителна стъпка в развитието на графичните компоненти, което се дължи на появата на голям брой видове графични процесори. Ако преди всеки компютър трябваше да бъде оборудван с дискретна графика, за да има достъп до игри или други графични приложения, сега такава задача може да бъде изпълнена от IGP - интегриран графичен процесор.

Интегрираната графика вече се доставя с почти всеки компютър (с изключение на сървърите), независимо дали е лаптоп или настолен компютър. Самият видео процесор е вграден в процесора, което може значително да намали консумацията на енергия и цената на самото устройство. В допълнение, такива графики могат да бъдат в други подвидове, например: дискретни или хибридно-дискретни.

Първият вариант включва най-скъпото решение, окабеляване към дънна платкаили отделен мобилен модул. Вторият вариант се нарича хибриден с причина, всъщност той използва малка видео памет, която е запоена на платката, но в същото време може да я разшири с помощта на RAM.

Естествено, такива графични решения не могат да бъдат равни на пълноценни дискретни видеокарти, но дори и сега показва доста добра производителност. Във всеки случай разработчиците имат към какво да се стремят, може би бъдещето е с такова решение.

Е, това е всичко, което имам. Надявам се статията да ви е харесала! Очаквам с нетърпение да ви видя отново в моя блог. Късмет. Чао чао!