Acasă / Sistem de operare mobil / Tehnologia nvidia gpu boost 2.0. Plăci video. Platforma de capturi de ecran a jocului Ansel

Tehnologia nvidia gpu boost 2.0. Plăci video. Platforma de capturi de ecran a jocului Ansel

GPU Boost 2.0

Cu placa grafică NVIDIA GeForce GTX 680, avem o nouă caracteristică importantă: GPU Boost. Iar noul NVIDIA GeForce GTX Titan face un pas mai departe, extinzând această caracteristică la GPU Boost 2.0. Prima versiune a GPU Boost 1.0 s-a concentrat pe consumul maxim de energie realizat în cele mai solicitante jocuri moderne. În același timp, temperatura GPU nu a jucat un rol deosebit, cu excepția, poate, dacă s-a apropiat de pragul critic. Frecvența maximă de ceas a fost determinată pe baza tensiunii relative. Dezavantajul era destul de evident: GPU Boost 1.0 nu putea preveni situațiile în care, chiar și la tensiuni necritice, temperatura creștea excesiv.

NVIDIA GeForce GTX Titan - GPU Boost 2.0

GeForce GTX Titan a evaluat deja doi parametri: tensiunea și temperatura. Adică, tensiunea relativă (Vref) este deja determinată pe baza acestor doi parametri. Desigur, dependența de GPU-urile individuale va rămâne, deoarece există variații în producția de cipuri, astfel încât fiecare placă video va fi diferită de oricare alta. Dar NVIDIA subliniază că, din punct de vedere tehnic, adăugarea temperaturii a permis o medie de overclocking Boost cu 3-7% mai mare. Tehnologia GPU Boost 2.0 ar putea fi teoretic portată pe plăci grafice mai vechi, dar acest lucru este puțin probabil să se întâmple.

NVIDIA GeForce GTX Titan - GPU Boost 2.0

Să aruncăm o privire mai atentă la GPU Boost 2.0. Utilități precum EVGA Precision Tool sau MSI Afterburner acceptă deja GPU Boost 2.0. Am folosit instrumentul de precizie EVGA în versiunea 4.0.

NVIDIA GeForce GTX Titan - GPU Boost 2.0

GPU Boost 2.0 ține cont de temperatură, iar la temperaturi scăzute, tehnologia poate crește performanța mai semnificativ. Temperatura țintă (Ttarget) este setată implicit la 80 °C.

NVIDIA GeForce GTX Titan - GPU Boost 2.0

Tehnologia GPU Boost 2.0 conține toate caracteristicile cunoscute nouă de la prima generație de tehnologie, dar, în același timp, face posibilă setarea unei tensiuni mai mari și, prin urmare, frecvențe de ceas mai mari. Pentru overclockeri, este posibilă modificarea setărilor. Puteți activa supratensiune GPU, dar fiți conștienți de potențiala reducere a duratei de viață a plăcii grafice.

NVIDIA GeForce GTX Titan - GPU Boost 2.0

Overclockerii pot crește Vref și Vmax (OverVoltaging). Mulți utilizatori și-au dorit acest lucru pe GK104, dar NVIDIA nu a încredințat o astfel de oportunitate nici utilizatorilor, nici producătorilor. Iar placa video EVGA GTX 680 Classified pe care am testat-o ​​(testare și revizuire) este doar un exemplu grozav. Cu această placă video, un modul special EVGA Evbot a oferit utilizatorilor control asupra tensiunilor. Dar NVIDIA a cerut urgent ca EVGA să elimine hardware suplimentar de pe plăcile lor grafice. În cazul GPU Boost 2.0 și OverVoltaging, NVIDIA însăși a făcut un pas în această direcție. Deci, producătorii de plăci grafice pot lansa mai multe modele ale GeForce GTX Titan, cum ar fi versiunile standard și versiunile overclockate din fabrică. Activarea OverVoltaging se face prin comutatorul VBIOS (adică în mod explicit pentru utilizator pentru ca acesta să fie conștient de posibilele consecințe).

ParametruSens
Nume cod al cipuluiGP104
Tehnologia de producțieFinFET de 16 nm
Numărul de tranzistori7,2 miliarde
Zona centrală314 mm²
Arhitectură
Suport hardware DirectX
Autobuz de memorie
1607 (1733) MHz
Blocuri de calcul20 de multiprocesoare de streaming, inclusiv 2560 IEEE 754-2008 ALU-uri scalare în virgulă mobilă;
Blocuri de texturare160 de unități de adresare și filtrare a texturii cu suport pentru componentele FP16 și FP32 în texturi și suport pentru filtrare triliniară și anizotropă pentru toate formatele de textură
Suport monitor
Specificații grafice de referință GeForce GTX 1080
ParametruSens
Frecvența miezului1607 (1733) MHz
2560
Numărul de blocuri de textură160
Numărul de blocuri de amestecare64
Frecvența efectivă a memoriei10000 (4×2500) MHz
Tipul memorieiGDDR5X
Autobuz de memorie256 de biți
Capacitate de memorie8 GB
320 GB/s
aproximativ 9 teraflopi
103 gigapixeli/s
257 gigatexeli/s
ObosiPCI Express 3.0
Conectori
Consumul de energiepana la 180 W
Mâncare suplimentarăUn conector cu 8 pini
2
Pret recomandat599-699 USD (SUA), 54990 RUB (Rusia)

Noul model al plăcii video GeForce GTX 1080 a primit un nume logic pentru prima soluție a noii serii GeForce - diferă de predecesorul său direct doar într-o cifră de generație schimbată. Noutatea nu numai că înlocuiește soluțiile de top din linia actuală a companiei, dar a devenit și nava amiral a noii serii de ceva timp, până când Titan X a fost lansat pe GPU-uri și mai puternice. Dedesubt în ierarhie se află și modelul deja anunțat GeForce GTX 1070, bazat pe o versiune redusă a cipului GP104, pe care o vom analiza mai jos.

Prețurile sugerate pentru noua placă grafică a Nvidia sunt de 599 USD și, respectiv, 699 USD pentru edițiile obișnuite și Founders Edition (vezi mai jos), ceea ce este o afacere destul de bună, având în vedere că GTX 1080 este înaintea nu numai GTX 980 Ti, ci și Titan X. Astăzi, noul produs este cea mai bună soluție din punct de vedere al performanței pe piața plăcilor video cu un singur cip fără întrebări și, în același timp, este mai ieftin decât cele mai puternice plăci video din generația anterioară. Până acum, GeForce GTX 1080 nu are practic niciun concurent de la AMD, așa că Nvidia a reușit să stabilească un preț care să li se potrivească.

Placa video în cauză are la bază cipul GP104, care are o magistrală de memorie de 256 de biți, dar noul tip de memorie GDDR5X funcționează la o frecvență efectivă foarte mare de 10 GHz, ceea ce oferă o lățime de bandă de vârf de 320 GB/s. - care este aproape la egalitate cu GTX 980 Ti cu magistrală pe 384 de biți. Cantitatea de memorie instalată pe o placă video cu o astfel de magistrală ar putea fi de 4 sau 8 GB, dar ar fi stupid să setezi o cantitate mai mică pentru o soluție atât de puternică în condiții moderne, așa că GTX 1080 a primit 8 GB de memorie și această sumă este suficientă pentru a rula orice aplicație 3D cu orice setări de calitate pentru câțiva ani de acum încolo.

PCB-ul GeForce GTX 1080 este, de înțeles, destul de diferit de PCB-urile anterioare ale companiei. Valoarea consumului de energie tipic pentru articolele noi este de 180 de wați - puțin mai mare decât GTX 980, dar vizibil mai mică decât Titan X și GTX 980 Ti mai puțin puternice. Placa de referință are setul obișnuit de conectori pentru conectarea dispozitivelor de ieșire a imaginii: un DVI Dual-Link, unul HDMI și trei DisplayPort.

Design de referință Founders Edition

Chiar și odată cu anunțul GeForce GTX 1080 la începutul lunii mai, a fost anunțată o ediție specială a plăcii video numită Founders Edition, care are un preț mai mare decât plăcile video obișnuite de la partenerii companiei. De fapt, această ediție este designul de referință al cardului și al sistemului de răcire și este produsă chiar de Nvidia. Puteți avea diferite atitudini față de astfel de opțiuni pentru plăcile video, dar designul de referință dezvoltat de inginerii companiei și fabricat folosind componente de înaltă calitate își are fanii.

Dar dacă vor plăti mai mult cu câteva mii de ruble pentru o placă video de la Nvidia în sine este o întrebare la care doar practica poate răspunde. În orice caz, la început vor fi plăcile video de referință de la Nvidia care vor apărea la vânzare la un preț mai mare și nu există prea multe de unde alege - asta se întâmplă cu fiecare anunț, dar referința GeForce GTX 1080 este diferită prin aceea că este planificat să fie vândut în această formă pe toată durata vieții sale, până la lansarea soluțiilor de ultimă generație.

Nvidia consideră că această ediție are meritele ei chiar și față de cele mai bune lucrări ale partenerilor. De exemplu, designul cu două sloturi al coolerului face ușoară asamblarea atât a computerelor de gaming cu un factor de formă relativ mic, cât și a sistemelor video cu mai multe cipuri bazate pe această placă video puternică (chiar în ciuda modului cu trei și patru cipuri nu este recomandat). de către companie). GeForce GTX 1080 Founders Edition are unele avantaje sub forma unui cooler eficient care folosește o cameră de evaporare și un ventilator care împinge aerul încălzit din carcasă - aceasta este prima astfel de soluție de la Nvidia, consumând mai puțin de 250 de wați de putere.

În comparație cu modelele anterioare de produse de referință ale companiei, circuitul de alimentare a fost modernizat de la patru faze la cinci faze. Nvidia vorbește și despre componentele îmbunătățite pe care se bazează noul produs, zgomotul electric a fost și el redus pentru a îmbunătăți stabilitatea tensiunii și potențialul de overclocking. Ca rezultat al tuturor îmbunătățirilor, eficiența energetică a plăcii de referință a crescut cu 6% în comparație cu GeForce GTX 980.

Și pentru a se deosebi de modelele „obișnuite” ale GeForce GTX 1080 și în exterior, a fost dezvoltat un design neobișnuit de carcasă „tocat” pentru ediția Founders. Ceea ce, probabil, a dus, însă, și la complicarea formei camerei de evaporare și a radiatorului (vezi foto), care poate să fi fost unul dintre motivele pentru a plăti 100 de dolari în plus pentru o astfel de ediție specială. Repetăm ​​că la începutul vânzărilor, cumpărătorii nu vor avea prea multe de ales, dar în viitor va fi posibil să aleagă atât o soluție cu design propriu de la unul dintre partenerii companiei, cât și realizată chiar de Nvidia.

Noua generație de arhitectură grafică Pascal

Placa video GeForce GTX 1080 este prima soluție a companiei bazată pe cipul GP104, care aparține noii generații de arhitectură grafică Pascal a Nvidia. Deși noua arhitectură se bazează pe soluțiile elaborate în Maxwell, are și diferențe funcționale importante, despre care vom scrie mai târziu. Principala schimbare din punct de vedere global a fost noul proces tehnologic Pe care este realizat noul GPU.

Utilizarea tehnologiei de proces FinFET de 16 nm în producția de GPU-uri GP104 la fabricile companiei taiwaneze TSMC a făcut posibilă creșterea semnificativă a complexității cipului, menținând în același timp o suprafață și un cost relativ scăzut. Comparați numărul de tranzistori și aria chipurilor GP104 și GM204 - acestea sunt apropiate ca zonă (cipul noutății este chiar mai mic fizic), dar cipul cu arhitectură Pascal are un număr semnificativ mai mare de tranzistori și, în consecință , unități de execuție, inclusiv cele care oferă noi funcționalități.

Din punct de vedere arhitectural, primul Pascal de gaming este foarte asemănător cu soluțiile similare ale arhitecturii Maxwell, deși există unele diferențe. La fel ca Maxwell, procesoarele cu arhitectură Pascal vor avea diferite configurații de clustere de procesare grafică (GPC), multiprocesoare de streaming (SM) și controlere de memorie. Multiprocesorul SM este un multiprocesor extrem de paralel care programează și rulează warps (warps, grupuri de 32 de fluxuri de instrucțiuni) pe nuclee CUDA și alte unități de execuție din multiprocesor. Puteți găsi informații detaliate despre designul tuturor acestor blocuri în recenziile noastre despre soluțiile Nvidia anterioare.

Fiecare dintre multiprocesoarele SM este asociat cu PolyMorph Engine, care se ocupă de eșantionarea texturii, tesselarea, transformarea, setarea atributelor de vârf și corecția perspectivei. Spre deosebire de soluțiile anterioare ale companiei, PolyMorph Engine din cipul GP104 conține și un nou bloc Simultaneous Multi-Projection, despre care vom discuta mai jos. Combinația dintre multiprocesorul SM cu un motor Polymorph se numește în mod tradițional TPC - Texture Processor Cluster pentru Nvidia.

În total, cipul GP104 din GeForce GTX 1080 conține patru clustere GPC și 20 de multiprocesoare SM, precum și opt controlere de memorie combinate cu 64 ROP-uri. Fiecare cluster GPC are un motor de rasterizare dedicat și include cinci SM-uri. Fiecare multiprocesor, la rândul său, constă din 128 de nuclee CUDA, 256 KB fișier de registru, 96 KB memorie partajată, 48 KB cache L1 și opt unități de textură TMU. Adică, în total, GP104 conține 2560 de nuclee CUDA și 160 de unități TMU.

De asemenea, procesorul grafic pe care se bazează GeForce GTX 1080 conține opt controlere de memorie pe 32 de biți (spre deosebire de cele de 64 de biți utilizate anterior), ceea ce ne oferă o magistrală de memorie finală de 256 de biți. Opt ROP-uri și 256 KB de cache L2 sunt legate de fiecare dintre controlerele de memorie. Adică, în total, cipul GP104 conține 64 de ROP-uri și 2048 KB de cache L2.

Datorită optimizărilor arhitecturale și unei noi tehnologii de proces, primul Pascal pentru jocuri a devenit cel mai eficient GPU din toate timpurile. Mai mult decât atât, există o contribuție la aceasta atât din partea unuia dintre cele mai avansate procese tehnologice 16 nm FinFET, cât și din optimizările arhitecturii efectuate în Pascal, comparativ cu Maxwell. Nvidia a reușit să mărească viteza ceasului chiar mai mult decât se așteptau atunci când a trecut la o nouă tehnologie de proces. GP104 rulează la o frecvență mai mare decât un ipotetic GM204 realizat folosind procesul de 16 nm. Pentru a face acest lucru, inginerii Nvidia au trebuit să verifice și să optimizeze cu atenție toate blocajele soluțiilor anterioare care împiedică overclockarea peste un anumit prag. Drept urmare, noul GeForce GTX 1080 rulează cu peste 40% mai mari viteze de ceas decât GeForce GTX 980. Dar asta nu este tot ceea ce există pentru schimbările de ceas GPU.

Tehnologia GPU Boost 3.0

După cum știm bine de la plăcile grafice Nvidia anterioare, acestea folosesc tehnologia hardware GPU Boost în GPU-urile lor, concepută pentru a crește viteza de funcționare a GPU-ului în moduri în care nu și-a atins încă limitele de consum de energie și termice. De-a lungul anilor, acest algoritm a suferit multe modificări, iar a treia generație a acestei tehnologii este deja utilizată în cipul video cu arhitectură Pascal - GPU Boost 3.0, a cărui principală inovație este o setare mai fină a frecvențelor turbo, în funcție de tensiune.

Dacă vă amintiți cum funcționează Versiunile anterioare tehnologie, apoi diferența dintre frecvența de bază (garantată valoarea minima frecvența sub care nu cade GPU-ul, cel puțin în jocuri) și frecvența turbo a fost fixată. Adică frecvența turbo a fost mereu la o anumită cantitate de megaherți deasupra bazei. GPU Boost 3.0 a introdus capacitatea de a seta offset-uri de frecvență turbo pentru fiecare tensiune separat. Cel mai simplu mod de a înțelege acest lucru este cu o ilustrație:

În stânga este GPU Boost al celei de-a doua versiuni, în dreapta - a treia, care a apărut în Pascal. Diferența fixă ​​dintre frecvențele de bază și turbo nu a permis să dezvăluie capacitățile complete ale GPU-ului, în unele cazuri, GPU-urile generațiilor anterioare puteau funcționa mai rapid pe tensiunea stabilită, dar un exces fix al frecvenței turbo nu a permis acest lucru. În GPU Boost 3.0, a apărut această caracteristică, iar frecvența turbo poate fi setată pentru fiecare dintre valorile individuale ale tensiunii, storcând complet tot sucul din GPU.

Sunt necesare utilități utile pentru a gestiona overclockarea și a seta curba frecvenței turbo. Nvidia în sine nu face acest lucru, dar își ajută partenerii să creeze astfel de utilități pentru a facilita overclockarea (în limite rezonabile, desigur). De exemplu, nou funcţionalitate GPU Boost 3.0 a fost deja dezvăluit în EVGA Precision XOC, care include un scaner dedicat de overclocking care găsește și stabilește automat diferența neliniară dintre frecvența de bază și frecvența turbo la tensiuni diferite, prin rularea unui test de performanță și stabilitate încorporat. Ca rezultat, utilizatorul obține o curbă de frecvență turbo care se potrivește perfect cu capacitățile unui anumit cip. Care, de altfel, poate fi modificată în orice fel în mod manual.

După cum puteți vedea în captura de ecran a utilitarului, pe lângă informațiile despre GPU și sistem, există și setări pentru overclocking: Power Target (determină consumul de energie tipic în timpul overclockării, ca procent din standard), GPU Temp Target (temperatura maximă admisă de bază), GPU Clock Offset (depășește frecvența de bază pentru toate valorile de tensiune), Memory Offset (depășește frecvența memoriei video peste valoarea implicită), Supratensiune (oportunitate suplimentară de a crește tensiunea).

Utilitarul Precision XOC include trei moduri de overclocking: Basic, Linear și Manual. În modul principal, puteți seta o singură valoare de overclock (frecvență turbo fixă) peste cea de bază, așa cum a fost cazul pentru GPU-urile anterioare. Modul liniar vă permite să setați o schimbare liniară a frecvenței de la valorile minime la maxime ale tensiunii pentru GPU. Ei bine, în modul manual, puteți seta valori unice ale frecvenței GPU pentru fiecare punct de tensiune de pe grafic.

Utilitarul include și un scanner special pentru overclocking automat. Puteți fie să vă setați propriile niveluri de frecvență, fie să lăsați utilitarul Precision XOC să scaneze GPU-ul la toate tensiunile și să găsească cele mai stabile frecvențe pentru fiecare punct de pe curba de tensiune și frecvență complet automat. În timpul procesului de scanare, Precision XOC crește treptat frecvența GPU-ului și verifică funcționarea acestuia pentru stabilitate sau artefacte, construind o curbă ideală de frecvență și tensiune care va fi unică pentru fiecare cip în particular.

Acest scaner poate fi personalizat conform propriilor cerințe prin setarea intervalului de timp pentru a testa fiecare valoare de tensiune, frecvența minimă și maximă care trebuie testată și pasul acestuia. Este clar că pentru a obține rezultate stabile, ar fi mai bine să stabiliți un pas mic și o durată decentă de testare. În timpul testării, poate fi observată funcționarea instabilă a driverului video și a sistemului, dar dacă scanerul nu îngheață, acesta va restabili funcționarea și va continua să găsească frecvențele optime.

Nou tip de memorie video GDDR5X și compresie îmbunătățită

Deci, puterea GPU-ului a crescut semnificativ, iar magistrala de memorie a rămas doar pe 256 de biți - va limita lățimea de bandă a memoriei performanța generală și ce se poate face în acest sens? Se pare că promițătorul HBM din a doua generație este încă prea scump de fabricat, așa că a trebuit să se caute alte opțiuni. Încă de la introducerea memoriei GDDR5 în 2009, inginerii Nvidia au explorat posibilitățile de utilizare a noilor tipuri de memorie. Ca urmare, evoluțiile au venit la introducerea unui nou standard de memorie GDDR5X - cel mai complex și mai avansat standard până în prezent, oferind o rată de transfer de 10 Gbps.

Nvidia oferă un exemplu interesant despre cât de rapid este acest lucru. Doar 100 de picosecunde trec între biții transmisi - în acest timp, un fascicul de lumină va călători pe o distanță de doar un inch (aproximativ 2,5 cm). Iar când se utilizează memoria GDDR5X, circuitele de recepție a datelor trebuie să aleagă valoarea bitului transmis în mai puțin de jumătate din acest timp înainte ca următorul să fie trimis - asta doar pentru a înțelege la ce a ajuns tehnologia modernă.

Atingerea acestei viteze a necesitat dezvoltarea unei noi arhitecturi de sistem I/O care a necesitat câțiva ani de dezvoltare în comun cu producătorii de cipuri de memorie. Pe lângă rata crescută de transfer de date, a crescut și eficiența energetică - cipurile de memorie GDDR5X folosesc o tensiune mai mică de 1,35 V și sunt fabricate folosind tehnologii noi, care oferă același consum de energie la o frecvență cu 43% mai mare.

Inginerii companiei au trebuit să refacă liniile de transmisie a datelor dintre nucleul GPU și cipurile de memorie, acordând mai multă atenție prevenirii pierderii și degradării semnalului de la memorie la GPU și înapoi. Deci, în ilustrația de mai sus, semnalul capturat este afișat ca un „ochi” simetric mare, ceea ce indică o bună optimizare a întregului circuit și ușurința relativă a captării datelor din semnal. Mai mult decât atât, modificările descrise mai sus au condus nu numai la posibilitatea utilizării GDDR5X la 10 GHz, dar ar trebui să ajute și la obținerea unei lățimi de bandă mare a memoriei pe viitoarele produse folosind memoria GDDR5 mai familiară.

Ei bine, am obținut o creștere cu peste 40% a lățimii de bandă a memoriei din utilizarea noii memorie. Dar nu este suficient? Pentru a crește și mai mult eficiența lățimii de bandă a memoriei, Nvidia a continuat să îmbunătățească compresia avansată a datelor introdusă în arhitecturile anterioare. Subsistemul de memorie din GeForce GTX 1080 folosește tehnici îmbunătățite și noi de comprimare a datelor fără pierderi, concepute pentru a reduce cerințele de lățime de bandă - deja a patra generație de compresie pe cip.

Algoritmii pentru compresia datelor în memorie aduc mai multe aspecte pozitive simultan. Comprimarea reduce cantitatea de date scrise în memorie, același lucru este valabil și pentru datele transferate din memoria video în memoria cache L2, ceea ce îmbunătățește eficiența utilizării cache-ului L2, deoarece o țiglă comprimată (un bloc de mai mulți pixeli framebuffer) are o dimensiune mai mică decât unul necomprimat. De asemenea, reduce cantitatea de date trimise între diferite puncte, cum ar fi modulul de textură TMU și framebuffer-ul.

Conducta de comprimare a datelor în GPU utilizează mai mulți algoritmi, care sunt determinați în funcție de „compresibilitatea” datelor - pentru ei este selectat cel mai bun algoritm disponibil. Unul dintre cele mai importante este algoritmul de compresie a culorilor delta. Această metodă de compresie codifică datele ca diferență între valori consecutive în loc de datele în sine. GPU-ul calculează diferența de valori de culoare dintre pixelii dintr-un bloc (tigla) și stochează blocul ca o culoare medie pentru întregul bloc plus date despre diferența de valori pentru fiecare pixel. Pentru datele grafice, această metodă este de obicei potrivită, deoarece culoarea din plăci mici pentru toți pixelii adesea nu diferă prea mult.

GPU-ul GP104 din GeForce GTX 1080 acceptă mai mulți algoritmi de compresie decât cipurile Maxwell anterioare. Astfel, algoritmul de compresie 2:1 a devenit mai eficient și, pe lângă acesta, au apărut doi algoritmi noi: un mod de compresie 4:1, potrivit pentru cazurile în care diferența de culoare a pixelilor unui bloc este foarte mare. mic și un mod 8:1, care combină o compresie constantă 4:1 a blocurilor de 2×2 pixeli cu compresia delta de 2x între blocuri. Când compresia nu este posibilă deloc, nu este utilizată.

Cu toate acestea, în realitate, aceasta din urmă se întâmplă foarte rar. Acest lucru poate fi văzut din exemplele de capturi de ecran din jocul Project CARS, pe care Nvidia l-a citat pentru a ilustra rata de compresie crescută în Pascal. În ilustrații, acele plăci cadru tampon pe care GPU-ul le putea comprima au fost umbrite în magenta, iar cele care nu puteau fi comprimate fără pierderi au rămas cu culoarea originală (sus - Maxwell, jos - Pascal).

După cum puteți vedea, noii algoritmi de compresie din GP104 funcționează într-adevăr mult mai bine decât în ​​Maxwell. Deși arhitectura veche a reușit să comprima, de asemenea, majoritatea plăcilor din scenă, o mulțime de iarbă și copaci din jurul marginilor, precum și părțile auto, nu sunt supuse unor algoritmi de compresie vechi. Dar odată cu includerea de noi tehnici în Pascal, un număr foarte mic de zone de imagine au rămas necomprimate - eficiența îmbunătățită este evidentă.

Ca urmare a îmbunătățirilor în compresia datelor, GeForce GTX 1080 este capabilă să reducă semnificativ cantitatea de date trimisă pe cadru. În cifre, compresia îmbunătățită economisește încă 20% din lățimea de bandă efectivă a memoriei. În plus față de creșterea cu peste 40% a lățimii de bandă a memoriei GeForce GTX 1080 față de GTX 980 din utilizarea memoriei GDDR5X, toate acestea oferă o creștere cu aproximativ 70% a lățimii de bandă efectivă a memoriei comparativ cu modelul din generația anterioară.

Suport pentru Async Compute

Majoritatea jocurilor moderne folosesc calcule complexe pe lângă grafică. De exemplu, calculele atunci când se calculează comportamentul corpurilor fizice pot fi efectuate nu înainte sau după calculele grafice, ci simultan cu acestea, deoarece nu sunt legate între ele și nu depind unul de celălalt în același cadru. Un alt exemplu este post-procesarea cadrelor deja randate și prelucrarea datelor audio, care pot fi efectuate și în paralel cu randarea.

Un alt exemplu clar de utilizare a funcționalității este tehnica Asynchronous Time Warp folosită în sistemele VR pentru a schimba cadrul de ieșire în funcție de mișcarea capului jucătorului chiar înainte de a fi scos, întrerupând redarea următorului. O astfel de încărcare asincronă a capacităților GPU permite creșterea eficienței utilizării unităților sale de execuție.

Aceste sarcini de lucru creează două scenarii noi de utilizare a GPU-ului. Prima dintre acestea include încărcări suprapuse, deoarece multe tipuri de sarcini nu folosesc pe deplin capacitățile GPU-urilor, iar unele resurse sunt inactive. În astfel de cazuri, puteți rula pur și simplu două sarcini diferite pe același GPU, separând unitățile sale de execuție pentru a obține o utilizare mai eficientă - de exemplu, efecte PhysX care rulează împreună cu randarea 3D a cadrului.

Pentru a îmbunătăți performanța acestui scenariu, arhitectura Pascal a introdus echilibrarea dinamică a sarcinii. În arhitectura anterioară Maxwell, încărcările de lucru suprapuse au fost implementate ca o distribuție statică a resurselor GPU între grafică și calcul. Această abordare este eficientă cu condiția ca echilibrul dintre cele două sarcini să corespundă aproximativ împărțirii resurselor și sarcinile să se desfășoare în mod egal în timp. Dacă calculele non-grafice durează mai mult decât cele grafice și ambele așteaptă finalizarea lucrării comune, atunci o parte a GPU-ului va fi inactiv pentru timpul rămas, ceea ce va provoca o scădere a performanței generale și va anula toate beneficiile. Echilibrarea dinamică a sarcinii hardware, pe de altă parte, vă permite să utilizați resursele GPU eliberate de îndată ce acestea devin disponibile - pentru înțelegere, vom oferi o ilustrare.

Există, de asemenea, sarcini care sunt critice în timp, iar acesta este al doilea scenariu pentru calculul asincron. De exemplu, execuția algoritmului de distorsiune a timpului asincron în VR trebuie să se finalizeze înainte de scanare sau cadrul va fi eliminat. Într-un astfel de caz, GPU-ul trebuie să accepte întreruperea foarte rapidă a sarcinilor și trecerea la o altă sarcină pentru a prelua o sarcină mai puțin critică din execuția pe GPU, eliberându-și resursele pentru sarcini critice - aceasta se numește preempțiune.

O singură comandă de randare dintr-un motor de joc poate conține sute de apeluri de extragere, fiecare apel de extragere conține la rândul său sute de triunghiuri randate, fiecare conținând sute de pixeli de calculat și desenat. Abordarea tradițională a GPU folosește doar întrerupere la nivel înalt al sarcinilor, iar conducta grafică trebuie să aștepte ca toată munca să se termine înainte de a comuta sarcinile, ceea ce duce la o latență foarte mare.

Pentru a remedia acest lucru, arhitectura Pascal a introdus mai întâi capacitatea de a întrerupe o sarcină la nivel de pixel - Pixel Level Preemption. Unitățile de execuție GPU Pascal pot monitoriza în mod constant progresul sarcinilor de randare, iar atunci când este solicitată o întrerupere, pot opri execuția, salvând contextul pentru finalizarea ulterioară prin trecerea rapidă la o altă sarcină.

Întreruperea și comutarea la nivel de fir pentru operațiunile de calcul funcționează în mod similar cu întreruperea la nivel de pixel pentru calculul grafic. Sarcinile de lucru computaționale constau din mai multe grile, fiecare conținând mai multe fire. Când se primește o cerere de întrerupere, firele de execuție care rulează pe multiprocesor își încheie execuția. Alte blocuri își salvează propria stare pentru a continua din același punct în viitor, iar GPU-ul trece la o altă sarcină. Întregul proces de schimbare a sarcinilor durează mai puțin de 100 de microsecunde după ieșirea firelor de execuție.

Pentru sarcinile de lucru pentru jocuri, combinația de întreruperi la nivel de pixeli pentru grafică și întreruperi la nivel de fir pentru sarcinile de calcul oferă GPU-urilor cu arhitectură Pascal capacitatea de a comuta rapid între sarcini, cu o pierdere minimă de timp. Și pentru sarcinile de calcul pe CUDA, este, de asemenea, posibilă întreruperea cu granularitate minimă - la nivel de instrucție. În acest mod, toate firele de execuție opresc execuția simultan, trecând imediat la o altă sarcină. Această abordare necesită salvarea mai multor informații despre starea tuturor registrelor fiecărui fir, dar în unele cazuri de calcule negrafice este destul de justificată.

Utilizarea întreruperii rapide și a comutării sarcinilor în sarcinile grafice și de calcul a fost adăugată arhitecturii Pascal, astfel încât sarcinile grafice și non-grafice să poată fi întrerupte la nivel de instrucțiuni individuale, mai degrabă decât fire întregi, așa cum a fost cazul Maxwell și Kepler. . Aceste tehnologii pot îmbunătăți execuția asincronă a diferitelor sarcini de lucru GPU și pot îmbunătăți capacitatea de răspuns atunci când rulează mai multe sarcini simultan. La evenimentul Nvidia, ei au arătat o demonstrație a muncii de calcule asincrone folosind exemplul de calcul al efectelor fizice. Dacă fără calcule asincrone performanța a fost la nivelul de 77-79 FPS, atunci odată cu includerea acestor caracteristici, rata de cadre a crescut la 93-94 FPS.

Am dat deja un exemplu de una dintre posibilitățile de utilizare a acestei funcționalități în jocuri sub formă de distorsiune a timpului asincron în VR. Ilustrația arată funcționarea acestei tehnologii cu întrerupere tradițională (preempțiune) și rapidă. În primul caz, procesul de denaturare a timpului asincron se încearcă să fie efectuat cât mai târziu posibil, dar înainte de începerea actualizării imaginii de pe afișaj. Dar munca algoritmului trebuie să fie acordată execuției în GPU cu câteva milisecunde mai devreme, deoarece fără o întrerupere rapidă nu există nicio modalitate de a executa cu exactitate munca la momentul potrivit, iar GPU-ul este inactiv pentru ceva timp.

În cazul unei întreruperi precise la nivel de pixel și fir (prezentat în dreapta), această capacitate oferă o mai mare acuratețe în determinarea momentului întreruperii, iar deformarea asincronă a timpului poate fi începută mult mai târziu, cu încredere în finalizarea lucrării înainte de începe actualizarea informațiilor de pe afișaj. Și inactiv de ceva timp, în primul caz, GPU-ul poate fi încărcat cu niște lucrări grafice suplimentare.

Tehnologie multi-proiecție simultană

Noul GPU GP104 acceptă acum tehnologie nouă multiproiecție (Simultaneous Multi-Projection - SMP), care permite GPU-ului să redeze mai eficient datele pe sistemele moderne de imagistică. SMP permite cipul video să afișeze simultan date în mai multe proiecții, ceea ce a necesitat introducerea unui nou bloc hardware în GPU ca parte a motorului PolyMorph la sfârșitul conductei geometrice înainte de blocul de rasterizare. Acest bloc este responsabil pentru lucrul cu mai multe proiecții pentru un singur flux de geometrie.

Motorul de proiecție multiplă prelucrează date geometrice simultan pentru 16 proiecții preconfigurate care combină punctul de proiecție (camere), aceste proiecții pot fi rotite sau înclinate independent. Deoarece fiecare primitivă de geometrie poate apărea simultan în mai multe proiecții, motorul SMP oferă această funcționalitate, permițând aplicației să instruiască cipul video să reproducă geometria de până la 32 de ori (16 proiecții la două centre de proiecție) fără procesare suplimentară.

Întregul proces de procesare este accelerat hardware și, deoarece multiproiecția funcționează după motorul de geometrie, nu este necesar să se repete de mai multe ori toate etapele procesării geometriei. Resursele economisite sunt importante atunci când viteza de redare este limitată de performanța procesării geometriei, cum ar fi teselația, când aceeași lucrare geometrică este efectuată de mai multe ori pentru fiecare proiecție. În consecință, în cazul de vârf, proiecția multiplă poate reduce nevoia de procesare a geometriei de până la 32 de ori.

Dar de ce sunt necesare toate acestea? Există câteva exemple bune în care tehnologia multi-proiecției poate fi utilă. De exemplu, un sistem multi-monitor de trei afișaje montate într-un unghi unul față de celălalt suficient de aproape de utilizator (configurație surround). Într-o situație tipică, scena este redată într-o singură proiecție, ceea ce duce la distorsiuni geometrice și redare incorectă a geometriei. Modul corect este trei proiecții diferite pentru fiecare dintre monitoare, în funcție de unghiul în care sunt amplasate.

Cu o placă video pe un cip cu arhitectură Pascal, acest lucru se poate face într-o singură trecere de geometrie, specificând trei proiecții diferite, fiecare pentru un monitor diferit. Iar utilizatorul, astfel, va putea schimba unghiul la care monitoarele sunt amplasate unul față de celălalt nu numai fizic, ci și virtual - prin rotirea proiecțiilor pentru monitoarele laterale pentru a obține perspectiva corectă în scena 3D cu un unghi de vizualizare (FOV) vizibil mai larg. Adevărat, există o limitare aici - pentru un astfel de suport, aplicația trebuie să poată reda scena cu un FOV larg și să folosească apeluri speciale SMP API pentru ao seta. Adică, nu poți face asta în fiecare joc, ai nevoie de sprijin special.

În orice caz, vremurile unei singure proiecții pe un singur monitor plat au trecut, acum există multe configurații multi-monitor și afișaje curbate care pot folosi și această tehnologie. Ca să nu mai vorbim de sistemele de realitate virtuală care folosesc lentile speciale între ecrane și ochii utilizatorului, care necesită noi tehnici de proiectare a unei imagini 3D într-o imagine 2D. Multe dintre aceste tehnologii și tehnici sunt încă în dezvoltare timpurie, principalul lucru este că GPU-urile mai vechi nu pot utiliza în mod eficient mai mult de o proiecție plană. Acestea necesită mai multe treceri de randare, procesări multiple ale aceleiași geometrii și așa mai departe.

Cipurile Maxwell aveau suport limitat pentru Multi-Resolution pentru a ajuta la creșterea eficienței, dar SMP-ul Pascal poate face mult mai mult. Maxwell putea roti proiecția cu 90 de grade pentru maparea cuburilor sau diferite rezoluții de proiecție, dar acest lucru a fost util doar într-o gamă limitată de aplicații precum VXGI.

Alte posibilități de utilizare a SMP includ randarea la diferite rezoluții și randarea stereo cu o singură trecere. De exemplu, randarea la diferite rezoluții (Multi-Res Shading) poate fi folosită în jocuri pentru a optimiza performanța. Când se aplică, în centrul cadrului se folosește o rezoluție mai mare, iar la periferie este redusă pentru a obține o viteză mai mare de redare.

Redarea stereo cu o singură trecere este utilizată în VR, a fost deja adăugată la pachetul VRWorks și utilizează caracteristica de proiecție multiplă pentru a reduce cantitatea de lucru geometric necesară în redarea VR. Dacă se utilizează această caracteristică, GPU-ul GeForce GTX 1080 procesează geometria scenei o singură dată, generând două proiecții pentru fiecare ochi deodată, ceea ce reduce sarcina geometrică de pe GPU la jumătate și, de asemenea, reduce pierderile de la driver și OS.

O tehnică și mai avansată pentru îmbunătățirea eficienței redării VR este Lens Matched Shading, care utilizează proiecții multiple pentru a simula distorsiunile geometrice necesare în redarea VR. Această metodă folosește proiecția multiplă pentru a reda o scenă 3D pe o suprafață care aproximează suprafața ajustată de lentilă atunci când este randată pentru ieșirea căștilor VR, evitând mulți pixeli suplimentari la periferie care ar fi aruncați. Cel mai simplu mod de a înțelege esența metodei este prin ilustrare - în fața fiecărui ochi sunt utilizate patru proiecții ușor extinse (în Pascal, puteți utiliza 16 proiecții pentru fiecare ochi - pentru a simula mai precis o lentilă curbă) în loc de una:

Această abordare poate economisi multă performanță. De exemplu, o imagine tipică a Oculus Rift per ochi este de 1,1 megapixeli. Dar din cauza diferenței de proiecție, pentru a o reda, imaginea originală este de 2,1 megapixeli - cu 86% mai mult decât este necesar! Utilizarea multiproiecției, implementată în arhitectura Pascal, permite reducerea rezoluției imaginii redate la 1,4 megapixeli, obținând o economie de 1,5 ori în viteza de procesare a pixelilor și, de asemenea, economisește lățimea de bandă a memoriei.

Și împreună cu o economie dublă a vitezei de procesare a geometriei datorită redării stereo cu o singură trecere, procesorul grafic GeForce GTX 1080 este capabil să ofere o creștere semnificativă a performanței de redare VR, care este foarte solicitantă în ceea ce privește viteza de procesare a geometriei și chiar mai mult. procesarea pixelilor.

Îmbunătățiri ale ieșirii video și blocurilor de procesare

Pe lângă performanța și noile funcționalități legate de randarea 3D, este necesar să se mențină un nivel bun de ieșire a imaginii, precum și decodarea și codificarea video. Iar primul procesor grafic cu arhitectură Pascal nu a dezamăgit - acceptă toate standardele moderne în acest sens, inclusiv decodarea hardware a formatului HEVC, care este necesară pentru vizualizarea videoclipurilor 4K pe un PC. De asemenea, viitorii proprietari ai plăcilor grafice GeForce GTX 1080 se vor putea bucura în curând de streaming video 4K de la Netflix și alți furnizori pe sistemele lor.

În ceea ce privește ieșirea de afișare, GeForce GTX 1080 are suport pentru HDMI 2.0b cu HDCP 2.2, precum și DisplayPort. Până acum, versiunea DP 1.2 a fost certificată, dar GPU-ul este pregătit pentru certificare pentru versiunile mai noi ale standardului: DP 1.3 Ready și DP 1.4 Ready. Acesta din urmă permite afișarea ecranelor 4K la 120Hz, iar ecranelor 5K și 8K la 60Hz folosind o pereche de cabluri DisplayPort 1.3. Dacă pentru GTX 980 rezoluția maximă acceptată a fost 5120x3200 la 60Hz, atunci pentru noul model GTX 1080 a crescut la 7680x4320 la aceeași 60Hz. GeForce GTX 1080 de referință are trei ieșiri DisplayPort, una HDMI 2.0b și una digitală Dual-Link DVI.

Noul model de placă video Nvidia a primit și un bloc îmbunătățit pentru decodarea și codificarea datelor video. Astfel, cipul GP104 respectă standardele înalte ale PlayReady 3.0 (SL3000) pentru redarea în flux video, ceea ce vă permite să fiți sigur că redarea conținutului de înaltă calitate de la furnizori cunoscuți precum Netflix va fi de cea mai înaltă calitate și eficientă energetic. . Detalii despre suportul diferitelor formate video în timpul codificării și decodării sunt oferite în tabel, noul produs diferă în mod clar de soluțiile anterioare în bine:

Dar o noutate și mai interesantă este suportul pentru așa-numitele afișaje High Dynamic Range (HDR), care sunt pe cale să se răspândească pe piață. Televizoarele sunt puse în vânzare încă din 2016 (cu patru milioane de televizoare HDR se estimează că vor fi vândute în doar un an) și monitoare anul viitor. HDR este cea mai mare descoperire în tehnologia de afișare din ultimii ani, oferind tonuri de culoare duble (75% spectru vizibil față de 33% pentru RGB), afișaje mai luminoase (1000 nits) cu contrast mai mare (10000:1) și culori bogate.

Apariția capacității de a reda conținut cu o diferență mai mare de luminozitate și culori mai bogate și mai saturate va aduce imaginea de pe ecran mai aproape de realitate, culoarea neagră va deveni mai profundă, lumina strălucitoare va uimi, la fel ca în lumea reală. . În consecință, utilizatorii vor vedea mai multe detalii în zonele luminoase și întunecate ale imaginilor în comparație cu monitoarele și televizoarele standard.

Pentru a suporta afișaje HDR, GeForce GTX 1080 are tot ce aveți nevoie - ieșire color pe 12 biți, suport pentru standardele BT.2020 și SMPTE 2084 și rezoluție HDMI 2.0b 10/12 biți 4K HDR, care a fost cazul cu Maxwell. În plus, Pascal a adăugat suport pentru decodarea formatului HEVC în rezoluție 4K la 60 Hz și culoare pe 10 sau 12 biți, care este folosit pentru video HDR, precum și pentru codificarea aceluiași format cu aceiași parametri, dar numai în 10 -bit pentru înregistrarea video HDR sau streaming. De asemenea, noutatea este gata pentru standardizarea DisplayPort 1.4 pentru transmiterea datelor HDR prin acest conector.

Apropo, codificarea video HDR poate fi necesară în viitor pentru a transfera astfel de date de pe un computer de acasă la o consolă de jocuri SHIELD care poate reda HEVC pe 10 biți. Adică, utilizatorul va putea difuza jocul de pe un PC în format HDR. Stai, de unde pot obține jocuri cu astfel de suport? Nvidia lucrează constant cu dezvoltatorii de jocuri pentru a implementa acest suport, oferindu-le tot ce au nevoie (suport pentru drivere, mostre de cod etc.) pentru a reda corect imaginile HDR compatibile cu afișajele existente.

La momentul lansării plăcii video, GeForce GTX 1080, jocuri precum Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle și Shadow Warrior 2 au suport pentru ieșire HDR. Dar această listă este se aşteaptă să fie completat în viitorul apropiat.

Modificări ale redării SLI cu mai multe cipuri

Au existat, de asemenea, unele modificări legate de tehnologia de randare SLI multi-cip, deși nimeni nu se aștepta la asta. SLI este folosit de pasionații de jocuri pe computer pentru a crește performanța fie la extrem prin rularea celor mai puternice plăci grafice cu un singur cip în tandem, fie pentru a obține rate de cadre foarte mari limitându-se la câteva soluții de gamă medie care sunt uneori mai ieftine decât un top-end (decizie controversată, dar o fac). Cu monitoarele 4K, jucătorii aproape că nu au alte opțiuni decât să instaleze câteva plăci video, deoarece chiar și modelele de top nu pot oferi adesea un joc confortabil la setări maxime în astfel de condiții.

Una dintre componentele importante ale Nvidia SLI sunt punțile care conectează plăcile video într-un subsistem video comun și servesc la organizarea unui canal digital pentru transferul de date între ele. Plăcile grafice GeForce au prezentat în mod tradițional conectori duali SLI, care serveau la conectarea între două sau patru plăci grafice în configurații SLI cu 3 și 4 căi. Fiecare dintre plăcile video trebuia conectată la fiecare, deoarece toate GPU-urile au trimis cadrele pe care le-au randat către GPU-ul principal, motiv pentru care au fost necesare două interfețe pe fiecare dintre plăci.

Începând cu GeForce GTX 1080, toate plăcile grafice Nvidia bazate pe arhitectura Pascal au două interfețe SLI legate între ele pentru a crește performanța transferului de date între plăcile grafice, iar acest nou mod SLI cu două canale îmbunătățește performanța și confortul la afișarea informațiilor vizuale pe display-uri de foarte înaltă rezoluție sau sisteme cu mai multe monitoare.

Pentru acest mod au fost necesare și noi punți, numite SLI HB. Acestea combină o pereche de plăci video GeForce GTX 1080 prin două canale SLI simultan, deși noile plăci video sunt compatibile și cu podurile mai vechi. Pentru rezoluții de 1920×1080 și 2560×1440 pixeli la o rată de reîmprospătare de 60 Hz, pot fi utilizate poduri standard, dar în moduri mai solicitante (sisteme 4K, 5K și multi-monitor), doar podurile noi vor oferi rezultate mai bune în termeni de schimbare lină a cadrului, deși cele vechi vor funcționa, dar oarecum mai rău.

De asemenea, atunci când utilizați poduri SLI HB, interfața de date GeForce GTX 1080 rulează la 650 MHz, comparativ cu 400 MHz pentru podurile SLI convenționale pe GPU-urile mai vechi. Mai mult, pentru unele dintre podurile vechi dure, este disponibilă și o rată de transfer de date mai mare cu cipurile video din arhitectura Pascal. Cu o creștere a ratei de transfer de date între GPU printr-o interfață SLI dublată cu o frecvență crescută de operare, este oferită și o afișare mai lină a cadrelor pe ecran, comparativ cu soluțiile anterioare:

De asemenea, trebuie remarcat faptul că suportul pentru redarea cu mai multe cipuri în DirectX 12 este oarecum diferit de ceea ce era obișnuit înainte. LA ultima versiune API grafică, Microsoft a făcut multe modificări legate de funcționarea unor astfel de sisteme video. Există două opțiuni multi-GPU disponibile pentru dezvoltatorii de software în DX12: modurile Multi Display Adapter (MDA) și Linked Display Adapter (LDA).

Mai mult, modul LDA are două forme: LDA implicit (pe care Nvidia îl folosește pentru SLI) și LDA explicit (atunci când dezvoltatorul jocului își asumă sarcina de a gestiona randarea cu mai multe cipuri. Modurile MDA și LDA explicit tocmai au fost implementate în DirectX 12 în pentru a oferi dezvoltatorilor de jocuri mai multă libertate și oportunități atunci când folosesc sisteme video cu mai multe cipuri. Diferența dintre moduri este clar vizibilă în următorul tabel:

În modul LDA, memoria fiecărui GPU poate fi conectată la memoria altuia și afișată ca un volum total mare, desigur, cu toate limitările de performanță atunci când datele sunt preluate din memoria „străină”. În modul MDA, memoria fiecărui GPU funcționează separat, iar GPU-urile diferite nu pot accesa direct datele din memoria altui GPU. Modul LDA este conceput pentru sisteme cu mai multe cipuri de performanță similară, în timp ce modul MDA este mai puțin restrictiv și poate funcționa împreună cu GPU-uri discrete și integrate sau soluții discrete cu cipuri de la diferiți producători. Dar acest mod necesită, de asemenea, mai multă atenție și muncă din partea dezvoltatorilor atunci când programează colaborarea, astfel încât GPU-urile să poată comunica între ele.

În mod implicit, sistemul SLI bazat pe GeForce GTX 1080 acceptă doar două GPU-uri, iar configurațiile cu trei și patru GPU sunt oficial depreciate, deoarece jocurile moderne devin din ce în ce mai dificil de obținut câștiguri de performanță prin adăugarea unui al treilea și al patrulea GPU. De exemplu, multe jocuri se bazează pe capacitățile procesorului central al sistemului atunci când operează sisteme video cu mai multe cipuri, iar jocurile noi folosesc tot mai mult tehnici temporale (temporale) care folosesc date din cadrele anterioare, în care funcționarea eficientă a mai multor GPU-uri simultan este pur și simplu imposibil.

Cu toate acestea, operarea sistemelor în alte sisteme cu mai multe cipuri (non-SLI) rămâne posibilă, cum ar fi modurile MDA sau LDA explicite în DirectX 12 sau un sistem SLI cu două cipuri cu un al treilea GPU dedicat pentru efectele fizice PhysX. Dar cum rămâne cu înregistrările din benchmark-uri, Nvidia le abandonează cu adevărat? Nu, desigur, dar întrucât astfel de sisteme sunt solicitate în lume de aproape câțiva utilizatori, a fost inventată o cheie specială Enthusiast Key pentru astfel de ultra-entuziaști, care poate fi descărcată de pe site-ul Nvidia și debloca această caracteristică. Pentru a face acest lucru, trebuie mai întâi să obțineți un ID unic GPU rulând o aplicație specială, apoi să solicitați cheia Enthusiast pe site-ul web și, după ce o descărcați, instalați cheia în sistem, deblocând astfel cheia în 3 și 4 căi. Configurații SLI.

Tehnologia Fast Sync

Au avut loc unele modificări în tehnologiile de sincronizare la afișarea informațiilor pe afișaj. Privind în viitor, nu există nimic nou în G-Sync și nici tehnologia Adaptive Sync nu este acceptată. Dar Nvidia a decis să îmbunătățească netezimea ieșirii și sincronizarea pentru jocurile care arată foarte performanta ridicata când frecvența cadrelor depășește vizibil rata de reîmprospătare a monitorului. Acest lucru este important în special pentru jocurile care necesită o latență minimă și un răspuns rapid și care sunt bătălii și competiții multiplayer.

Sincronizarea rapidă este o nouă alternativă la sincronizarea verticală care nu are artefacte vizuale, cum ar fi ruperea imaginii și nu este legată de o rată de reîmprospătare fixă, care crește latența. Care este problema cu sincronizarea verticală în jocuri precum Counter-Strike: Global Offensive? Acest joc pe GPU-uri moderne puternice rulează la câteva sute de cadre pe secundă, iar jucătorul are de ales dacă să activeze v-sync sau nu.

În jocurile multiplayer, utilizatorii urmăresc cel mai adesea întârzieri minime și dezactivează VSync, obținând rupturi clar vizibile în imagine, ceea ce este extrem de neplăcut chiar și la rate mari de cadre. Cu toate acestea, dacă activați v-sync, atunci jucătorul va experimenta o creștere semnificativă a întârzierilor între acțiunile sale și imaginea de pe ecran, atunci când conducta grafică încetinește la rata de reîmprospătare a monitorului.

Așa funcționează o conductă tradițională. Dar Nvidia a decis să separe procesul de randare și afișare a imaginii pe ecran folosind tehnologia Fast Sync. Acest lucru vă permite să continuați cât mai mult posibil munca eficienta pentru partea GPU-ului care redă cadre la viteză maximă, stocând aceste cadre într-un tampon special temporar Last Rendered.

Această metodă vă permite să schimbați metoda de afișare și să luați ce este mai bun din modurile VSync On și VSync Off, obținând o latență scăzută, dar fără artefacte de imagine. Cu Fast Sync, nu există control al fluxului de cadre, motorul de joc rulează în modul de sincronizare dezactivat și nu i se spune să aștepte să deseneze următorul, așa că latențele sunt aproape la fel de mici ca și modul VSync Off. Dar, deoarece Fast Sync selectează independent un buffer pentru afișare pe ecran și afișează întregul cadru, nu există nicio pauză de imagine.

Sincronizarea rapidă utilizează trei buffer-uri diferite, dintre care primele două funcționează similar cu buffering-ul dublu într-o conductă clasică. Bufferul primar (Front Buffer - FB) este un buffer, informații din care sunt afișate pe afișaj, un cadru redat complet. Bufferul din spate (Back Buffer - BB) este bufferul care primește informații la randare.

Când utilizați sincronizarea verticală în condiții de frecvență de cadre ridicată, jocul așteaptă până când intervalul de reîmprospătare este atins pentru a schimba tamponul principal cu tamponul secundar pentru a afișa imaginea unui singur cadru pe ecran. Acest lucru încetinește lucrurile, iar adăugarea mai multor buffer-uri, cum ar fi tradiționalul triplu buffering, va crește doar întârzierea.

Cu Fast Sync, se adaugă un al treilea Last Rendered Buffer (LRB), care este folosit pentru a stoca toate cadrele care tocmai au fost redate în bufferul secundar. Numele buffer-ului vorbește de la sine, conține o copie a ultimului cadru redat complet. Și când vine momentul actualizării tamponului primar, acest tampon LRB este copiat în primar în întregime, și nu în părți, ca din secundar cu sincronizarea verticală dezactivată. Deoarece copiarea informațiilor din buffer-uri este ineficientă, acestea sunt pur și simplu schimbate (sau redenumite, așa cum va fi mai convenabil de înțeles), iar noua logică de schimbare a bufferelor, introdusă în GP104, gestionează acest proces.

În practică, includerea unei noi metode de sincronizare Fast Sync oferă totuși o întârziere ceva mai mare în comparație cu sincronizarea verticală complet dezactivată - în medie cu 8 ms în plus, dar afișează cadre pe monitor în întregime, fără artefacte neplăcute pe ecran care rupe imaginea. Noua metodă poate fi activată din setările grafice ale panoului de control Nvidia din secțiunea de control al sincronizării verticale. Cu toate acestea, valoarea implicită rămâne controlul aplicației și pur și simplu nu trebuie să activați Fast Sync în toate aplicațiile 3D, este mai bine să alegeți această metodă special pentru jocurile cu FPS ridicat.

Tehnologie de realitate virtuală Nvidia VRWorks

Am atins subiectul fierbinte al VR de mai multe ori în acest articol, dar este vorba în principal despre creșterea ratelor de cadre și asigurarea unei latențe scăzute, ceea ce este foarte important pentru VR. Toate acestea sunt foarte importante și există într-adevăr progrese, dar până acum jocurile VR nu arată nici pe departe la fel de impresionante ca cele mai bune dintre jocurile 3D moderne „obișnuite”. Acest lucru se întâmplă nu numai pentru că cei mai importanți dezvoltatori de jocuri nu sunt încă implicați în mod deosebit în aplicațiile VR, ci și pentru că VR este mai pretențios cu rata de cadre, ceea ce împiedică utilizarea multor tehnici obișnuite în astfel de jocuri din cauza cerințelor ridicate.

Pentru a reduce diferența de calitate dintre jocurile VR și jocurile obișnuite, Nvidia a decis să lanseze un întreg pachet de tehnologii VRWorks conexe, care includea un număr mare de API-uri, biblioteci, motoare și tehnologii care pot îmbunătăți semnificativ atât calitatea, cât și performanța aplicații VR. Cum se leagă acest lucru cu anunțul primei soluții de joc în Pascal? Este foarte simplu - au fost introduse în el unele tehnologii care ajută la creșterea productivității și la îmbunătățirea calității și am scris deja despre ele.

Și deși nu se referă doar la grafică, mai întâi vom vorbi puțin despre asta. Setul de tehnologii VRWorks Graphics include tehnologiile menționate anterior, precum Lens Matched Shading, folosind caracteristica de multi-proiecție apărută la GeForce GTX 1080. Noul produs vă permite să obțineți o creștere a performanței de 1,5-2 ori în raport cu solutii care nu au un astfel de suport. Am menționat și alte tehnologii, precum MultiRes Shading, concepute pentru a reda la diferite rezoluții în centrul cadrului și la periferia acestuia.

Dar mult mai neașteptat a fost anunțul tehnologiei VRWorks Audio, concepută pentru calculul de înaltă calitate a datelor de sunet în scenele 3D, care este deosebit de importantă în sistemele de realitate virtuală. În motoarele convenționale, poziționarea surselor de sunet într-un mediu virtual este calculată destul de corect, dacă inamicul trage din dreapta, atunci sunetul este mai puternic din această parte a sistemului audio, iar un astfel de calcul nu este prea solicitant pentru puterea de calcul. .

Dar, în realitate, sunetele merg nu numai către jucător, ci în toate direcțiile și răsare de diverse materiale, similar cu felul în care razele luminoase sară. Și, în realitate, auzim aceste reflexii, deși nu la fel de clar ca undele sonore directe. Aceste reflexii indirecte ale sunetului sunt de obicei simulate de efecte speciale de reverb, dar aceasta este o abordare foarte primitivă a sarcinii.

VRWorks Audio utilizează redarea undelor sonore similară cu trasarea razelor în randare, unde calea razelor de lumină este urmărită la reflexii multiple de la obiectele dintr-o scenă virtuală. VRWorks Audio simulează, de asemenea, propagarea undelor sonore în mediu atunci când undele directe și reflectate sunt urmărite, în funcție de unghiul lor de incidență și de proprietățile materialelor reflectorizante. În activitatea sa, VRWorks Audio folosește motorul de înaltă performanță Nvidia OptiX ray tracing, cunoscut pentru sarcinile grafice. OptiX poate fi folosit pentru o varietate de sarcini, cum ar fi calculul luminii indirecte și maparea luminii, iar acum și pentru urmărirea undelor sonore în VRWorks Audio.

Nvidia a inclus un calcul precis al undelor sonore în demonstrația sa VR Funhouse, care utilizează câteva mii de raze și calculează până la 12 reflexii de la obiecte. Și pentru a afla avantajele tehnologiei folosind un exemplu clar, vă sugerăm să urmăriți un videoclip despre funcționarea tehnologiei în limba rusă:

Este important că abordarea Nvidia diferă de motoarele de sunet tradiționale, inclusiv metoda accelerată hardware față de principalul concurent folosind un bloc special în GPU. Toate aceste metode oferă doar poziționarea precisă a surselor de sunet, dar nu calculează reflexiile undelor sonore de la obiectele dintr-o scenă 3D, deși pot simula acest lucru folosind efectul de reverb. Cu toate acestea, utilizarea tehnologiei de urmărire a razelor poate fi mult mai realistă, deoarece numai o astfel de abordare va oferi o imitație precisă a diferitelor sunete, ținând cont de dimensiunea, forma și materialele obiectelor din scenă. Este dificil de spus dacă o asemenea acuratețe de calcul este necesară pentru un jucător tipic, dar putem spune cu siguranță: în VR, poate adăuga utilizatorilor realismul care încă lipsește în jocurile convenționale.

Ei bine, rămâne să vorbim doar despre tehnologia VR SLI, care funcționează atât în ​​OpenGL, cât și în DirectX. Principiul său este extrem de simplu: un sistem video cu două GPU într-o aplicație VR va funcționa în așa fel încât fiecărui ochi să i se aloce un GPU separat, spre deosebire de redarea AFR familiară configurațiilor SLI. Acest lucru îmbunătățește considerabil performanța generală, care este atât de importantă pentru sistemele de realitate virtuală. Teoretic, pot fi folosite mai multe GPU-uri, dar numărul lor trebuie să fie par.

Această abordare a fost necesară deoarece AFR nu este potrivit pentru VR, deoarece cu ajutorul său primul GPU va desena un cadru par pentru ambii ochi, iar al doilea va reda unul impar, ceea ce nu reduce întârzierile critice pentru virtual. sisteme de realitate. Deși frame rate va fi destul de mare. Deci, cu ajutorul VR SLI, lucrul pe fiecare cadru este împărțit în două GPU - unul lucrează pe o parte a cadrului pentru ochiul stâng, al doilea pentru cel drept, iar apoi aceste jumătăți ale cadrului sunt combinate într-un întreg.

Împărțirea astfel de lucrări între o pereche de GPU aduce o creștere de două ori a performanței, permițând rate de cadre mai mari și o latență mai mică în comparație cu sistemele bazate pe un singur GPU. Adevărat, utilizarea VR SLI necesită suport special din partea aplicației pentru a utiliza această metodă de scalare. Dar tehnologia VR SLI este deja încorporată în aplicațiile demo VR precum Valve's The Lab și ILMxLAB's Trials on Tatooine, iar acesta este doar începutul - Nvidia promite că alte aplicații vor veni în curând, precum și că va aduce tehnologia la Unreal Engine 4, Unity și Max. Joaca.

Platforma de capturi de ecran a jocului Ansel

Unul dintre cele mai interesante anunțuri legate de software a fost lansarea unei tehnologii pentru captarea de capturi de ecran de înaltă calitate în aplicații de jocuri, numită după un fotograf celebru - Ansel. Jocurile au fost de mult timp nu doar jocuri, ci și un loc pentru a folosi mâini jucăușe pentru diverse personalități creative. Cineva schimbă scripturile pentru jocuri, cineva lansează seturi de texturi de înaltă calitate pentru jocuri și cineva face capturi de ecran frumoase.

Nvidia a decis să-l ajute pe acesta din urmă prin prezentare noua platforma pentru a crea (și anume, a crea, deoarece acesta nu este un proces atât de ușor) fotografii de înaltă calitate din jocuri. Ei cred că Ansel poate ajuta la crearea unui nou tip de artă contemporană. La urma urmei, există deja destul de mulți artiști care își petrec cea mai mare parte a vieții pe computer, creând capturi de ecran frumoase din jocuri și încă nu aveau un instrument convenabil pentru asta.

Ansel vă permite nu numai să capturați o imagine în joc, ci și să o modificați după cum are nevoie creatorul. Folosind această tehnologie, puteți muta camera în jurul scenei, o puteți roti și înclina în orice direcție pentru a obține compoziția dorită a cadrului. De exemplu, în jocuri precum împușcături la persoana întâi, puteți muta doar jucătorul, nu puteți schimba nimic altceva, așa că toate capturile de ecran sunt destul de monotone. Cu o cameră gratuită în Ansel, puteți merge mult dincolo camera de joc, alegând unghiul necesar pentru o imagine bună sau chiar capturați o imagine stereo completă de 360 ​​de grade din punctul dorit și la rezoluție înaltă pentru vizionare ulterioară într-o cască VR.

Ansel funcționează destul de simplu - cu ajutorul unei biblioteci speciale de la Nvidia, această platformă este încorporată în codul jocului. Pentru a face acest lucru, dezvoltatorul său trebuie doar să adauge o mică bucată de cod la proiectul său pentru a permite driverului video Nvidia să intercepteze datele tampon și shader. Este foarte puțină muncă de făcut, implementarea lui Ansel în joc durează mai puțin de o zi. Deci, includerea acestei caracteristici în The Witness a luat aproximativ 40 de linii de cod, iar în The Witcher 3 - aproximativ 150 de linii de cod.

Ansel va apărea cu un pachet de dezvoltare deschis - SDK. Principalul lucru este că utilizatorul primește cu el un set standard de setări care îi permit să schimbe poziția și unghiul camerei, să adauge efecte etc. Platforma Ansel funcționează astfel: întrerupe jocul, pornește camera gratuită. și vă permite să schimbați cadrul la vizualizarea dorită prin înregistrarea rezultatului sub forma unei capturi de ecran obișnuite, a unei fotografii la 360 de grade, a unei perechi stereo sau doar a unei panorame de înaltă rezoluție.

Singura avertizare este că nu toate jocurile vor primi suport pentru toate caracteristicile platformei de capturi de ecran a jocului Ansel. Unii dintre dezvoltatorii de jocuri, dintr-un motiv sau altul, nu doresc să includă o cameră complet gratuită în jocurile lor - de exemplu, din cauza posibilității ca trișorii să folosească această funcționalitate. Sau vor să limiteze schimbarea unghiului de vizualizare din același motiv - astfel încât nimeni să nu obțină un avantaj nedrept. Ei bine, sau pentru ca utilizatorii să nu vadă sprite-uri mizerabile în fundal. Toate acestea sunt dorințe destul de normale ale creatorilor de jocuri.

Una dintre cele mai interesante caracteristici ale lui Ansel este crearea de capturi de ecran cu rezoluție pur și simplu uriașă. Nu contează că jocul acceptă rezoluții de până la 4K, de exemplu, iar monitorul utilizatorului este Full HD. Folosind platforma de capturi de ecran, puteți captura o imagine de calitate mult mai mare, limitată mai degrabă de dimensiunea și performanța unității. Platforma captează cu ușurință capturi de ecran de până la 4,5 gigapixeli, împletite din 3600 de bucăți!

Este clar că în astfel de poze se pot vedea toate detaliile, până la textul de pe ziare care se află în depărtare, dacă un astfel de nivel de detaliu este prevăzut în principiu în joc - Ansel poate controla și nivelul de detaliu, setând nivelul maxim pentru a obține cea mai bună calitate a imaginii. Dar puteți încă activa supraeșantionarea. Toate acestea vă permit să creați imagini din jocuri pe care le puteți imprima în siguranță pe bannere mari și să fiți calm în privința calității lor.

Interesant este că un cod special accelerat de hardware, bazat pe CUDA, este folosit pentru a îmbina imagini mari. La urma urmei, nicio placă video nu poate reda o imagine cu mai mulți gigapixeli în întregime, dar o poate face în bucăți, pe care trebuie doar să le combinați mai târziu, ținând cont de posibila diferență de iluminare, culoare și așa mai departe.

După coaserea unor astfel de panorame, se folosește o post-procesare specială pentru întregul cadru, accelerată tot pe GPU. Și pentru a captura imagini într-o gamă dinamică mai mare, puteți utiliza un format de imagine special - EXR, un standard deschis de la Industrial Light and Magic, ale cărui valori de culoare în fiecare canal sunt înregistrate în format virgulă mobilă de 16 biți. (FP16).

Acest format vă permite să schimbați luminozitatea și interval dinamic imagini prin post-procesare, aducându-l la cel potrivit pentru fiecare afișaj specific în același mod în care se face cu formatele RAW de la camere. Și pentru utilizarea ulterioară a filtrelor de post-procesare în programele de procesare a imaginilor, acest format este foarte util, deoarece conține mult mai multe date decât formatele obișnuite de imagine.

Dar platforma Ansel în sine conține o mulțime de filtre de post-procesare, ceea ce este deosebit de important pentru că are acces nu doar la imaginea finală, ci și la toate bufferele folosite de joc la randare, care pot fi folosite pentru efecte foarte interesante. , precum adâncimea de câmp. Pentru a face acest lucru, Ansel are un API special de post-procesare, iar oricare dintre efecte poate fi inclus în joc cu suport pentru această platformă.

Post-filtrele Ansel includ: curbe de culoare, spațiu de culoare, transformare, desaturare, luminozitate/contrast, granulație a filmului, înflorire, strălucire a lentilei, strălucire anamorfă, distorsiune, bruma termică, ochi de pește, aberație de culoare, cartografiere a tonurilor, murdărie a lentilelor, arbori de lumină, vignetă, corecție gamma, convoluție, ascuțire, detectarea marginilor, estompare, sepia, dezgomot, FXAA și altele.

În ceea ce privește apariția suportului Ansel în jocuri, atunci va trebui să așteptăm puțin până când dezvoltatorii îl implementează și îl testează. Dar Nvidia promite că un astfel de suport va apărea în curând în jocuri atât de cunoscute precum The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky, Unreal Tournament și altele.

Noua tehnologie de proces FinFET de 16 nm și optimizările arhitecturii au permis GeForce GTX 1080 bazată pe GPU GP104 să atingă o viteză mare de ceas de 1,6-1,7 GHz chiar și în forma de referință, iar noua generație garantează cele mai înalte frecvențe posibile în jocuri GPU Boost tehnologii. Împreună cu un număr crescut de unități de execuție, aceste îmbunătățiri o fac nu numai placa grafică cu un singur cip cu cea mai mare performanță din toate timpurile, ci și cea mai eficientă soluție energetică de pe piață.

GeForce GTX 1080 este prima placă grafică care prezintă noua memorie grafică GDDR5X, o nouă generație de cipuri de mare viteză care ating rate de date foarte mari. În cazul unei GeForce GTX 1080 modificate, acest tip de memorie funcționează la o frecvență efectivă de 10 GHz. Combinat cu algoritmi îmbunătățiți de compresie framebuffer, acest lucru a dus la o creștere de 1,7 ori a lățimii de bandă efectivă a memoriei pentru acest GPU în comparație cu predecesorul său direct, GeForce GTX 980.

Nvidia a decis prudent să nu lanseze o arhitectură radical nouă pe o tehnologie de proces complet nouă pentru sine, pentru a nu întâmpina probleme inutile în timpul dezvoltării și producției. În schimb, au îmbunătățit serios arhitectura Maxwell deja bună și foarte eficientă prin adăugarea unor caracteristici. Ca urmare, totul este în regulă cu producția de noi GPU-uri, iar în cazul modelului GeForce GTX 1080, inginerii au atins un potențial de frecvență foarte mare - în versiunile overclockate de la parteneri, frecvența GPU este de așteptat până la 2 GHz! O astfel de frecvență impresionantă a devenit realitate datorită procesului tehnic perfect și muncii minuțioase a inginerilor Nvidia în dezvoltarea GPU-ului Pascal.

Deși Pascal este un adept direct al lui Maxwell, iar aceste arhitecturi grafice nu sunt fundamental prea diferite una de cealaltă, Nvidia a introdus multe modificări și îmbunătățiri, inclusiv capacități de afișare, motor de codificare și decodare video, execuție asincronă îmbunătățită a diferitelor tipuri de calcule pe GPU, a făcut modificări la redarea cu mai multe cipuri și a introdus o nouă metodă de sincronizare, Fast Sync.

Este imposibil să nu evidențiem tehnologia Simultaneous Multi-Projection, care ajută la îmbunătățirea performanței în sistemele de realitate virtuală, la afișarea mai corectă a scenelor pe sistemele cu mai multe monitoare și la introducerea de noi tehnici de optimizare a performanței. Dar aplicațiile VR vor vedea cea mai mare creștere a vitezei atunci când acceptă tehnologia de proiecție multiplă, care ajută la economisirea resurselor GPU la jumătate la procesarea datelor geometrice și de o dată și jumătate în calculele per pixel.

Printre modificările pur software, se remarcă platforma pentru crearea de capturi de ecran în jocuri numită Ansel - va fi interesant să o încerci în practică nu numai pentru cei care joacă mult, ci și pentru cei care sunt pur și simplu interesați de grafica 3D de înaltă calitate. . Noutatea vă permite să avansați arta de a crea și retușa capturi de ecran la un nou nivel. Ei bine, Nvidia continuă să îmbunătățească pas cu pas astfel de pachete pentru dezvoltatorii de jocuri precum GameWorks și VRWorks - așa că, în ultimul, a apărut o posibilitate interesantă de calcul a sunetului de înaltă calitate, ținând cont de numeroasele reflexii ale undelor sonore folosind urmărirea de raze hardware. .

În general, sub forma plăcii video Nvidia GeForce GTX 1080, un adevărat lider a intrat pe piață, având toate calitățile necesare pentru aceasta: performanță ridicată și funcționalitate largă, precum și suport pentru noi caracteristici și algoritmi. Primii cumparatori ai acestei placi video vor putea aprecia imediat multe dintre beneficiile mentionate, iar alte posibilitati ale solutiei vor fi dezvaluite putin mai tarziu, cand va exista un suport larg din exterior. software. Principalul lucru este că GeForce GTX 1080 s-a dovedit a fi foarte rapidă și eficientă și, așa cum sperăm cu adevărat, inginerii Nvidia au reușit să remedieze unele dintre zonele cu probleme (aceleași calcule asincrone).

Accelerator grafic GeForce GTX 1070

ParametruSens
Nume cod al cipuluiGP104
Tehnologia de producțieFinFET de 16 nm
Numărul de tranzistori7,2 miliarde
Zona centrală314 mm²
ArhitecturăUnificat, cu o serie de procesoare comune pentru procesarea în flux a numeroase tipuri de date: vârfuri, pixeli etc.
Suport hardware DirectXDirectX 12, cu suport pentru Feature Level 12_1
Autobuz de memorie256 de biți: opt controlere independente de memorie pe 32 de biți care acceptă memoria GDDR5 și GDDR5X
Frecvența GPU1506 (1683) MHz
Blocuri de calcul15 multiprocesoare de streaming active (din 20 în cip), inclusiv 1920 (din 2560) ALU scalare pentru calcule în virgulă mobilă în cadrul standardului IEEE 754-2008;
Blocuri de texturare120 de unități active (din 160 în cip) de adresare și filtrare a texturii cu suport pentru componente FP16 și FP32 în texturi și suport pentru filtrare triliniară și anizotropă pentru toate formatele de textură
Unități de operații raster (ROP)8 ROP-uri largi (64 de pixeli) cu suport pentru diferite moduri de anti-aliasing, inclusiv programabile și cu format cadru tampon FP16 sau FP32. Blocurile constau dintr-o serie de ALU configurabile și sunt responsabile pentru generarea și compararea adâncimii, eșantionarea multiplă și amestecarea
Suport monitorSuport integrat pentru până la patru monitoare conectate prin Dual Link DVI, HDMI 2.0b și DisplayPort 1.2 (1.3/1.4 Ready)

Specificații grafice de referință GeForce GTX 1070
ParametruSens
Frecvența miezului1506 (1683) MHz
Numărul de procesoare universale1920
Numărul de blocuri de textură120
Numărul de blocuri de amestecare64
Frecvența efectivă a memoriei8000 (4×2000) MHz
Tipul memorieiGDDR5
Autobuz de memorie256 de biți
Capacitate de memorie8 GB
Lățimea de bandă a memoriei256 GB/s
Performanță de calcul (FP32)aproximativ 6,5 teraflopi
Rata maximă de umplere teoretică96 gigapixeli/s
Rata teoretică de eșantionare a texturii181 gigatexeli/s
ObosiPCI Express 3.0
ConectoriUn DVI Dual Link, unul HDMI și trei DisplayPort
Consumul de energiepana la 150 W
Mâncare suplimentarăUn conector cu 8 pini
Numărul de sloturi ocupate în șasiul sistemului2
Pret recomandat379-449 USD (SUA), 34.990 (Rusia)

Placa video GeForce GTX 1070 a primit și un nume logic similar cu aceeași soluție din seria GeForce anterioară. Se deosebește de predecesorul său direct GeForce GTX 970 doar într-un număr de generație schimbat. Noutatea devine cu un pas sub soluția de top actuală GeForce GTX 1080 din linia actuală a companiei, care a devenit emblema temporară a noii serii până la lansarea unor soluții GPU și mai puternice.

Prețurile recomandate pentru noua placă video de top a Nvidia sunt de 379 USD și, respectiv, 449 USD pentru Nvidia Partners și, respectiv, Founders Edition. În comparație cu modelul de top, acest lucru este foarte preț bun dat fiind că GTX 1070 este cu aproximativ 25% în urmă în cel mai rău caz. Iar la momentul anunțului și lansării, GTX 1070 devine cea mai bună soluție de performanță din clasa sa. La fel ca GeForce GTX 1080, GTX 1070 nu are concurenți direcți de la AMD și poate fi comparat doar cu Radeon R9 390X și Fury.

GPU-ul GP104 din modificarea GeForce GTX 1070 a decis să lase o magistrală de memorie completă de 256 de biți, deși nu au folosit un nou tip de memorie GDDR5X, ci un GDDR5 foarte rapid, care funcționează la o frecvență efectivă mare de 8 GHz. Cantitatea de memorie instalata pe o placa video cu o astfel de magistrala poate fi de 4 sau 8 GB, iar pentru a asigura performanta maxima a noii solutii in conditii de setari si rezolutii de randare ridicate, a fost echipat si modelul de placa video GeForce GTX 1070. cu 8 GB de memorie video, la fel ca sora sa mai mare. Acest volum este suficient pentru a rula orice aplicație 3D cu setări de calitate maximă timp de câțiva ani.

GeForce GTX 1070 Founders Edition

Odată cu anunțul GeForce GTX 1080 la începutul lunii mai, a fost anunțată o ediție specială a plăcii video numită Founders Edition, care are un preț mai mare decât plăcile video obișnuite de la partenerii companiei. Același lucru este valabil și pentru noutate. În acest articol, vom vorbi din nou despre o ediție specială a plăcii video GeForce GTX 1070 numită Founders Edition. Ca și în cazul modelului mai vechi, Nvidia a decis să lanseze această versiune a plăcii video de referință a producătorului la un preț mai mare. Ei susțin că mulți jucători și entuziaști care cumpără plăci grafice scumpe de top își doresc un produs cu un aspect și un aspect „premium” adecvat.

În consecință, pentru astfel de utilizatori va fi lansată pe piață placa video GeForce GTX 1070 Founders Edition, care este proiectată și fabricată de inginerii Nvidia din materiale și componente premium, cum ar fi capacul din aluminiu GeForce GTX 1070 Founders Edition, precum și ca o placă din spate cu profil redus care acoperă partea din spate a PCB-ului și destul de populară printre entuziaști.

După cum puteți vedea din fotografiile plăcii, GeForce GTX 1070 Founders Edition a moștenit exact același design industrial din versiunea de referință a GeForce GTX 1080 Founders Edition. Ambele modele folosesc un ventilator radial care sufla aerul încălzit, ceea ce este foarte util atât în ​​cazurile mici, cât și în configurațiile SLI cu mai multe cipuri cu spațiu fizic limitat. Prin suflarea aerului încălzit în loc de a-l circula în interiorul carcasei, puteți reduce stresul termic, puteți îmbunătăți rezultatele overclockării și puteți prelungi durata de viață a componentelor sistemului.

Sub capacul sistemului de răcire de referință GeForce GTX 1070 se ascunde un radiator din aluminiu cu formă specială, cu trei conducte de căldură din cupru încorporate care elimină căldura din GPU-ul propriu-zis. Căldura disipată de conductele de căldură este apoi disipată de un radiator din aluminiu. Ei bine, placa metalică cu profil redus de pe spatele plăcii este, de asemenea, proiectată pentru a oferi performanțe termice mai bune. De asemenea, are o secțiune retractabilă pentru un flux de aer mai bun între mai multe plăci grafice în configurații SLI.

În ceea ce privește sistemul de alimentare al plăcii, GeForce GTX 1070 Founders Edition are un sistem de alimentare cu patru faze optimizat pentru o sursă de alimentare stabilă. Nvidia susține că utilizarea componentelor speciale în GTX 1070 Founders Edition îmbunătățește eficiența energetică, stabilitatea și fiabilitatea față de GeForce GTX 970, oferind performanțe de overclocking mai bune. În testele proprii ale companiei, GPU-urile GeForce GTX 1070 au depășit cu ușurință 1,9 GHz, ceea ce este aproape de rezultatele modelului mai vechi GTX 1080.

Placa grafică Nvidia GeForce GTX 1070 va fi disponibilă în magazinele de vânzare cu amănuntul începând cu 10 iunie. Prețurile recomandate pentru GeForce GTX 1070 Founders Edition și soluțiile partenerilor sunt diferite, iar aceasta este întrebarea principală pentru această ediție specială. Dacă partenerii Nvidia își vând plăcile grafice GeForce GTX 1070 începând de la 379 USD (pe piața din SUA), atunci designul de referință al Nvidia Founders Edition va costa chiar și 449 USD. Sunt mulți pasionați care sunt gata să plătească în exces pentru, să recunoaștem, avantajele dubioase ale versiunii de referință? Timpul ne va spune, dar credem că taxa de referință este mai interesantă ca opțiune disponibilă pentru cumpărare chiar la începutul vânzărilor, iar ulterior punctul de achiziție al acestuia (și chiar la un preț ridicat!) este deja redus la zero.

Rămâne de adăugat că placa de circuit imprimat a GeForce GTX 1070 de referință este similară cu cea a plăcii video mai vechi, iar ambele diferă de dispozitivul plăcilor anterioare ale companiei. Valoarea tipică a consumului de energie pentru noul produs este de 150 W, ceea ce este cu aproape 20% mai mică decât valoarea pentru GTX 1080 și aproape de consumul de energie al plăcii video GeForce GTX 970 din generația anterioară. Placa de referință Nvidia are un set familiar de conectori pentru conectarea dispozitivelor de ieșire a imaginii: un Dual-Link DVI, unul HDMI și trei DisplayPort. În plus, există suport pentru nou versiuni HDMIși DisplayPort, despre care am scris mai sus în recenzia modelului GTX 1080.

Modificări arhitecturale

GeForce GTX 1070 se bazează pe cipul GP104, primul dintr-o nouă generație de arhitectură grafică Pascal de la Nvidia. Această arhitectură s-a bazat pe soluțiile dezvoltate înapoi în Maxwell, dar are și unele diferențe funcționale, despre care am scris în detaliu mai sus - în partea dedicată plăcii video de top GeForce GTX 1080.

Principala schimbare a noii arhitecturi a fost procesul tehnologic prin care vor fi executate toate GPU-urile noi. Utilizarea procesului de fabricație FinFET de 16 nm în producția GP104 a făcut posibilă creșterea semnificativă a complexității cipului, menținând în același timp o suprafață și un cost relativ scăzute, iar primul cip al arhitecturii Pascal are un număr semnificativ mai mare de execuții. unități, inclusiv cele care oferă funcționalități noi, în comparație cu cipurile Maxwell de poziționare similară.

Cipul video GP104 este similar în design cu soluțiile similare de arhitectură Maxwell și puteți găsi informații detaliate despre designul GPU-urilor moderne în recenziile noastre despre soluțiile Nvidia anterioare. La fel ca GPU-urile anterioare, cipurile noii arhitecturi vor avea o configurație diferită de Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM) și controlere de memorie, iar unele modificări au avut loc deja în GeForce GTX 1070 - o parte a cipului a fost blocată și inactiv (evidențiat cu gri):

Deși GPU-ul GP104 include patru clustere GPC și 20 de multiprocesoare SM, în versiunea pentru GeForce GTX 1070 a primit o modificare redusă cu un cluster GPC dezactivat de hardware. Deoarece fiecare cluster GPC are un motor de rasterizare dedicat și include cinci SM-uri și fiecare multiprocesor este format din 128 de nuclee CUDA și opt TMU-uri de textură, 1920 de nuclee CUDA și 120 de TMU-uri de 2560 de procesoare de flux sunt active în această versiune de GP104 și 160 de unități de textură fizică.

Procesorul grafic pe care se bazează GeForce GTX 1070 conține opt controlere de memorie pe 32 de biți, rezultând o magistrală de memorie totală de 256 de biți - exact ca în cazul modelului mai vechi GTX 1080. Subsistemul de memorie nu a fost tăiat în ordine pentru a oferi o memorie cu lățime de bandă suficient de mare cu condiția folosirii memoriei GDDR5 în GeForce GTX 1070. Fiecare dintre controlerele de memorie are opt ROP-uri și 256 KB de cache L2, așa că cipul GP104 din această modificare conține și 64 de ROP-uri și 2048 KB de Nivelul cache L2.

Datorită optimizărilor arhitecturale și unei noi tehnologii de proces, GPU-ul GP104 a devenit cel mai eficient GPU din punct de vedere energetic de până acum. Inginerii Nvidia au reușit să mărească viteza ceasului mai mult decât se așteptau atunci când au trecut la un nou proces, pentru care au fost nevoiți să muncească din greu, verificând și optimizând cu atenție toate blocajele soluțiilor anterioare care nu le permiteau să lucreze la o frecvență mai mare. În consecință, GeForce GTX 1070 funcționează și la o frecvență foarte înaltă, cu peste 40% mai mare decât valoarea de referință pentru GeForce GTX 970.

Deoarece GeForce GTX 1070 este, în esență, doar un GTX 1080 ceva mai puțin productiv cu memorie GDDR5, acceptă absolut toate tehnologiile pe care le-am descris în secțiunea anterioară. Pentru mai multe detalii despre arhitectura Pascal, precum și despre tehnologiile pe care le suportă, cum ar fi unități îmbunătățite de procesare video și de ieșire, suport Async Compute, tehnologia Multi-Projection simultană, modificări în randarea SLI cu mai multe cipuri și noul tip de sincronizare Fast Sync , merită citit cu o secțiune despre GTX 1080.

Memorie GDDR5 de înaltă performanță și utilizarea eficientă a acesteia

Am scris mai sus despre modificările subsistemului de memorie al GPU-ului GP104, pe care se bazează modelele GeForce GTX 1080 și GTX 1070 - controlerele de memorie incluse în acest GPU acceptă atât noul tip de memorie video GDDR5X, care este descris în detaliu în recenzia GTX 1080, precum și memoria GDDR5 veche pe care o cunoaștem de câțiva ani.

Pentru a nu pierde prea mult din lățimea de bandă a memoriei în GTX 1070 mai tânără în comparație cu GTX 1080 mai vechi, toate cele opt controlere de memorie pe 32 de biți au fost lăsate active în el, obținând o interfață de memorie video comună completă de 256 de biți. În plus, placa video a fost echipată cu cea mai rapidă memorie GDDR5 disponibilă pe piață - cu o frecvență efectivă de operare de 8 GHz. Toate acestea au oferit o lățime de bandă a memoriei de 256 GB/s, spre deosebire de 320 GB/s pentru soluția mai veche - capabilitățile de calcul au fost reduse cu aproximativ aceeași cantitate, astfel încât echilibrul a fost menținut.

Rețineți că, deși lățimea de bandă teoretică maximă este importantă pentru performanța GPU-ului, trebuie să acordați atenție și eficienței acesteia. În timpul procesului de randare, multe blocaje diferite pot limita performanța generală, împiedicând utilizarea întregii lățimi de bandă disponibile a memoriei. Pentru a minimiza aceste blocaje, GPU-urile folosesc compresia specială a datelor fără pierderi pentru a îmbunătăți eficiența citirii și scrierilor de date.

A patra generație de compresie delta a informațiilor tampon a fost deja introdusă în arhitectura Pascal, ceea ce permite GPU-ului să utilizeze mai eficient capacitățile disponibile ale magistralei de memorie video. Subsistemul de memorie din GeForce GTX 1070 și GTX 1080 utilizează tehnici îmbunătățite de comprimare a datelor, vechi și noi, fără pierderi, concepute pentru a reduce cerințele de lățime de bandă. Acest lucru reduce cantitatea de date scrise în memorie, îmbunătățește eficiența cache-ului L2 și reduce cantitatea de date trimise între diferite puncte de pe GPU, cum ar fi TMU și framebuffer-ul.

GPU Boost 3.0 și funcții de overclocking

Majoritatea partenerilor Nvidia au anunțat deja soluții overclockate din fabrică bazate pe GeForce GTX 1080 și GTX 1070. utilitati speciale pentru overclockare, permițându-vă să utilizați noua funcționalitate a tehnologiei GPU Boost 3.0. Un exemplu de astfel de utilități este EVGA Precision XOC, care include un scaner automat pentru a determina curba tensiune-frecvență - în acest mod, pentru fiecare valoare a tensiunii, prin efectuarea unui test de stabilitate, se găsește o frecvență stabilă la care GPU-ul oferă o creștere a performanței. Cu toate acestea, această curbă poate fi modificată și manual.

Cunoaștem bine tehnologia GPU Boost de la plăcile grafice Nvidia anterioare. În GPU-urile lor, ei folosesc această caracteristică hardware, care este concepută pentru a crește viteza ceasului de funcționare a GPU-ului în moduri în care nu a atins încă limitele privind consumul de energie și disiparea căldurii. În GPU-urile Pascal, acest algoritm a suferit mai multe modificări, principala dintre acestea fiind o setare mai fină a frecvențelor turbo, în funcție de tensiune.

Dacă mai devreme diferența dintre frecvența de bază și frecvența turbo a fost fixată, atunci în GPU Boost 3.0 a devenit posibilă setarea decalajelor de frecvență turbo pentru fiecare tensiune separat. Acum, frecvența turbo poate fi setată pentru fiecare dintre valorile individuale ale tensiunii, ceea ce vă permite să stoarceți complet toate capacitățile de overclock din GPU. Am scris despre această caracteristică în detaliu în recenzia GeForce GTX 1080 și puteți utiliza utilitatile EVGA Precision XOC și MSI Afterburner pentru aceasta.

Deoarece unele detalii s-au schimbat în metodologia de overclocking odată cu lansarea plăcilor video cu suport pentru GPU Boost 3.0, Nvidia a fost nevoită să facă explicații suplimentare în instrucțiunile pentru overclockarea noilor produse. Există diferite tehnici de overclocking cu diferite caracteristici variabile care afectează rezultatul final. Pentru fiecare sistem anume, o anumită metodă poate fi mai potrivită, dar elementele de bază sunt întotdeauna aproximativ aceleași.

Mulți overclockeri folosesc benchmark-ul Unigine Heaven 4.0 pentru a verifica stabilitatea sistemului, care încarcă bine GPU-ul, are setări flexibile și pot fi rulați în modul ferestre împreună cu o fereastră de utilitate de overclockare și monitorizare în apropiere, cum ar fi EVGA Precision sau MSI Afterburner. Cu toate acestea, o astfel de verificare este suficientă doar pentru estimările inițiale, iar pentru a confirma ferm stabilitatea overclocking-ului, trebuie verificată în mai multe aplicații de gaming, deoarece diferite jocuri necesită încărcări diferite pe diferite unități funcționale ale GPU-ului: matematică, textură, geometrică. Benchmark-ul Heaven 4.0 este convenabil și pentru overclocking, deoarece are un mod de funcționare în buclă, în care este convenabil să schimbi setările de overclocking și există un benchmark pentru evaluarea creșterii vitezei.

Nvidia recomandă să rulați împreună ferestrele Heaven 4.0 și EVGA Precision XOC atunci când overclockați noile plăci grafice GeForce GTX 1080 și GTX 1070. La început, este de dorit să creșteți imediat viteza ventilatorului. Iar pentru overclocking serios, puteți seta imediat valoarea vitezei la 100%, ceea ce va face placa video foarte tare, dar va răci GPU-ul și celelalte componente ale plăcii video cât mai mult posibil prin scăderea temperaturii la cel mai scăzut posibil nivel, prevenind accelerarea (reducerea frecvențelor din cauza creșterii temperaturii GPU peste o anumită valoare).

Apoi, trebuie să setați valoarea puterii țintă (Power Target) și la maxim. Această setare va oferi GPU-ului cantitatea maximă posibilă de putere prin creșterea nivelului de consum de energie și a temperaturii țintă a GPU-ului (GPU Temp Target). În unele scopuri, a doua valoare poate fi separată de modificarea țintei de putere, iar apoi aceste setări pot fi ajustate individual - pentru a obține o încălzire mai mică a cipul video, de exemplu.

Următorul pas este creșterea valorii GPU Clock Offset - înseamnă cât de mai mare va fi frecvența turbo în timpul funcționării. Această valoare crește frecvența pentru toate tensiunile și are ca rezultat o performanță mai bună. Ca de obicei, atunci când faceți overclock, trebuie să verificați stabilitatea atunci când creșteți frecvența GPU-ului în pași mici - de la 10 MHz la 50 MHz pe pas înainte de a observa o blocare, eroare de driver sau aplicație sau chiar artefacte vizuale. Când se atinge această limită, ar trebui să reduceți valoarea frecvenței cu un pas în jos și să verificați din nou stabilitatea și performanța în timpul overclockării.

Pe lângă frecvența GPU, puteți crește și frecvența memoriei video (Memory Clock Offset), lucru deosebit de important în cazul GeForce GTX 1070 echipat cu memorie GDDR5, care de obicei overclockează bine. Procesul în cazul frecvenței de memorie repetă exact ceea ce se face atunci când se găsește o frecvență GPU stabilă, singura diferență este că pașii pot fi măriți - adăugați 50-100 MHz la frecvența de bază deodată.

În plus față de pașii de mai sus, puteți crește și limita de supratensiune, deoarece o frecvență mai mare a GPU este adesea obținută la o tensiune crescută, atunci când părțile instabile ale GPU-ului primesc putere suplimentară. Adevărat, potenţialul dezavantaj al creşterii valoare dată este posibilitatea de deteriorare a cipul video și defecțiunea accelerată a acestuia, așa că trebuie să utilizați creșterea tensiunii cu precauție extremă.

Pasionații de overclocking folosesc tehnici ușor diferite, schimbând parametrii într-o ordine diferită. De exemplu, unii overclockatori împărtășesc experimente privind găsirea unui GPU stabil și a frecvenței de memorie, astfel încât să nu interfereze unul cu celălalt, apoi testează overclockarea combinată atât a cipulului video, cât și a cipurilor de memorie, dar acestea sunt deja detalii nesemnificative ale unei abordări individuale. .

Judecând după opiniile de pe forumuri și comentariile la articole, unor utilizatori nu le-a plăcut noul algoritm de funcționare GPU Boost 3.0, când frecvența GPU-ului crește mai întâi foarte mare, adesea mai mare decât frecvența turbo, dar apoi, sub influența unei creșteri la temperatura GPU sau la un consum crescut de energie peste limita setată, poate scădea la valori mult mai mici. Acesta este doar specificul algoritmului actualizat, trebuie să vă obișnuiți cu noul comportament al frecvenței GPU care se schimbă dinamic, dar nu are consecințe negative.

GeForce GTX 1070 este al doilea model după GTX 1080 din noua linie Nvidia de procesoare grafice bazate pe familia Pascal. Noul proces de fabricație FinFET de 16 nm și optimizările arhitecturii au permis acestei plăci grafice să atingă viteze mari de ceas, care este susținută de noua generație de tehnologie GPU Boost. Chiar dacă numărul de blocuri funcționale sub formă de procesoare de flux și module de textură a fost redus, numărul acestora rămâne suficient pentru ca GTX 1070 să devină cea mai profitabilă și eficientă soluție energetică.

Instalarea memoriei GDDR5 pe cel mai tânăr dintr-o pereche de modele lansate de plăci video Nvidia pe un cip GP104, spre deosebire de noul tip de GDDR5X care distinge GTX 1080, nu îl împiedică să atingă indicatori de performanță înalți. În primul rând, Nvidia a decis să nu taie magistrala de memorie a modelului GeForce GTX 1070 și, în al doilea rând, a pus pe ea cea mai rapidă memorie GDDR5, cu o frecvență efectivă de 8 GHz, care este doar puțin mai mică de 10 GHz pentru GDDR5X utilizat în model mai vechi. Luând în considerare algoritmii îmbunătățiți de compresie delta, lățimea de bandă efectivă a memoriei GPU a devenit mai mare decât același parametru pentru model similar generația anterioară GeForce GTX 970.

GeForce GTX 1070 este bun prin faptul că oferă performanțe foarte înalte și suport pentru noi caracteristici și algoritmi la un preț mult mai mic în comparație cu modelul mai vechi anunțat puțin mai devreme. Dacă câțiva pasionați își pot permite achiziționarea unui GTX 1080 pentru 55.000, atunci un cerc mult mai mare de potențiali cumpărători va putea plăti 35.000 pentru doar un sfert dintr-o soluție mai puțin productivă, cu exact aceleași capacități. Combinația dintre prețul relativ scăzut și performanța ridicată a făcut ca GeForce GTX 1070 să fie poate cea mai profitabilă achiziție la momentul lansării sale.

Accelerator grafic GeForce GTX 1060

ParametruSens
Nume cod al cipuluiGP106
Tehnologia de producțieFinFET de 16 nm
Numărul de tranzistori4,4 miliarde
Zona centrală200 mm²
ArhitecturăUnificat, cu o serie de procesoare comune pentru procesarea în flux a numeroase tipuri de date: vârfuri, pixeli etc.
Suport hardware DirectXDirectX 12, cu suport pentru Feature Level 12_1
Autobuz de memorie192 de biți: șase controlere independente de memorie pe 32 de biți care acceptă memoria GDDR5
Frecvența GPU1506 (1708) MHz
Blocuri de calcul10 multiprocesoare de streaming, inclusiv 1280 ALU scalare pentru calcule în virgulă mobilă în cadrul standardului IEEE 754-2008;
Blocuri de texturare80 de unități de adresare și filtrare a texturii cu suport pentru componentele FP16 și FP32 în texturi și suport pentru filtrare triliniară și anizotropă pentru toate formatele de textură
Unități de operații raster (ROP)6 ROP-uri largi (48 pixeli) cu suport pentru diferite moduri de anti-aliasing, inclusiv programabile și cu format de buffer de cadru FP16 sau FP32. Blocurile constau dintr-o serie de ALU configurabile și sunt responsabile pentru generarea și compararea adâncimii, eșantionarea multiplă și amestecarea
Suport monitorSuport integrat pentru până la patru monitoare conectate prin Dual Link DVI, HDMI 2.0b și DisplayPort 1.2 (1.3/1.4 Ready)

Specificații grafice de referință GeForce GTX 1060
ParametruSens
Frecvența miezului1506 (1708) MHz
Numărul de procesoare universale1280
Numărul de blocuri de textură80
Numărul de blocuri de amestecare48
Frecvența efectivă a memoriei8000 (4×2000) MHz
Tipul memorieiGDDR5
Autobuz de memorie192 de biți
Capacitate de memorie6 GB
Lățimea de bandă a memoriei192 GB/s
Performanță de calcul (FP32)aproximativ 4 teraflopi
Rata maximă de umplere teoretică72 gigapixeli/s
Rata teoretică de eșantionare a texturii121 gigatexeli/s
ObosiPCI Express 3.0
ConectoriUn DVI Dual Link, unul HDMI și trei DisplayPort
Consumul de energie tipic120 W
Mâncare suplimentarăUn conector cu 6 pini
Numărul de sloturi ocupate în șasiul sistemului2
Pret recomandat249 USD (299 USD) în SUA și 18.990 USD în Rusia

Placa video GeForce GTX 1060 a primit, de asemenea, un nume similar cu aceeași soluție din seria GeForce anterioară, deosebindu-se de numele predecesorului său direct GeForce GTX 960 doar prin prima cifră schimbată a generației. Noutatea a devenit în linia actuală a companiei cu un pas mai jos decât soluția GeForce GTX 1070 lansată anterior, care este medie în ceea ce privește viteza în noua serie.

Prețurile recomandate pentru noua placă video a Nvidia sunt de 249 USD și 299 USD pentru versiunile obișnuite ale partenerilor companiei și, respectiv, pentru Ediția specială pentru Fondator. În comparație cu cele două modele mai vechi, acesta este un preț foarte favorabil, deoarece noul model GTX 1060, deși inferior plăcilor de bază de top, nu este nici pe departe atât de mult pe cât este mai ieftin. La momentul anunțului, noutatea a devenit cu siguranță cea mai bună soluție de performanță din clasa sa și una dintre cele mai profitabile oferte din această gamă de preț.

Acest model de placă video a familiei Pascal a Nvidia a ieșit pentru a contracara proaspăta decizie a companiei rivale AMD, care a lansat puțin mai devreme Radeon RX 480. Puteți compara noua placă video Nvidia cu această placă video, deși nu chiar direct, deoarece ele difera in continuare destul de semnificativ ca pret. GeForce GTX 1060 este mai scumpă (249-299 USD față de 199-229 USD), dar este, de asemenea, în mod clar mai rapid decât concurentul său.

Procesorul grafic GP106 are o magistrală de memorie de 192 de biți, astfel încât cantitatea de memorie instalată pe o placă video cu o astfel de magistrală poate fi de 3 sau 6 GB. O valoare mai mică în condiții moderne, sincer, nu este suficientă, iar multe proiecte de joc, chiar și în rezoluție Full HD, se vor confrunta cu o lipsă de memorie video, ceea ce va afecta grav randamentul. Pentru a asigura performanța maximă a noii soluții la setări înalte, modelul GeForce GTX 1060 a fost echipat cu 6 GB de memorie video, ceea ce este suficient pentru a rula orice aplicație 3D cu orice setări de calitate. Mai mult, astăzi pur și simplu nu există nicio diferență între 6 și 8 GB, iar o astfel de soluție va economisi niște bani.

Valoarea tipică a consumului de energie pentru noul produs este de 120 W, care este cu 20% mai mică decât valoarea pentru GTX 1070 și este egală cu consumul de energie al plăcii grafice GeForce GTX 960 din generația anterioară, care are performanțe și capacități mult mai scăzute. Placa de referință are setul obișnuit de conectori pentru conectarea dispozitivelor de ieșire a imaginii: un DVI Dual-Link, unul HDMI și trei DisplayPort. Mai mult, a existat suport pentru noile versiuni de HDMI și DisplayPort, despre care am scris în recenzia modelului GTX 1080.

Lungimea plăcii de referință GeForce GTX 1060 este de 9,8 inci (25 cm), iar din diferențele față de opțiunile mai vechi, remarcăm separat că GeForce GTX 1060 nu acceptă configurația de randare SLI cu mai multe cipuri și nu are un conector special pentru asta. Deoarece placa consumă mai puțină energie decât modelele mai vechi, pe placă a fost instalat un conector de alimentare externă PCI-E cu 6 pini pentru alimentare suplimentară.

Plăcile video GeForce GTX 1060 au apărut pe piață încă din ziua anunțului sub formă de produse de la partenerii companiei: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. O ediție specială a GeForce GTX 1060 Founder’s Edition, produsă chiar de Nvidia, va fi lansată în cantități limitate, care vor fi vândute la un preț de 299 USD exclusiv pe site-ul Nvidia și nu vor fi prezentate oficial în Rusia. Ediția Fondatorului se remarcă prin faptul că este realizată din materiale și componente de înaltă calitate, inclusiv o carcasă din aluminiu, și folosește un sistem eficient de răcire, precum și circuite de putere cu rezistență scăzută și regulatoare de tensiune special concepute.

Modificări arhitecturale

Placa video GeForce GTX 1060 se bazează pe un procesor grafic complet nou model GP106, care nu diferă funcțional de primul născut al arhitecturii Pascal sub forma cipului GP104, pe care sunt descrise modelele GeForce GTX 1080 și GTX 1070. Această arhitectură s-a bazat pe soluții elaborate în Maxwell, dar are și unele diferențe funcționale, despre care am scris în detaliu mai devreme.

Cipul video GP106 este similar în design cu cipul Pascal de top și cu soluțiile similare ale arhitecturii Maxwell și puteți găsi informații detaliate despre designul GPU-urilor moderne în recenziile noastre despre soluțiile Nvidia anterioare. La fel ca GPU-urile anterioare, noile cipuri de arhitectură au o configurație diferită de Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM) și controlere de memorie:

Procesorul grafic GP106 încorporează două clustere GPC, formate din 10 multiprocesoare de streaming (Streaming Multiprocessor - SM), adică exact jumătate din GP104. Ca și în GPU-ul mai vechi, fiecare dintre multiprocesoare conține 128 de nuclee, 8 unități de textură TMU, 256 KB fiecare memorie de înregistrare, 96 KB de memorie partajată și 48 KB de cache L1. Ca rezultat, GeForce GTX 1060 conține un total de 1.280 de nuclee de calcul și 80 de unități de textură, jumătate din cea a GTX 1080.

Dar subsistemul de memorie al GeForce GTX 1060 nu a fost redus la jumătate față de soluția de top, acesta conține șase controlere de memorie pe 32 de biți, oferind magistrala de memorie finală de 192 de biți. Cu o frecvență efectivă a memoriei video GDDR5 pentru GeForce GTX 1060 egală cu 8 GHz, lățimea de bandă ajunge la 192 GB/s, ceea ce este destul de bun pentru o soluție din acest segment de preț, mai ales având în vedere eficiența ridicată a utilizării acesteia în Pascal. Fiecare dintre controlerele de memorie are opt ROP-uri și 256 KB de cache L2 asociate, deci în total versiunea completa GPU-ul GP106 conține 48 ROP-uri și 1536 KB cache L2.

Pentru a reduce cerințele de lățime de bandă a memoriei și pentru a utiliza mai eficient arhitectura Pascal disponibilă, compresia fără pierderi a datelor pe cip a fost îmbunătățită în continuare, care este capabilă să comprima datele în buffere, câștigând eficiență și performanță. În special, noi metode de compresie delta 4:1 și 8:1 au fost adăugate noii familii de cipuri, oferind un plus de 20% eficienței lățimii de bandă în comparație cu soluțiile anterioare ale familiei Maxwell.

Frecvența de bază a noului GPU este de 1506 MHz - frecvența nu ar trebui să scadă sub acest punct în principiu. Ceasul turbo tipic (Boost Clock) este mult mai mare la 1708 MHz, care este media frecvenței reale la care rulează cipul grafic GeForce GTX 1060 într-o gamă largă de jocuri și aplicații 3D. Frecvența reală de Boost depinde de joc și de condițiile în care are loc testul.

La fel ca și restul soluțiilor din familia Pascal, modelul GeForce GTX 1060 nu numai că funcționează la o frecvență mare de clock, oferind performanțe ridicate, dar are și o marjă decentă pentru overclock. Primele experimente indică posibilitatea de a atinge frecvențe de ordinul a 2 GHz. Nu este de mirare că partenerii companiei pregătesc și versiuni overclockate din fabrică ale plăcii video GTX 1060.

Deci, principala schimbare a noii arhitecturi a fost procesul FinFET de 16 nm, a cărui utilizare în producția de GP106 a făcut posibilă creșterea semnificativă a complexității cipului, menținând în același timp o zonă relativ scăzută de 200 mm², astfel încât acest cip cu arhitectură Pascal are un număr semnificativ mai mare de unități de execuție în comparație cu un cip Maxwell de poziționare similară produs folosind tehnologia de proces de 28 nm.

Dacă GM206 (GTX 960) cu o suprafață de 227 mm² avea 3 miliarde de tranzistori și 1024 ALU-uri, 64 TMU-uri, 32 ROP-uri și o magistrală de 128 de biți, atunci noul GPU conținea 4,4 miliarde de tranzistori, 1280 ALU-uri, în 200 mm², 80 TMU-uri și 48 ROP-uri cu o magistrală pe 192 de biți. Mai mult, la o frecvență de aproape o ori și jumătate mai mare: 1506 (1708) față de 1126 (1178) MHz. Și asta cu același consum de energie de 120 de wați! Ca rezultat, GPU-ul GP106 a devenit unul dintre cele mai eficiente GPU-uri energetice, alături de GP104.

Noi tehnologii Nvidia

Una dintre cele mai interesante tehnologii ale companiei, care este susținută de GeForce GTX 1060 și alte soluții ale familiei Pascal, este tehnologia Multiproiecție simultană Nvidia. Am scris deja despre această tehnologie în recenzia GeForce GTX 1080, care vă permite să utilizați mai multe tehnici noi pentru a optimiza randarea. În special - pentru a proiecta simultan o imagine VR pentru doi ochi simultan, crescând semnificativ eficiența utilizării GPU-ului în realitate virtuală.

Pentru a suporta SMP, toate GPU-urile din familia Pascal au un motor special, care este situat în PolyMorph Engine la sfârșitul conductei geometrice înainte de rasterizare. Cu acesta, GPU-ul poate proiecta simultan o primitivă geometrică pe mai multe proiecții dintr-un punct, în timp ce aceste proiecții pot fi stereo (adică sunt acceptate până la 16 sau 32 de proiecții simultan). Această capacitate permite GPU-urilor Pascal să reproducă cu acuratețe o suprafață curbă pentru randarea VR, precum și să afișeze corect pe sisteme cu mai multe monitoare.

Este important ca tehnologia Simultaneous Multi-Projection este deja integrată în motoarele de jocuri populare (Unreal Engine și Unity) și jocuri, iar până în prezent, a fost anunțat suport pentru tehnologie pentru mai mult de 30 de jocuri în dezvoltare, inclusiv astfel de bine-cunoscute. proiecte precum Unreal Tournament, Poolnation VR, Everest VR, Obduction, Adr1ft și Raw Data. Interesant, deși Unreal Tournament nu este un joc VR, folosește SMP pentru a obține imagini și performanțe mai bune.

O altă tehnologie mult așteptată este un instrument puternic pentru crearea de capturi de ecran în jocuri. Nvidia Ansel. Acest instrument vă permite să creați capturi de ecran neobișnuite și de foarte înaltă calitate din jocuri, cu funcții inaccesibile anterior, salvându-le la rezoluție foarte înaltă și completându-le cu diverse efecte și partajați creațiile dvs. Ansel vă permite să construiți literalmente o captură de ecran așa cum dorește artistul, permițându-vă să instalați o cameră cu orice parametri oriunde în scenă, să aplicați post-filtre puternice imaginii sau chiar să faceți o fotografie la 360 de grade pentru vizualizare într-un cască de realitate virtuală.

Nvidia a standardizat integrarea interfeței de utilizare Ansel în jocuri și este la fel de ușor ca adăugarea de câteva linii de cod. Nu mai este necesar să așteptați ca această caracteristică să apară în jocuri, puteți evalua abilitățile lui Ansel chiar acum în Mirror's Edge: Catalyst, iar puțin mai târziu va deveni disponibil în Witcher 3: Wild Hunt. În plus, multe proiecte de jocuri compatibile cu Ansel sunt în dezvoltare, inclusiv jocuri precum Fortnite, Paragon și Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky și multe altele.

Noul GPU GeForce GTX 1060 acceptă și setul de instrumente Nvidia VRWorks, care ajută dezvoltatorii să creeze proiecte impresionante pentru realitatea virtuală. Acest pachet include multe utilități și instrumente pentru dezvoltatori, inclusiv VRWorks Audio, care vă permite să efectuați un calcul foarte precis al reflexiilor undelor sonore de la obiectele din scenă folosind ray tracing GPU. Pachetul include, de asemenea, integrarea în efectele fizice VR și PhysX pentru a asigura un comportament fizic corect al obiectelor din scenă.

Unul dintre cele mai interesante jocuri VR de care beneficiază de pe urma VRWorks este VR Funhouse, propriul joc VR al Nvidia, disponibil gratuit pe serviciul Steam al Valve. Acest joc este alimentat de Unreal Engine 4 (Epic Games) și rulează pe plăci grafice GeForce GTX 1080, 1070 și 1060 împreună cu căștile HTC Vive VR. Mai mult, codul sursă al acestui joc va fi disponibil public, ceea ce va permite altor dezvoltatori să folosească idei și coduri gata făcute deja în atracțiile lor VR. Credeți-ne pe cuvânt, aceasta este una dintre cele mai impresionante demonstrații ale posibilităților realității virtuale.

Inclusiv datorită tehnologiilor SMP și VRWorks, utilizarea GPU-ului GeForce GTX 1060 în aplicațiile VR oferă suficient pentru nivel de intrare performanță în realitate virtuală, iar GPU-ul în cauză îndeplinește nivelul minim necesar de hardware, inclusiv pentru SteamVR, devenind una dintre cele mai de succes achiziții pentru utilizarea în sisteme cu sprijin oficial VR.

Întrucât modelul GeForce GTX 1060 se bazează pe cipul GP106, care nu este cu nimic inferior procesorului grafic GP104, care a devenit baza unor modificări mai vechi, suportă absolut toate tehnologiile descrise mai sus.

GeForce GTX 1060 este al treilea model din noua linie Nvidia de procesoare grafice bazate pe familia Pascal. Noua tehnologie de proces FinFET de 16 nm și optimizările arhitecturii au permis tuturor plăcilor grafice noi să atingă viteze mari de ceas și să plaseze mai multe blocuri funcționale în GPU sub formă de procesoare de flux, module de textură și altele, în comparație cu cipurile video din generația anterioară. De aceea, GTX 1060 a devenit cea mai profitabilă și eficientă soluție energetică din clasa sa și în general.

Este deosebit de important ca GeForce GTX 1060 să ofere performanțe suficient de ridicate și suport pentru noi funcții și algoritmi la un preț mult mai mic în comparație cu soluțiile mai vechi bazate pe GP104. Cipul grafic GP106 folosit în noul model oferă cea mai bună performanță și eficiență energetică din clasa sa. GeForce GTX 1060 este special concepută și potrivită perfect pentru toate jocurile moderne la setări grafice ridicate și maxime la o rezoluție de 1920x1080 și chiar cu antialiasing pe ecran complet activat prin diferite metode (FXAA, MFAA sau MSAA).

Iar pentru cei care doresc și mai multă performanță cu afișaje de rezoluție ultra-înaltă, Nvidia are plăcile sale grafice de vârf GeForce GTX 1070 și GTX 1080, care sunt, de asemenea, destul de bune în ceea ce privește performanța și eficiența energetică. Și totuși, combinația dintre preț scăzut și performanță suficientă distinge destul de favorabil GeForce GTX 1060 de fundalul soluțiilor mai vechi. În comparație cu Radeon RX 480 concurent, soluția Nvidia este puțin mai rapidă, cu mai puțină complexitate și amprentă GPU și are o eficiență energetică semnificativ mai bună. Adevărat, se vinde puțin mai scump, așa că fiecare placă video are propria sa nișă.

Revizuirea plăcii video NVIDIA GeForce GTX 780 | GeForce Experience și ShadowPlay

Experiență GeForce

În calitate de pasionați de computere, apreciem combinația de setări diferite care afectează performanța și calitatea jocurilor. Cel mai simplu mod este să cheltuiți mulți bani pe o nouă placă video și să setați toate setările grafice la maximum. Dar când un parametru se dovedește a fi prea greu pentru card și trebuie redus sau oprit, există o senzație neplăcută și conștientizarea că jocul ar putea funcționa mult mai bine.

Cu toate acestea, setarea setărilor optime nu este atât de ușoară. Unele setări produc imagini mai bune decât altele, iar impactul asupra performanței poate varia foarte mult. Programul GeForce Experience este încercarea NVIDIA de a facilita alegerea setărilor jocului, comparând procesorul, GPU-ul și rezoluția cu o bază de date de configurații. A doua parte a utilitarului vă ajută să determinați dacă driverele au nevoie de actualizări.

Este posibil ca entuziaștii să continue să aleagă ei înșiși setările și să le perceapă negativ program suplimentar. Cu toate acestea, majoritatea jucătorilor care doresc să instaleze jocul și să înceapă să joace imediat, fără a verifica driverele și a parcurge diverse setări, vor fi cu siguranță mulțumiți de această oportunitate. În orice caz, GeForce Experience de la NVIDIA îi ajută pe oameni să profite la maximum de experiența lor de joc și, prin urmare, este un utilitar util pentru jocurile pe computer.

GeForce Experience a identificat toate cele nouă jocuri instalate pe sistemul nostru de testare. Desigur, nu au salvat setările implicite, deoarece am aplicat anumite setări de dragul testării. Dar este încă interesant cum GeForce Experience ar fi schimbat opțiunile pe care le-am ales.

Pentru Tomb Raider, GeForce Experience a vrut să dezactiveze tehnologia TressFX, chiar dacă NVIDIA GeForce GTX 780 cu funcția activată, a afișat o medie de 40 de cadre pe secundă. Din anumite motive, programul nu a putut determina configurația Far Cry 3, deși setările sugerate de ea erau destul de ridicate. Din motive necunoscute pentru Skyrim, utilitarul a vrut să dezactiveze FXAA.

Este plăcut să obțineți un set de capturi de ecran pentru fiecare joc care descriu efectul unei anumite setări asupra calității imaginii. Dintre cele nouă exemple pe care le-am analizat, GeForce Experience s-a apropiat de setările optime, în opinia noastră. Cu toate acestea, utilitarul este, de asemenea, părtinitor, favorizând funcțiile specifice NVIDIA, cum ar fi PhysX (pe care programul le-a instalat nivel inaltîn Borderlands 2) și împiedicând activarea funcțiilor de la AMD (inclusiv TressFX în Tomb Raider). Dezactivarea FXAA în Skyrim nu are deloc sens, deoarece jocul are o medie de 100 FPS. Este posibil ca entuziaștii să dorească să instaleze GeForce Experience odată ce sistemul NVIDIA Shield este livrat, deoarece caracteristica Game Streaming pare să fie disponibilă prin aplicația NVIDIA.

ShadowPlay: Always-On Video Recorder pentru jocuri

Fanii WoW își înregistrează adesea raidurile, dar acest lucru necesită un sistem destul de puternic, Fraps și mult spațiu pe disc.

NVIDIA a anunțat recent optiune noua ShadowPlay, care poate simplifica foarte mult procesul de înregistrare.

Când este activat, ShadowPlay folosește decodorul NVENc fix încorporat în GPU-ul Kepler, care înregistrează automat ultimele 20 de minute de joc. Sau puteți porni și opri manual ShadowPlay. Astfel, tehnologia înlocuiește soluții software precum Fraps, care oferă o sarcină mai mare asupra procesorului.

Pentru referință: NVENc funcționează numai cu codificare H.264 la rezoluții de până la 4096x4096 pixeli. ShadowPlay nu este încă disponibil pe piață, dar NVIDIA spune că va putea înregistra videoclipuri 1080p la până la 30 FPS până la lansare în această vară. Ne-am dori să vedem o rezoluție mai mare, deoarece s-a afirmat anterior că codificatorul are potențialul de a-l suporta în hardware.

Revizuirea plăcii video NVIDIA GeForce GTX 780 | GPU Boost 2.0 și posibile probleme de overclocking

GPU Boost 2.0

În revizuire GeForce GTX Titan Nu am apucat să testăm pe larg tehnologia NVIDIA GPU Boost de a doua generație, dar acum este aici NVIDIA GeForce GTX 780. Iată o scurtă descriere a acestei tehnologii:

GPU Boost este un mecanism NVIDIA care modifică performanța plăcilor grafice în funcție de tipul de sarcină procesată. După cum probabil știți, jocurile au cerințe diferite de resurse GPU. Din punct de vedere istoric, frecvența trebuie reglată pentru cel mai rău caz. Dar la procesarea „luminii” Sarcini GPU a lucrat degeaba. GPU Boost monitorizează diverși parametri și crește sau scade frecvențele în funcție de nevoile aplicației și de situația actuală.

Prima implementare a GPU Boost a funcționat sub un anumit prag de putere (170 W în cazul GeForce GTX 680). Cu toate acestea, inginerii companiei au descoperit că pot depăși în siguranță acest nivel dacă temperatura GPU-ului este suficient de scăzută. Astfel, performanța poate fi optimizată în continuare.

În practică, GPU Boost 2.0 diferă doar prin faptul că NVIDIA accelerează acum frecvența în funcție de limita de putere, ci de o anumită temperatură, care este de 80 de grade Celsius. Aceasta înseamnă că valorile mai mari de frecvență și tensiune vor fi acum utilizate până la temperatura cipului de până la 80 de grade. Nu uitați că temperatura depinde în principal de profilul și setările ventilatorului: cu cât viteza este mai mare, cu atât temperatura este mai mică și, prin urmare, cu atât valorile GPU Boost sunt mai mari (și nivelul de zgomot, din păcate, de asemenea). Tehnologia încă evaluează situația o dată la 100 ms, așa că NVIDIA are mai mult de lucru în versiunile viitoare.

Setările dependente de temperatură fac procesul de testare și mai dificil în comparație cu prima versiune a GPU Boost. Orice crește sau scade temperatura lui GK110 schimbă ceasul cipului. Prin urmare, obținerea unor rezultate consistente între curse este destul de dificilă. În condiții de laborator, se poate doar spera la o temperatură ambientală stabilă.

În plus față de cele de mai sus, este de remarcat faptul că puteți crește limita de temperatură. De exemplu, dacă vrei NVIDIA GeForce GTX 780 a scăzut frecvența și tensiunea la nivelul de 85 sau 90 de grade Celsius, acest lucru poate fi configurat în parametri.

Doriți să mențineți GK110 cât mai departe de limita de temperatură aleasă de dvs.? curba ventilatorului NVIDIA GeForce GTX 780 complet reglabil, permițându-vă să reglați ciclul de funcționare în funcție de valorile temperaturii.

Posibile probleme de overclocking

În timpul cunoașterii noastre cu GeForce GTX Titan reprezentantii companiei ne-au aratat o utilitate interna capabila sa citeasca starea diverși senzori: deci simplifică procesul de diagnosticare a comportamentului non-standard al cardului. Dacă temperatura lui GK110 crește prea mult în timpul overclockării, aceste informații vor fi înregistrate în jurnal chiar și atunci când este accelerat.

Acum compania implementează această funcție prin intermediul aplicației Precision X, care lansează un algoritm de avertizare „motive” dacă în timpul accelerării au existat acțiuni care împiedică continuarea efectivă a acesteia. Aceasta este o caracteristică excelentă, deoarece nu mai trebuie să ghiciți despre potențiale blocaje. Există, de asemenea, un indicator de limită OV max care vă va anunța dacă ați atins tensiunea de vârf absolută a GPU-ului. În acest caz, există riscul arderii cardului. Puteți considera acest lucru drept o sugestie pentru a reduce parametrii de overclocking.

Revizuirea plăcii video NVIDIA GeForce GTX 780 | Stand de testare și repere


Configurația bancului de testare
CPU Intel Core i7-3770K (Ivy Bridge) 3,5GHz @ 4,0GHz (40*100MHz), LGA 1155, 8MB cache L3 partajat, Hyper-Threading activat, Economii de energie activate
Placa de baza Gigabyte Z77X-UD5H (LGA 1155), chipset Z77 Express, BIOS F15q
Berbec G.Skill 16 GB (4 x 4 GB) DDR3-1600, F3-12800CL9Q2-32GBZL @ 9-9-9-24 la 1,5 V
Dispozitiv de stocare Crucial m4 SSD 256 GB SATA 6 Gb/s
Plăci video Nvidia GeForce GTX 780 3 GB

AMD Radeon HD 7990 6 GB

AMD Radeon HD 7970 GHz Edition 3 GB

Nvidia GeForce GTX 580 1.5 GB

Nvidia GeForce GTX 680 2 GB

Nvidia GeForce GTX Titan 6 GB

Nvidia GeForce GTX 690 4 GB

Alimentare electrică Cooler Master UCP-1000W
Software de sistem și drivere
OS Windows 8 Professional pe 64 de biți
DirectX DirectX 11
Grafic. șoferii AMD Catalyst 13.5 (Beta 2)
Nvidia GeForce Versiunea 320.00
Nvidia GeForce Release 320.18 (pentru GeForce GTX 780)

Obținerea valorii corecte a ratei de cadre

Cititorii atenți vor observa că cifrele din paginile următoare sunt mai modeste decât în ​​recenzie. AMD Radeon HD 7990, și există un motiv pentru asta. Anterior, am prezentat ratele de cadre sintetice și reale, apoi am arătat fluctuațiile de timp între cadre, împreună cu cadrele reduse și cele scurte. Cert este că această metodă nu reflectă sentimentul real al funcționării plăcii video, iar din partea noastră ar fi nedrept să condamnăm AMD, bazându-se pe indicatori sintetici de întârziere între cadre.

De aceea, împreună cu fluctuațiile ratei cadrelor, oferim acum valori mai practice ale ratei cadrelor dinamice. Rezultatele nu sunt la fel de mari, dar în același timp sunt foarte elocvente în jocurile în care AMD întâmpină dificultăți.

Teste și setări
Câmpul de luptă 3 Calitate grafică - Ultra, v-sync dezactivat, 2560x1440, DirectX 11, Going Hunting, 90 de secunde, FCAT
Far Cry 3 Calitate grafică - Ultra, DirectX 11, v-sync dezactivat, 2560x1440, rulați propriul traseu, 50 de secunde, FCAT
Borderlands 2 Calitate grafică - Cea mai înaltă, PhysX scăzută, Filtrare anizotropă de 16x, 2560x1440, Rulați propriul traseu, FCAT
Hitman: Absoluție Calitate grafică - Ultra, MSAA dezactivat, 2560x1440, benchmark încorporat, FCAT
The Elder Scrolls V: Skyrim Calitate grafică - Ultra, FXAA activat, 2560x1440, rulați propriul traseu, 25 de secunde, FCAT
3DMark Punct de referință Fire Strike
Bioshock infinit Calitate grafică - Ultra, DirectX 11, profunzime de câmp difuzor, 2560x1440, benchmark încorporat, FCAT
Crysis 3 Calitate grafică - foarte înaltă, MSAA: Text scăzut (2x), rezoluție înaltă, 2560x1440, rulați pe propriul traseu, 60 de secunde, FCAT
Tomb Raider Calitate grafică - Ultima, FXAA activat, filtrare anizotropă de 16x, TressFX Hair, 2560x1440, rulați propriul traseu, 45 de secunde, FCAT
Lux Mark 2.0 Binar pe 64 de biți, versiunea 2.0, scena Sala
SiSoftware Sandra 2013 Professional Sandra Tech Support (inginer) 2013.SP1, Criptografie, Performanță analiză financiară


CONŢINUT