Rumah / OS seluler / nvidia gpu boost 2.0 teknologi. Kartu video. Platform Tangkapan Layar Game Ansel

nvidia gpu boost 2.0 teknologi. Kartu video. Platform Tangkapan Layar Game Ansel

Peningkatan GPU 2.0

Dengan kartu grafis NVIDIA GeForce GTX 680, kami memiliki fitur baru yang penting: Peningkatan GPU. Dan NVIDIA GeForce GTX Titan baru melangkah lebih jauh dengan memperluas fitur ini ke GPU Boost 2.0. Versi pertama GPU Boost 1.0 berfokus pada konsumsi daya maksimum yang dicapai dalam game modern yang paling menuntut. Pada saat yang sama, suhu GPU tidak memainkan peran khusus, kecuali mungkin jika mendekati ambang kritis. Frekuensi clock maksimum ditentukan berdasarkan tegangan relatif. Kerugiannya cukup jelas: GPU Boost 1.0 tidak dapat mencegah situasi di mana, bahkan pada voltase non-kritis, suhu meningkat secara berlebihan.

NVIDIA GeForce GTX Titan - Peningkatan GPU 2.0

GeForce GTX Titan telah mengevaluasi dua parameter: tegangan dan suhu. Artinya, tegangan relatif (Vref) sudah ditentukan berdasarkan dua parameter ini. Tentu saja, ketergantungan pada masing-masing GPU akan tetap ada, karena ada variasi dalam produksi chip, sehingga setiap kartu video akan berbeda satu sama lain. Tetapi NVIDIA menunjukkan bahwa, secara teknis, penambahan suhu memungkinkan rata-rata peningkatan overclocking 3-7 persen lebih tinggi. Teknologi GPU Boost 2.0 secara teoritis dapat di-porting ke kartu grafis yang lebih lama, tetapi ini tidak mungkin terjadi.

NVIDIA GeForce GTX Titan - Peningkatan GPU 2.0

Mari kita lihat lebih dekat GPU Boost 2.0. Utilitas seperti EVGA Precision Tool atau MSI Afterburner sudah mendukung GPU Boost 2.0. Kami menggunakan Alat Presisi EVGA di versi 4.0.

NVIDIA GeForce GTX Titan - Peningkatan GPU 2.0

GPU Boost 2.0 peka terhadap suhu, dan pada suhu rendah, teknologi ini dapat meningkatkan kinerja secara lebih signifikan. Suhu target (Ttarget) diatur ke 80 °C secara default.

NVIDIA GeForce GTX Titan - Peningkatan GPU 2.0

Teknologi GPU Boost 2.0 berisi semua fitur yang akrab bagi kita dari teknologi generasi pertama, tetapi pada saat yang sama juga memungkinkan untuk mengatur voltase yang lebih tinggi, dan oleh karena itu frekuensi clock yang lebih tinggi. Untuk overclocker, dimungkinkan untuk mengubah pengaturan. Anda dapat mengaktifkan GPU Overvoltage, tetapi waspadai potensi pengurangan masa pakai kartu grafis.

NVIDIA GeForce GTX Titan - Peningkatan GPU 2.0

Overclocker dapat menaikkan Vref dan Vmax (OverVoltaging). Banyak pengguna menginginkan ini di GK104, tetapi NVIDIA tidak mempercayakan kesempatan seperti itu kepada pengguna atau produsen. Dan kartu video EVGA GTX 680 Classified yang kami uji (uji dan tinjau) hanyalah contoh yang bagus. Dengan kartu video ini, modul EVGA Evbot khusus memberi pengguna kontrol atas voltase. Tetapi NVIDIA mendesak agar EVGA menghapus perangkat keras tambahan dari kartu grafis mereka. Dalam kasus GPU Boost 2.0 dan OverVoltaging, NVIDIA sendiri mengambil langkah ke arah ini. Sehingga produsen kartu grafis dapat merilis beberapa model GeForce GTX Titan, seperti versi standar dan versi overclock pabrik. Aktivasi OverVoltaging dilakukan melalui sakelar VBIOS (yaitu, secara eksplisit untuk pengguna sehingga dia menyadari konsekuensi yang mungkin terjadi).

ParameterArti
Nama kode chipGP104
Teknologi produksiFinFET 16nm
Jumlah transistor7,2 miliar
Area inti314 mm²
Arsitektur
Dukungan perangkat keras DirectX
Bus memori
1607 (1733) MHz
Blok komputasi20 Multiprosesor Streaming termasuk 2560 IEEE 754-2008 floating point skalar ALU;
Blok tekstur160 unit pengalamatan dan pemfilteran tekstur dengan dukungan untuk komponen FP16 dan FP32 dalam tekstur dan dukungan untuk pemfilteran trilinear dan anisotropik untuk semua format tekstur
Memantau dukungan
Spesifikasi Grafis Referensi GeForce GTX 1080
ParameterArti
Frekuensi inti1607 (1733) MHz
2560
Jumlah blok tekstur160
Jumlah blok pencampuran64
Frekuensi memori efektif10000 (4×2500) MHz
Jenis memoriGDDR5X
Bus memori256-bit
Ukuran memori8 GB
320 GB/dtk
sekitar 9 teraflop
103 gigapiksel/dtk
257 gigatexel/dtk
BanPCI Express 3.0
konektor
Konsumsi energihingga 180 W
Makanan tambahanSatu konektor 8-pin
2
Harga yang direkomendasikan$599-699 (AS), 54990 RUB (Rusia)

Model baru kartu video GeForce GTX 1080 menerima nama logis untuk solusi pertama dari seri GeForce baru - ini berbeda dari pendahulunya langsung hanya dalam figur generasi yang diubah. Kebaruan tidak hanya menggantikan solusi top-end di lini perusahaan saat ini, tetapi juga menjadi unggulan dari seri baru untuk beberapa waktu, hingga Titan X dirilis pada GPU yang bahkan lebih kuat. Di bawahnya dalam hierarki juga ada model GeForce GTX 1070 yang sudah diumumkan, berdasarkan versi chip GP104 yang dilucuti, yang akan kami pertimbangkan di bawah.

Harga yang disarankan untuk kartu grafis baru Nvidia masing-masing adalah $599 dan $699 untuk Edisi reguler dan Founders Edition (lihat di bawah), yang merupakan kesepakatan yang cukup bagus mengingat GTX 1080 tidak hanya unggul dari GTX 980 Ti, tetapi juga Titan X. Saat ini, produk baru adalah solusi terbaik dalam hal kinerja di pasar kartu video chip tunggal tanpa pertanyaan, dan pada saat yang sama lebih murah daripada kartu video paling kuat dari generasi sebelumnya. Sejauh ini, GeForce GTX 1080 pada dasarnya tidak memiliki pesaing dari AMD, sehingga Nvidia mampu menetapkan harga yang sesuai untuk mereka.

Kartu video yang dimaksud didasarkan pada chip GP104, yang memiliki bus memori 256-bit, tetapi jenis baru memori GDDR5X beroperasi pada frekuensi efektif yang sangat tinggi 10 GHz, yang memberikan bandwidth puncak tinggi 320 GB / s - yang hampir setara dengan GTX 980 Ti dengan bus 384 -bit. Jumlah memori yang dipasang pada kartu video dengan bus seperti itu bisa 4 atau 8 GB, tetapi akan bodoh untuk menetapkan jumlah yang lebih kecil untuk solusi yang begitu kuat dalam kondisi modern, sehingga GTX 1080 mendapat memori 8 GB, dan jumlah ini cukup untuk menjalankan aplikasi 3D apa pun dengan pengaturan kualitas apa pun selama beberapa tahun mendatang.

Dapat dimengerti bahwa PCB GeForce GTX 1080 sangat berbeda dari PCB perusahaan sebelumnya. Nilai konsumsi daya tipikal untuk item baru adalah 180 watt - sedikit lebih tinggi dari GTX 980, tetapi jauh lebih rendah daripada Titan X dan GTX 980 Ti yang kurang bertenaga. Papan referensi memiliki rangkaian konektor biasa untuk menghubungkan perangkat output gambar: satu DVI Dual-Link, satu HDMI, dan tiga DisplayPort.

Desain referensi Edisi Pendiri

Bahkan dengan pengumuman GeForce GTX 1080 pada awal Mei, edisi khusus kartu video yang disebut Founders Edition diumumkan, yang memiliki harga lebih tinggi daripada kartu video biasa dari mitra perusahaan. Bahkan, edisi ini adalah referensi desain kartu dan sistem pendingin, dan diproduksi oleh Nvidia sendiri. Anda dapat memiliki sikap yang berbeda terhadap opsi kartu video seperti itu, tetapi desain referensi yang dikembangkan oleh para insinyur perusahaan dan diproduksi menggunakan komponen berkualitas tinggi memiliki penggemarnya sendiri.

Tetapi apakah mereka akan membayar beberapa ribu rubel lebih untuk kartu video dari Nvidia itu sendiri adalah pertanyaan yang hanya bisa dijawab oleh latihan. Bagaimanapun, pada awalnya itu akan menjadi kartu video referensi dari Nvidia yang akan dijual dengan harga yang lebih tinggi, dan tidak banyak yang bisa dipilih - ini terjadi dengan setiap pengumuman, tetapi referensi GeForce GTX 1080 berbeda dalam hal itu. itu direncanakan untuk dijual dalam bentuk ini sepanjang masa pakainya, hingga rilis solusi generasi berikutnya.

Nvidia percaya bahwa edisi ini memiliki kelebihan bahkan di atas karya-karya mitra terbaik. Misalnya, desain pendingin dua slot memudahkan untuk merakit PC gaming dengan faktor bentuk yang relatif kecil dan sistem video multi-chip berdasarkan kartu video yang kuat ini (meskipun mode tiga dan empat chip tidak direkomendasikan oleh perusahaan). GeForce GTX 1080 Founders Edition memiliki beberapa keunggulan dalam bentuk pendingin yang efisien menggunakan ruang penguapan dan kipas yang mendorong udara panas keluar dari casing - ini adalah solusi pertama dari Nvidia, yang mengkonsumsi daya kurang dari 250 watt.

Dibandingkan dengan desain produk referensi perusahaan sebelumnya, sirkuit daya telah ditingkatkan dari empat fase menjadi lima fase. Nvidia juga berbicara tentang peningkatan komponen yang menjadi dasar produk baru, kebisingan listrik juga telah dikurangi untuk meningkatkan stabilitas tegangan dan potensi overclocking. Sebagai hasil dari semua peningkatan, efisiensi daya papan referensi telah meningkat sebesar 6% dibandingkan dengan GeForce GTX 980.

Dan agar berbeda dari model "biasa" dari GeForce GTX 1080 dan secara lahiriah, desain casing "cincang" yang tidak biasa dikembangkan untuk Founders Edition. Yang, bagaimanapun, mungkin juga menyebabkan komplikasi bentuk ruang penguapan dan radiator (lihat foto), yang mungkin menjadi salah satu alasan untuk membayar $ 100 ekstra untuk edisi khusus seperti itu. Kami ulangi bahwa di awal penjualan, pembeli tidak akan memiliki banyak pilihan, tetapi di masa depan dimungkinkan untuk memilih solusi dengan desain mereka sendiri dari salah satu mitra perusahaan, dan dilakukan oleh Nvidia sendiri.

Generasi baru arsitektur grafis Pascal

Kartu video GeForce GTX 1080 adalah solusi pertama perusahaan yang didasarkan pada chip GP104, yang termasuk dalam generasi baru arsitektur grafis Pascal Nvidia. Meskipun arsitektur baru didasarkan pada solusi yang dikerjakan di Maxwell, arsitektur ini juga memiliki perbedaan fungsional yang penting, yang akan kita tulis nanti. Perubahan utama dari sudut pandang global adalah yang baru proses teknologi Di mana GPU baru dibuat.

Penggunaan teknologi proses FinFET 16 nm dalam produksi GPU GP104 di pabrik-pabrik perusahaan Taiwan TSMC memungkinkan untuk meningkatkan kompleksitas chip secara signifikan sambil mempertahankan area dan biaya yang relatif rendah. Bandingkan jumlah transistor dan area chip GP104 dan GM204 - mereka berdekatan (chip yang baru bahkan secara fisik lebih kecil), tetapi chip arsitektur Pascal memiliki jumlah transistor yang jauh lebih besar, dan, karenanya , unit eksekusi, termasuk yang menyediakan fungsionalitas baru.

Dari sudut pandang arsitektur, Pascal game pertama sangat mirip dengan solusi serupa dari arsitektur Maxwell, meskipun ada beberapa perbedaan. Seperti Maxwell, prosesor arsitektur Pascal akan memiliki konfigurasi yang berbeda dari Graphics Processing Clusters (GPCs), Streaming Multiprocessors (SMs), dan pengontrol memori. Multiprosesor SM adalah multiprosesor yang sangat paralel yang menjadwalkan dan menjalankan warps (warps, kelompok 32 aliran instruksi) pada inti CUDA dan unit eksekusi lainnya di multiprosesor. Anda dapat menemukan informasi terperinci tentang desain semua blok ini di ulasan kami tentang solusi Nvidia sebelumnya.

Setiap multiprosesor SM dipasangkan dengan Mesin PolyMorph, yang menangani pengambilan sampel tekstur, tessellation, transformasi, pengaturan atribut vertex, dan koreksi perspektif. Tidak seperti solusi perusahaan sebelumnya, Mesin PolyMorph dalam chip GP104 juga berisi blok Multi-Proyeksi Simultan baru, yang akan kita bahas di bawah. Kombinasi multiprosesor SM dengan satu Mesin Polymorph secara tradisional disebut TPC - Kluster Prosesor Tekstur untuk Nvidia.

Secara total, chip GP104 di GeForce GTX 1080 berisi empat cluster GPC dan 20 multiprosesor SM, serta delapan pengontrol memori yang dikombinasikan dengan 64 ROP. Setiap cluster GPC memiliki mesin rasterisasi khusus dan mencakup lima SM. Setiap multiprosesor, pada gilirannya, terdiri dari 128 inti CUDA, file register 256 KB, memori bersama 96 KB, cache L1 48 KB, dan delapan unit tekstur TMU. Artinya, secara total, GP104 berisi 2.560 CUDA core dan 160 unit TMU.

Selain itu, prosesor grafis yang menjadi dasar GeForce GTX 1080 berisi delapan pengontrol memori 32-bit (berlawanan dengan 64-bit yang digunakan sebelumnya), yang memberi kita bus memori 256-bit terakhir. Delapan ROP dan 256 KB cache L2 terikat pada masing-masing pengontrol memori. Artinya, secara total, chip GP104 berisi 64 ROP dan cache L2 2048 KB.

Berkat optimalisasi arsitektur dan teknologi proses baru, Pascal gaming pertama telah menjadi GPU paling hemat energi yang pernah ada. Selain itu, ada kontribusi untuk hal ini baik dari salah satu proses teknologi tercanggih FinFET 16 nm, dan dari optimasi arsitektur yang dilakukan di Pascal, dibandingkan dengan Maxwell. Nvidia mampu meningkatkan kecepatan clock bahkan lebih dari yang mereka harapkan ketika pindah ke teknologi proses baru. GP104 berjalan pada frekuensi yang lebih tinggi daripada GM204 hipotetis yang dibuat menggunakan proses 16nm. Untuk melakukan ini, insinyur Nvidia harus hati-hati memeriksa dan mengoptimalkan semua kemacetan solusi sebelumnya yang mencegah overclocking di atas ambang batas tertentu. Hasilnya, GeForce GTX 1080 baru berjalan pada kecepatan clock lebih dari 40% lebih tinggi daripada GeForce GTX 980. Namun bukan hanya itu perubahan clock GPU.

Teknologi GPU Boost 3.0

Seperti yang kita ketahui dengan baik dari kartu grafis Nvidia sebelumnya, mereka menggunakan teknologi perangkat keras GPU Boost di GPU mereka, yang dirancang untuk meningkatkan kecepatan jam operasi GPU dalam mode di mana ia belum mencapai konsumsi daya dan batas termal. Selama bertahun-tahun, algoritme ini telah mengalami banyak perubahan, dan generasi ketiga dari teknologi ini telah digunakan dalam chip video arsitektur Pascal - GPU Boost 3.0, inovasi utamanya adalah pengaturan frekuensi turbo yang lebih baik, tergantung pada voltase.

Jika Anda ingat cara kerjanya versi sebelumnya teknologi, maka perbedaan antara frekuensi dasar (dijamin nilai minimum frekuensi di bawah yang GPU tidak jatuh, setidaknya dalam game) dan frekuensi turbo diperbaiki. Artinya, frekuensi turbo selalu di sejumlah tertentu megahertz di atas dasar. GPU Boost 3.0 memperkenalkan kemampuan untuk mengatur offset frekuensi turbo untuk setiap voltase secara terpisah. Cara termudah untuk memahami ini adalah dengan ilustrasi:

Di sebelah kiri adalah Peningkatan GPU dari versi kedua, di sebelah kanan - yang ketiga, yang muncul di Pascal. Perbedaan tetap antara frekuensi dasar dan turbo tidak memungkinkan untuk mengungkapkan kemampuan penuh GPU, dalam beberapa kasus, GPU generasi sebelumnya dapat bekerja lebih cepat pada mengatur tegangan, tetapi kelebihan frekuensi turbo yang tetap tidak memungkinkan hal ini dilakukan. Di GPU Boost 3.0, fitur ini muncul, dan frekuensi turbo dapat diatur untuk masing-masing nilai voltase individual, sepenuhnya memeras semua jus dari GPU.

Utilitas praktis diperlukan untuk mengelola overclocking dan mengatur kurva frekuensi turbo. Nvidia sendiri tidak melakukan ini, tetapi membantu mitranya membuat utilitas semacam itu untuk memfasilitasi overclocking (tentu saja dalam batas yang wajar). Misalnya, baru Kegunaan GPU Boost 3.0 telah terungkap dalam EVGA Precision XOC, yang mencakup pemindai overclocking khusus yang secara otomatis menemukan dan menetapkan perbedaan non-linear antara frekuensi dasar dan frekuensi turbo pada voltase yang berbeda dengan menjalankan uji kinerja dan stabilitas bawaan. Hasilnya, pengguna mendapatkan kurva frekuensi turbo yang sangat cocok dengan kemampuan chip tertentu. Yang, apalagi, dapat dimodifikasi dengan cara apa pun di mode manual.

Seperti yang Anda lihat di tangkapan layar utilitas, selain informasi tentang GPU dan sistem, ada juga pengaturan untuk overclocking: Target Daya (menentukan konsumsi daya tipikal selama overclocking, sebagai persentase dari standar), Target Temp GPU (suhu inti maksimum yang diizinkan), GPU Clock Offset (melebihi frekuensi dasar untuk semua nilai voltase), Memory Offset (melebihi frekuensi memori video di atas nilai default), Overvoltage (kesempatan tambahan untuk meningkatkan voltase).

Utilitas Precision XOC mencakup tiga mode overclocking: Basic, Linear, dan Manual. Dalam mode utama, Anda dapat mengatur satu nilai overclock (frekuensi turbo tetap) di atas nilai dasar, seperti halnya pada GPU sebelumnya. Mode linier memungkinkan Anda untuk mengatur ramp frekuensi dari nilai tegangan minimum ke maksimum untuk GPU. Nah, dalam mode manual, Anda dapat mengatur nilai frekuensi GPU unik untuk setiap titik tegangan pada grafik.

Utilitas ini juga mencakup pemindai khusus untuk overclocking otomatis. Anda dapat mengatur tingkat frekuensi Anda sendiri atau membiarkan utilitas Precision XOC memindai GPU pada semua voltase dan menemukan frekuensi paling stabil untuk setiap titik pada kurva voltase dan frekuensi sepenuhnya secara otomatis. Selama proses pemindaian, Precision XOC secara bertahap meningkatkan frekuensi GPU dan memeriksa operasinya untuk stabilitas atau artefak, membangun frekuensi ideal dan kurva tegangan yang unik untuk setiap chip tertentu.

Pemindai ini dapat disesuaikan dengan kebutuhan Anda sendiri dengan mengatur interval waktu untuk menguji setiap nilai tegangan, frekuensi minimum dan maksimum yang akan diuji, dan langkahnya. Jelas bahwa untuk mencapai hasil yang stabil, akan lebih baik untuk menetapkan langkah kecil dan durasi pengujian yang layak. Selama pengujian, pengoperasian driver video dan sistem yang tidak stabil dapat diamati, tetapi jika pemindai tidak membeku, pemindai akan memulihkan pengoperasian dan terus menemukan frekuensi optimal.

Jenis baru memori video GDDR5X dan kompresi yang ditingkatkan

Jadi, kekuatan GPU telah tumbuh secara signifikan, dan bus memori tetap hanya 256-bit - apakah bandwidth memori akan membatasi kinerja keseluruhan dan apa yang dapat dilakukan untuk mengatasinya? Tampaknya HBM generasi kedua yang menjanjikan masih terlalu mahal untuk diproduksi, sehingga pilihan lain harus dicari. Sejak diperkenalkannya memori GDDR5 pada tahun 2009, para insinyur Nvidia telah menjajaki kemungkinan menggunakan jenis memori baru. Akibatnya, perkembangan telah sampai pada pengenalan standar memori baru GDDR5X - standar paling kompleks dan canggih hingga saat ini, memberikan kecepatan transfer 10 Gbps.

Nvidia memberikan contoh menarik tentang seberapa cepat ini. Hanya berselang 100 picoseconds antara bit yang ditransmisikan - selama waktu ini, seberkas cahaya akan menempuh jarak hanya satu inci (sekitar 2,5 cm). Dan saat menggunakan memori GDDR5X, sirkuit penerima data harus memilih nilai bit yang ditransmisikan dalam waktu kurang dari setengah dari waktu ini sebelum yang berikutnya dikirim - ini hanya agar Anda memahami apa yang telah dicapai oleh teknologi modern.

Untuk mencapai kecepatan ini diperlukan pengembangan arsitektur sistem I/O baru yang memerlukan beberapa tahun pengembangan bersama dengan produsen chip memori. Selain kecepatan transfer data yang meningkat, efisiensi energi juga meningkat - chip memori GDDR5X menggunakan tegangan lebih rendah 1,35 V dan diproduksi menggunakan teknologi baru, yang memberikan konsumsi daya yang sama pada frekuensi 43% lebih tinggi.

Insinyur perusahaan harus mengerjakan ulang jalur transmisi data antara inti GPU dan chip memori, lebih memperhatikan untuk mencegah kehilangan sinyal dan degradasi sinyal sepanjang jalan dari memori ke GPU dan sebaliknya. Jadi, dalam ilustrasi di atas, sinyal yang ditangkap ditampilkan sebagai "mata" simetris besar, yang menunjukkan optimalisasi yang baik dari seluruh rangkaian dan relatif mudahnya menangkap data dari sinyal. Selain itu, perubahan yang dijelaskan di atas tidak hanya mengarah pada kemungkinan penggunaan GDDR5X pada 10 GHz, tetapi juga akan membantu mendapatkan bandwidth memori yang tinggi pada produk mendatang yang menggunakan memori GDDR5 yang lebih dikenal.

Yah, kami mendapat lebih dari 40% peningkatan bandwidth memori dari penggunaan memori baru. Tapi apakah itu tidak cukup? Untuk lebih meningkatkan efisiensi bandwidth memori, Nvidia terus meningkatkan kompresi data tingkat lanjut yang diperkenalkan pada arsitektur sebelumnya. Subsistem memori di GeForce GTX 1080 menggunakan peningkatan dan beberapa teknik kompresi data lossless baru yang dirancang untuk mengurangi kebutuhan bandwidth - sudah merupakan generasi keempat dari kompresi on-chip.

Algoritma untuk kompresi data dalam memori membawa beberapa aspek positif sekaligus. Kompresi mengurangi jumlah data yang ditulis ke memori, hal yang sama berlaku untuk data yang ditransfer dari memori video ke cache L2, yang meningkatkan efisiensi penggunaan cache L2, karena ubin terkompresi (blok beberapa piksel framebuffer) memiliki ukuran lebih kecil daripada yang tidak terkompresi. Ini juga mengurangi jumlah data yang dikirim antara titik yang berbeda, seperti modul tekstur TMU dan framebuffer.

Pipa kompresi data di GPU menggunakan beberapa algoritme, yang ditentukan tergantung pada "kompresibilitas" data - algoritme terbaik yang tersedia dipilih untuk mereka. Salah satu yang paling penting adalah algoritma kompresi warna delta. Metode kompresi ini mengkodekan data sebagai perbedaan antara nilai berurutan, bukan data itu sendiri. GPU menghitung perbedaan nilai warna antara piksel dalam satu blok (ubin) dan menyimpan blok sebagai beberapa warna rata-rata untuk seluruh blok ditambah data tentang perbedaan nilai untuk setiap piksel. Untuk data grafik, metode ini biasanya cocok, karena warna di dalam ubin kecil untuk semua piksel seringkali tidak terlalu berbeda.

GPU GP104 di GeForce GTX 1080 mendukung lebih banyak algoritma kompresi daripada chip Maxwell sebelumnya. Dengan demikian, algoritme kompresi 2:1 menjadi lebih efisien, dan selain itu, dua algoritme baru telah muncul: mode kompresi 4:1, cocok untuk kasus di mana perbedaan nilai warna piksel blok sangat kecil, dan mode 8:1, yang menggabungkan kompresi 4:1 konstan dari blok 2x2 piksel dengan kompresi delta 2x antar blok. Ketika kompresi tidak memungkinkan sama sekali, itu tidak digunakan.

Namun, pada kenyataannya, yang terakhir ini sangat jarang terjadi. Ini dapat dilihat dari contoh tangkapan layar dari game Project CARS, yang dikutip Nvidia untuk menggambarkan peningkatan rasio kompresi di Pascal. Dalam ilustrasi, ubin penyangga bingkai yang dapat dikompresi GPU diarsir dalam warna magenta, dan ubin yang tidak dapat dikompresi tanpa kehilangan tetap dengan warna aslinya (atas - Maxwell, bawah - Pascal).

Seperti yang Anda lihat, algoritma kompresi baru di GP104 benar-benar bekerja jauh lebih baik daripada di Maxwell. Meskipun arsitektur lama juga mampu mengompresi sebagian besar ubin di tempat kejadian, banyak rumput dan pohon di sekitar tepinya, serta suku cadang mobil, tidak tunduk pada algoritme kompresi lama. Tetapi dengan masuknya teknik baru dalam Pascal, sejumlah kecil area gambar tetap tidak terkompresi - peningkatan efisiensi terbukti.

Sebagai hasil dari peningkatan kompresi data, GeForce GTX 1080 mampu secara signifikan mengurangi jumlah data yang dikirim per frame. Dalam jumlah, peningkatan kompresi menghemat 20% tambahan bandwidth memori efektif. Selain lebih dari 40% peningkatan bandwidth memori GeForce GTX 1080 dibandingkan dengan GTX 980 dari penggunaan memori GDDR5X, semuanya ini memberikan peningkatan bandwidth memori efektif sekitar 70% dibandingkan model generasi sebelumnya.

Dukungan untuk Async Compute

Sebagian besar game modern menggunakan perhitungan rumit selain grafik. Misalnya, perhitungan saat menghitung perilaku tubuh fisik dapat dilakukan bukan sebelum atau sesudah perhitungan grafis, tetapi secara bersamaan dengan mereka, karena mereka tidak terkait satu sama lain dan tidak bergantung satu sama lain dalam kerangka yang sama. Contoh lain adalah pasca-pemrosesan bingkai yang sudah dirender dan pemrosesan data audio, yang juga dapat dilakukan secara paralel dengan rendering.

Contoh jelas lainnya dari penggunaan fungsionalitas adalah teknik Asynchronous Time Warp yang digunakan dalam sistem VR untuk mengubah bingkai keluaran sesuai dengan gerakan kepala pemain tepat sebelum dikeluarkan, mengganggu rendering yang berikutnya. Pemuatan kapasitas GPU yang tidak sinkron seperti itu memungkinkan peningkatan efisiensi penggunaan unit eksekusinya.

Beban kerja ini membuat dua skenario penggunaan GPU baru. Yang pertama mencakup beban yang tumpang tindih, karena banyak jenis tugas tidak sepenuhnya memanfaatkan kemampuan GPU, dan beberapa sumber daya tidak digunakan. Dalam kasus seperti itu, Anda cukup menjalankan dua tugas berbeda pada GPU yang sama, memisahkan unit eksekusinya untuk mendapatkan penggunaan yang lebih efisien - misalnya, efek PhysX yang berjalan bersamaan dengan rendering 3D bingkai.

Untuk meningkatkan kinerja skenario ini, arsitektur Pascal memperkenalkan penyeimbangan beban dinamis. Dalam arsitektur Maxwell sebelumnya, beban kerja yang tumpang tindih diimplementasikan sebagai distribusi statis sumber daya GPU antara grafis dan komputasi. Pendekatan ini efektif asalkan keseimbangan antara dua beban kerja kira-kira sesuai dengan pembagian sumber daya dan tugas berjalan sama dalam waktu. Jika perhitungan non-grafis memakan waktu lebih lama daripada yang grafis, dan keduanya menunggu penyelesaian pekerjaan umum, maka bagian dari GPU akan menganggur untuk waktu yang tersisa, yang akan menyebabkan penurunan kinerja secara keseluruhan dan meniadakan semua manfaat. Penyeimbangan beban dinamis perangkat keras, di sisi lain, memungkinkan Anda untuk menggunakan sumber daya GPU yang dibebaskan segera setelah tersedia - untuk pemahaman, kami akan memberikan ilustrasi.

Ada juga tugas yang kritis terhadap waktu, dan ini adalah skenario kedua untuk komputasi asinkron. Misalnya, eksekusi algoritma distorsi waktu asinkron dalam VR harus selesai sebelum pemindaian atau frame akan dibuang. Dalam kasus seperti itu, GPU harus mendukung interupsi tugas yang sangat cepat dan beralih ke tugas lain untuk mengambil tugas yang kurang kritis dari eksekusi pada GPU, membebaskan sumber dayanya untuk tugas-tugas penting - ini disebut preemption.

Perintah render tunggal dari mesin game dapat berisi ratusan panggilan undian, setiap panggilan undian pada gilirannya berisi ratusan segitiga yang dirender, masing-masing berisi ratusan piksel untuk dihitung dan digambar. Pendekatan GPU tradisional hanya menggunakan interupsi tugas tingkat tinggi, dan saluran grafis harus menunggu semua pekerjaan selesai sebelum beralih tugas, menghasilkan latensi yang sangat tinggi.

Untuk memperbaikinya, arsitektur Pascal pertama kali memperkenalkan kemampuan untuk menginterupsi tugas pada level piksel - Pixel Level Preemption. Unit eksekusi GPU Pascal dapat terus memantau kemajuan tugas rendering, dan ketika interupsi diminta, mereka dapat menghentikan eksekusi, menyimpan konteks untuk penyelesaian nanti dengan beralih ke tugas lain dengan cepat.

Interupsi dan sakelar tingkat utas untuk operasi komputasi bekerja mirip dengan interupsi tingkat piksel untuk komputasi grafis. Beban kerja komputasi terdiri dari beberapa grid, masing-masing berisi beberapa thread. Ketika permintaan interupsi diterima, utas yang berjalan pada multiprosesor menghentikan eksekusinya. Blok lain menyimpan statusnya sendiri untuk melanjutkan dari titik yang sama di masa mendatang, dan GPU beralih ke tugas lain. Seluruh proses pengalihan tugas membutuhkan waktu kurang dari 100 mikrodetik setelah utas yang sedang berjalan keluar.

Untuk beban kerja game, kombinasi interupsi level piksel untuk grafik, dan interupsi level utas untuk tugas komputasi memberi GPU arsitektur Pascal kemampuan untuk beralih antar tugas dengan cepat dengan kehilangan waktu minimal. Dan untuk tugas komputasi di CUDA, juga dimungkinkan untuk menginterupsi dengan perincian minimal - pada tingkat instruksi. Dalam mode ini, semua utas menghentikan eksekusi sekaligus, segera beralih ke tugas lain. Pendekatan ini membutuhkan penyimpanan lebih banyak informasi tentang keadaan semua register dari setiap utas, tetapi dalam beberapa kasus perhitungan non-grafis itu cukup dibenarkan.

Penggunaan interupsi cepat dan pengalihan tugas dalam tugas grafis dan komputasi ditambahkan ke arsitektur Pascal sehingga tugas grafis dan non-grafis dapat diinterupsi pada tingkat instruksi individu, daripada seluruh utas, seperti halnya dengan Maxwell dan Kepler . Teknologi ini dapat meningkatkan eksekusi asinkron dari beban kerja GPU yang berbeda dan meningkatkan daya tanggap saat menjalankan banyak tugas secara bersamaan. Pada acara Nvidia, mereka menunjukkan demonstrasi pekerjaan perhitungan asinkron menggunakan contoh perhitungan efek fisik. Jika tanpa perhitungan asinkron kinerjanya berada di level 77-79 FPS, maka dengan masuknya fitur-fitur ini, frame rate meningkat menjadi 93-94 FPS.

Kami telah memberikan contoh salah satu kemungkinan untuk menggunakan fungsi ini dalam game dalam bentuk distorsi waktu asinkron di VR. Ilustrasi menunjukkan pengoperasian teknologi ini dengan interupsi tradisional (preemption) dan cepat. Dalam kasus pertama, proses distorsi waktu asinkron dicoba dilakukan selambat mungkin, tetapi sebelum mulai memperbarui gambar di layar. Tetapi pekerjaan algoritme harus diberikan pada eksekusi di GPU beberapa milidetik sebelumnya, karena tanpa gangguan cepat tidak ada cara untuk mengeksekusi pekerjaan secara akurat pada waktu yang tepat, dan GPU menganggur selama beberapa waktu.

Dalam hal gangguan yang tepat pada tingkat piksel dan utas (ditunjukkan di sebelah kanan), kemampuan ini memberikan akurasi yang lebih besar dalam menentukan momen gangguan, dan pembengkokan waktu asinkron dapat dimulai lebih lama dengan keyakinan dalam penyelesaian pekerjaan sebelum pembaruan informasi pada layar dimulai. Dan menganggur untuk beberapa waktu dalam kasus pertama, GPU dapat dimuat dengan beberapa pekerjaan grafis tambahan.

Teknologi Multi-Proyeksi Simultan

GPU GP104 baru sekarang mendukung teknologi baru multi-proyeksi (Simultaneous Multi-Projection - SMP), yang memungkinkan GPU merender data pada sistem pencitraan modern dengan lebih efisien. SMP memungkinkan chip video untuk secara bersamaan menampilkan data dalam beberapa proyeksi, yang memerlukan pengenalan blok perangkat keras baru di GPU sebagai bagian dari mesin PolyMorph di ujung pipa geometris sebelum blok rasterisasi. Blok ini bertanggung jawab untuk bekerja dengan beberapa proyeksi untuk aliran geometri tunggal.

Mesin multi-proyeksi memproses data geometris secara bersamaan untuk 16 proyeksi pra-konfigurasi yang menggabungkan titik proyeksi (kamera), proyeksi ini dapat diputar atau dimiringkan secara independen. Karena setiap primitif geometri dapat muncul secara bersamaan dalam beberapa proyeksi, mesin SMP menyediakan fungsionalitas ini, memungkinkan aplikasi untuk menginstruksikan chip video untuk mereplikasi geometri hingga 32 kali (16 proyeksi di dua pusat proyeksi) tanpa pemrosesan tambahan.

Seluruh proses pemrosesan dipercepat dengan perangkat keras, dan karena multiproyeksi bekerja setelah mesin geometri, tidak perlu mengulangi semua tahapan pemrosesan geometri beberapa kali. Sumber daya yang disimpan penting ketika kecepatan rendering dibatasi oleh kinerja pemrosesan geometri, seperti tessellation, ketika pekerjaan geometris yang sama dilakukan beberapa kali untuk setiap proyeksi. Dengan demikian, dalam kasus puncak, multi-proyeksi dapat mengurangi kebutuhan pemrosesan geometri hingga 32 kali.

Tapi mengapa semua ini perlu? Ada beberapa contoh bagus di mana teknologi multi-proyeksi dapat berguna. Misalnya, sistem multi-monitor dari tiga layar dipasang pada sudut satu sama lain cukup dekat dengan pengguna (konfigurasi keliling). Dalam situasi yang khas, pemandangan ditampilkan dalam satu proyeksi, yang menyebabkan distorsi geometris dan rendering geometri yang salah. Cara yang benar adalah tiga proyeksi berbeda untuk masing-masing monitor, sesuai dengan sudut di mana mereka berada.

Dengan kartu video pada sebuah chip dengan arsitektur Pascal, ini dapat dilakukan dalam satu lintasan geometri, dengan menetapkan tiga proyeksi berbeda, masing-masing untuk monitor yang berbeda. Dan pengguna, dengan demikian, akan dapat mengubah sudut di mana monitor terletak satu sama lain tidak hanya secara fisik, tetapi juga secara virtual - dengan memutar proyeksi untuk monitor samping untuk mendapatkan perspektif yang benar dalam adegan 3D dengan sudut pandang yang lebih lebar (FOV). Benar, ada batasan di sini - untuk dukungan seperti itu, aplikasi harus dapat membuat adegan dengan FOV lebar dan menggunakan panggilan API SMP khusus untuk mengaturnya. Artinya, Anda tidak dapat melakukan ini di setiap pertandingan, Anda memerlukan dukungan khusus.

Bagaimanapun, hari-hari proyeksi tunggal pada satu monitor datar sudah berakhir, sekarang ada banyak konfigurasi multi-monitor dan tampilan melengkung yang juga dapat menggunakan teknologi ini. Belum lagi sistem virtual reality yang menggunakan lensa khusus antara layar dan mata pengguna, yang membutuhkan teknik baru untuk memproyeksikan gambar 3D menjadi gambar 2D. Banyak dari teknologi dan teknik ini masih dalam pengembangan awal, yang utama adalah bahwa GPU lama tidak dapat secara efektif menggunakan lebih dari satu proyeksi planar. Mereka membutuhkan beberapa lintasan rendering, beberapa pemrosesan geometri yang sama, dan seterusnya.

Chip Maxwell memiliki dukungan Multi-Resolusi terbatas untuk membantu meningkatkan efisiensi, tetapi SMP Pascal dapat melakukan lebih banyak lagi. Maxwell dapat memutar proyeksi sebesar 90 derajat untuk pemetaan kubus atau resolusi proyeksi yang berbeda, tetapi ini hanya berguna dalam rentang aplikasi terbatas seperti VXGI.

Kemungkinan lain untuk menggunakan SMP termasuk rendering pada resolusi yang berbeda dan rendering stereo single-pass. Misalnya, rendering pada resolusi yang berbeda (Multi-Res Shading) dapat digunakan dalam game untuk mengoptimalkan kinerja. Saat diterapkan, resolusi yang lebih tinggi digunakan di bagian tengah bingkai, dan di bagian tepinya dikurangi untuk mendapatkan kecepatan rendering yang lebih cepat.

Render stereo single-pass digunakan dalam VR, telah ditambahkan ke paket VRWorks dan menggunakan fitur multi-proyeksi untuk mengurangi jumlah pekerjaan geometris yang diperlukan dalam rendering VR. Jika fitur ini digunakan, GPU GeForce GTX 1080 memproses geometri pemandangan hanya sekali, menghasilkan dua proyeksi untuk setiap mata sekaligus, yang mengurangi beban geometrik pada GPU hingga setengahnya, dan juga mengurangi kerugian dari driver dan OS.

Teknik yang lebih canggih untuk meningkatkan efisiensi rendering VR adalah Lens Matched Shading, yang menggunakan beberapa proyeksi untuk mensimulasikan distorsi geometrik yang diperlukan dalam rendering VR. Metode ini menggunakan multi-proyeksi untuk merender adegan 3D ke permukaan yang mendekati permukaan yang disesuaikan lensa saat dirender untuk output headset VR, menghindari banyak piksel tambahan di pinggiran yang akan dibuang. Cara termudah untuk memahami esensi metode ini adalah dengan ilustrasi - empat proyeksi yang sedikit diperluas digunakan di depan setiap mata (dalam Pascal, Anda dapat menggunakan 16 proyeksi untuk setiap mata - untuk mensimulasikan lensa melengkung dengan lebih akurat) daripada satu:

Pendekatan ini dapat menghasilkan penghematan kinerja yang signifikan. Misalnya, gambar khas Oculus Rift per mata adalah 1,1 megapiksel. Namun karena perbedaan proyeksi, untuk merendernya, gambar aslinya adalah 2,1 megapiksel - 86% lebih dari yang diperlukan! Penggunaan multi-proyeksi, yang diimplementasikan dalam arsitektur Pascal, memungkinkan pengurangan resolusi gambar yang dirender menjadi 1,4 megapiksel, memperoleh penghematan 1,5 kali lipat dalam kecepatan pemrosesan piksel, dan juga menghemat bandwidth memori.

Dan bersama dengan penghematan dua kali lipat dalam kecepatan pemrosesan geometri karena rendering stereo single-pass, prosesor grafis GeForce GTX 1080 mampu memberikan peningkatan yang signifikan dalam kinerja rendering VR, yang sangat menuntut kecepatan pemrosesan geometri, dan lebih dari itu. pemrosesan piksel.

Peningkatan output video dan blok pemrosesan

Selain kinerja dan fungsionalitas baru yang terkait dengan rendering 3D, perlu untuk mempertahankan tingkat output gambar yang baik, serta decoding dan encoding video. Dan prosesor grafis arsitektur Pascal pertama tidak mengecewakan - ia mendukung semua standar modern dalam pengertian ini, termasuk decoding perangkat keras dari format HEVC, yang diperlukan untuk melihat video 4K di PC. Selain itu, pemilik kartu grafis GeForce GTX 1080 di masa mendatang akan segera dapat menikmati streaming video 4K dari Netflix dan penyedia lain di sistem mereka.

Dalam hal output tampilan, GeForce GTX 1080 memiliki dukungan untuk HDMI 2.0b dengan HDCP 2.2 serta DisplayPort. Sejauh ini, versi DP 1.2 telah disertifikasi, tetapi GPU siap untuk sertifikasi untuk versi standar yang lebih baru: DP 1.3 Ready dan DP 1.4 Ready. Yang terakhir memungkinkan layar 4K ditampilkan pada 120Hz, dan 5K dan 8K ditampilkan pada 60Hz menggunakan sepasang kabel DisplayPort 1.3. Jika untuk GTX 980 resolusi maksimum yang didukung adalah 5120x3200 pada 60Hz, maka untuk model GTX 1080 baru telah berkembang menjadi 7680x4320 pada 60Hz yang sama. Referensi GeForce GTX 1080 memiliki tiga output DisplayPort, satu HDMI 2.0b dan satu DVI Dual-Link digital.

Model baru kartu video Nvidia juga menerima blok yang ditingkatkan untuk decoding dan encoding data video. Dengan demikian, chip GP104 memenuhi standar tinggi PlayReady 3.0 (SL3000) untuk pemutaran video streaming, yang memungkinkan Anda memastikan bahwa memutar konten berkualitas tinggi dari penyedia terkenal seperti Netflix akan menjadi kualitas tertinggi dan hemat energi. . Detail tentang dukungan untuk berbagai format video selama penyandian dan penguraian diberikan dalam tabel, produk baru ini jelas lebih baik daripada solusi sebelumnya:

Namun hal baru yang lebih menarik adalah dukungan untuk apa yang disebut tampilan High Dynamic Range (HDR), yang akan menyebar luas di pasar. TV dijual pada awal 2016 (dengan empat juta TV HDR diharapkan akan terjual hanya dalam satu tahun), dan monitor tahun depan. HDR adalah terobosan terbesar dalam teknologi tampilan selama bertahun-tahun, menghadirkan nada warna dua kali lipat (75% spektrum terlihat versus 33% untuk RGB), tampilan lebih cerah (1000 nits) dengan kontras lebih tinggi (10000:1) dan kaya warna.

Munculnya kemampuan untuk memutar konten dengan perbedaan kecerahan yang lebih besar dan warna yang lebih kaya dan lebih jenuh akan membawa gambar di layar lebih dekat dengan kenyataan, warna hitam akan menjadi lebih dalam, cahaya terang akan menyilaukan, seperti di dunia nyata. . Dengan demikian, pengguna akan melihat lebih detail di area gambar yang terang dan gelap dibandingkan dengan monitor dan TV standar.

Untuk mendukung tampilan HDR, GeForce GTX 1080 memiliki semua yang Anda butuhkan - keluaran warna 12-bit, dukungan untuk standar BT.2020 dan SMPTE 2084, dan resolusi HDMI 2.0b 10/12-bit 4K HDR. Maxwell. Selain itu, Pascal telah menambahkan dukungan untuk mendekode format HEVC dalam resolusi 4K pada 60 Hz dan warna 10 atau 12-bit, yang digunakan untuk video HDR, serta mengkodekan format yang sama dengan parameter yang sama, tetapi hanya dalam 10 -bit untuk perekaman atau streaming video HDR. Selain itu, hal baru ini siap untuk standarisasi DisplayPort 1.4 untuk transmisi data HDR melalui konektor ini.

Omong-omong, encoding video HDR mungkin diperlukan di masa mendatang untuk mentransfer data tersebut dari PC rumahan ke konsol game SHIELD yang dapat memainkan HEVC 10-bit. Artinya, pengguna akan dapat menyiarkan game dari PC dalam format HDR. Tunggu, di mana saya bisa mendapatkan game dengan dukungan seperti itu? Nvidia terus bekerja dengan pengembang game untuk menerapkan dukungan ini, memberi mereka semua yang mereka butuhkan (dukungan driver, contoh kode, dll.) untuk merender gambar HDR dengan benar yang kompatibel dengan tampilan yang ada.

Pada saat rilis kartu video, GeForce GTX 1080, game seperti Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle dan Shadow Warrior 2 memiliki dukungan untuk output HDR. Tapi daftar ini adalah diharapkan dapat diisi ulang dalam waktu dekat.

Perubahan pada rendering SLI multi-chip

Ada juga beberapa perubahan yang terkait dengan teknologi rendering multi-chip SLI yang dipatenkan, meskipun tidak ada yang mengharapkan ini. SLI digunakan oleh para penggemar game PC untuk meningkatkan kinerja baik secara ekstrim dengan menjalankan kartu grafis chip tunggal yang paling kuat secara bersamaan, atau untuk mendapatkan frame rate yang sangat tinggi dengan membatasi diri pada beberapa solusi kelas menengah yang terkadang lebih murah daripada satu ujung atas (keputusan kontroversial, tetapi mereka melakukannya). Dengan monitor 4K, pemain hampir tidak memiliki pilihan lain selain memasang beberapa kartu video, karena bahkan model papan atas sering kali tidak dapat memberikan permainan yang nyaman pada pengaturan maksimum dalam kondisi seperti itu.

Salah satu komponen penting Nvidia SLI adalah jembatan yang menghubungkan kartu video ke dalam subsistem video umum dan berfungsi untuk mengatur saluran digital untuk mentransfer data di antara mereka. Kartu grafis GeForce secara tradisional menampilkan konektor SLI ganda, yang berfungsi untuk menghubungkan antara dua atau empat kartu grafis dalam konfigurasi SLI 3-Way dan 4-Way. Masing-masing kartu video harus terhubung ke masing-masing, karena semua GPU mengirim bingkai yang mereka render ke GPU utama, itulah sebabnya dua antarmuka diperlukan di setiap papan.

Dimulai dengan GeForce GTX 1080, semua kartu grafis Nvidia berdasarkan arsitektur Pascal memiliki dua antarmuka SLI yang dihubungkan bersama untuk meningkatkan kinerja transfer data antar kartu grafis, dan mode SLI saluran ganda baru ini meningkatkan kinerja dan kenyamanan saat menampilkan informasi visual di tampilan resolusi sangat tinggi atau sistem multi-monitor.

Untuk mode ini juga dibutuhkan jembatan baru yang disebut SLI HB. Mereka menggabungkan sepasang kartu video GeForce GTX 1080 melalui dua saluran SLI sekaligus, meskipun kartu video baru juga kompatibel dengan jembatan lama. Untuk resolusi 1920x1080 dan 2560x1440 piksel pada kecepatan refresh 60 Hz, jembatan standar dapat digunakan, tetapi dalam mode yang lebih menuntut (4K, 5K dan sistem multi-monitor), hanya jembatan baru yang akan memberikan hasil yang lebih baik dalam hal perubahan frame halus, meskipun yang lama akan bekerja, tapi agak lebih buruk.

Selain itu, saat menggunakan jembatan SLI HB, antarmuka data GeForce GTX 1080 berjalan pada 650 MHz, dibandingkan dengan 400 MHz untuk jembatan SLI konvensional pada GPU lama. Selain itu, untuk beberapa jembatan lama yang tangguh, kecepatan transfer data yang lebih tinggi juga tersedia dengan chip video arsitektur Pascal. Dengan peningkatan kecepatan transfer data antara GPU melalui antarmuka SLI dua kali lipat dengan frekuensi operasi yang meningkat, tampilan bingkai yang lebih halus di layar juga disediakan, dibandingkan dengan solusi sebelumnya:

Perlu juga dicatat bahwa dukungan untuk rendering multi-chip di DirectX 12 agak berbeda dari apa yang biasa dilakukan sebelumnya. PADA versi terbaru grafis API, Microsoft telah membuat banyak perubahan terkait dengan pengoperasian sistem video tersebut. Ada dua opsi multi-GPU yang tersedia untuk pengembang perangkat lunak di DX12: mode Multi Display Adapter (MDA) dan Linked Display Adapter (LDA).

Selain itu, mode LDA memiliki dua bentuk: LDA implisit (yang digunakan Nvidia untuk SLI) dan LDA eksplisit (ketika pengembang game mengambil tugas mengelola rendering multi-chip. Mode MDA dan LDA eksplisit baru saja diimplementasikan di DirectX 12 di agar pengembang game memiliki lebih banyak kebebasan dan peluang saat menggunakan sistem video multi-chip. Perbedaan antara mode terlihat jelas pada tabel berikut:

Dalam mode LDA, memori masing-masing GPU dapat dihubungkan ke memori lain dan ditampilkan sebagai volume total yang besar, tentu saja, dengan segala keterbatasan kinerja saat data diambil dari memori "asing". Dalam mode MDA, setiap memori GPU bekerja secara terpisah, dan GPU yang berbeda tidak dapat langsung mengakses data dari memori GPU lain. Mode LDA dirancang untuk sistem multi-chip dengan kinerja serupa, sedangkan mode MDA tidak terlalu membatasi dan dapat bekerja sama dengan GPU terpisah dan terintegrasi atau solusi diskrit dengan chip dari produsen berbeda. Namun mode ini juga membutuhkan lebih banyak perhatian dan kerja dari developer saat memprogram kolaborasi agar GPU bisa saling berkomunikasi.

Secara default, sistem SLI berbasis GeForce GTX 1080 hanya mendukung dua GPU, dan konfigurasi tiga dan empat GPU secara resmi tidak digunakan lagi, karena game modern menjadi semakin sulit untuk mencapai peningkatan kinerja dengan menambahkan GPU ketiga dan keempat. Sebagai contoh, banyak game mengandalkan kemampuan prosesor pusat sistem saat mengoperasikan sistem video multi-chip, dan game baru semakin banyak menggunakan teknik temporal (temporal) yang menggunakan data dari frame sebelumnya, di mana pengoperasian beberapa GPU secara efisien dilakukan sekaligus. tidak mungkin.

Namun, pengoperasian sistem di sistem multi-chip (non-SLI) lainnya tetap dimungkinkan, seperti mode MDA atau LDA Explicit di DirectX 12 atau sistem SLI dua chip dengan GPU ketiga khusus untuk efek fisik PhysX. Tapi bagaimana dengan catatan di benchmark, apakah Nvidia benar-benar meninggalkannya sama sekali? Tidak, tentu saja, tetapi karena sistem seperti itu diminati di dunia oleh hampir beberapa pengguna, Enthusiast Key khusus diciptakan untuk penggemar ultra tersebut, yang dapat diunduh dari situs web Nvidia dan membuka kunci fitur ini. Untuk melakukan ini, pertama-tama Anda harus mendapatkan ID GPU unik dengan menjalankan aplikasi khusus, kemudian meminta Enthusiast Key di situs web dan, setelah mengunduhnya, instal kunci ke dalam sistem, sehingga membuka kunci 3-Way dan 4-Way konfigurasi SLI.

Teknologi Sinkronisasi Cepat

Beberapa perubahan telah terjadi dalam teknologi sinkronisasi saat menampilkan informasi di layar. Ke depan, tidak ada yang baru di G-Sync, juga teknologi Adaptive Sync tidak didukung. Tetapi Nvidia memutuskan untuk meningkatkan kelancaran output dan sinkronisasi untuk game yang ditampilkan sangat kinerja tinggi saat kecepatan bingkai secara nyata melebihi kecepatan refresh monitor. Ini sangat penting untuk game yang membutuhkan latensi minimal dan respons cepat, dan yang merupakan pertarungan dan kompetisi multipemain.

Sinkronisasi Cepat adalah alternatif baru untuk sinkronisasi vertikal yang tidak memiliki artefak visual dalam bentuk robekan gambar pada gambar dan tidak terikat pada kecepatan refresh tetap, yang meningkatkan penundaan. Apa masalah dengan sinkronisasi vertikal di game seperti Counter-Strike: Global Offensive? Game ini pada GPU modern yang kuat berjalan pada beberapa ratus frame per detik, dan pemain memiliki pilihan apakah akan mengaktifkan v-sync atau tidak.

Dalam game multipemain, pengguna paling sering mengejar penundaan minimal dan mematikan VSync, mendapatkan robekan gambar yang terlihat jelas, yang sangat tidak menyenangkan bahkan pada kecepatan bingkai tinggi. Namun, jika Anda mengaktifkan v-sync, maka pemain akan mengalami peningkatan penundaan yang signifikan antara tindakannya dan gambar di layar, ketika saluran grafik melambat ke kecepatan refresh monitor.

Beginilah cara kerja pipa tradisional. Namun Nvidia memutuskan untuk memisahkan proses rendering dan menampilkan gambar di layar menggunakan teknologi Fast Sync. Ini memungkinkan Anda untuk melanjutkan sebanyak mungkin kerja yang efisien untuk bagian GPU yang merender frame dengan kecepatan penuh, menyimpan frame ini di Last Rendered Buffer khusus sementara.

Metode ini memungkinkan Anda untuk mengubah metode tampilan dan mengambil yang terbaik dari mode VSync On dan VSync Off, mendapatkan latensi rendah, tetapi tanpa artefak gambar. Dengan Sinkronisasi Cepat, tidak ada kontrol aliran bingkai, mesin permainan berjalan dalam mode sinkronisasi-off dan tidak disuruh menunggu untuk menggambar yang berikutnya, sehingga latensi hampir serendah mode VSync Off. Tetapi karena Sinkronisasi Cepat secara independen memilih buffer untuk ditampilkan di layar dan menampilkan seluruh bingkai, tidak ada jeda gambar juga.

Sinkronisasi Cepat menggunakan tiga buffer berbeda, dua buffer pertama bekerja mirip dengan buffering ganda dalam pipeline klasik. Buffer utama (Front Buffer - FB) adalah buffer, informasi yang ditampilkan di layar, bingkai yang dirender sepenuhnya. Back buffer (Back Buffer - BB) adalah buffer yang menerima informasi saat melakukan rendering.

Saat menggunakan sinkronisasi vertikal dalam kondisi kecepatan bingkai tinggi, game menunggu hingga interval penyegaran tercapai untuk menukar buffer utama dengan buffer sekunder untuk menampilkan gambar satu frame di layar. Ini memperlambat proses, dan menambahkan buffer tambahan, seperti pada tradisional buffering rangkap tiga hanya akan menambah penundaan.

Dengan Sinkronisasi Cepat, Last Rendered Buffer (LRB) ketiga ditambahkan, yang digunakan untuk menyimpan semua frame yang baru saja dirender di buffer sekunder. Nama buffer berbicara untuk dirinya sendiri, itu berisi salinan dari frame terakhir yang dirender sepenuhnya. Dan ketika saatnya tiba untuk memperbarui buffer utama, buffer LRB ini disalin ke primer secara keseluruhan, dan bukan sebagian, seperti dari sekunder dengan sinkronisasi vertikal yang dinonaktifkan. Karena menyalin informasi dari buffer tidak efisien, mereka hanya ditukar (atau diganti namanya, karena akan lebih mudah untuk dipahami), dan logika baru swapping buffer, diperkenalkan di GP104, mengelola proses ini.

Dalam praktiknya, penyertaan metode sinkronisasi baru Fast Sync masih memberikan penundaan yang sedikit lebih besar dibandingkan dengan sinkronisasi vertikal yang sepenuhnya dinonaktifkan - rata-rata 8 ms lebih banyak, tetapi ini menampilkan bingkai pada monitor secara keseluruhan, tanpa artefak yang tidak menyenangkan pada layar yang sobek. foto. Metode baru ini dapat diaktifkan dari pengaturan grafis panel kontrol Nvidia di bagian kontrol sinkronisasi vertikal. Namun, nilai default tetap kontrol aplikasi, dan Anda tidak perlu mengaktifkan Sinkronisasi Cepat di semua aplikasi 3D, lebih baik memilih metode ini khusus untuk game dengan FPS tinggi.

Teknologi realitas virtual Nvidia VRWorks

Kami telah menyentuh topik hangat VR lebih dari sekali dalam artikel ini, tetapi sebagian besar tentang meningkatkan framerate dan memastikan latensi rendah, yang sangat penting untuk VR. Semua ini sangat penting dan memang ada kemajuan, tetapi sejauh ini game VR tidak terlihat mengesankan seperti game 3D modern "biasa" terbaik. Hal ini terjadi bukan hanya karena pengembang game terkemuka belum secara khusus terlibat dalam aplikasi VR, tetapi juga karena VR lebih menuntut frame rate, yang mencegah penggunaan banyak teknik biasa dalam game tersebut karena tuntutan yang tinggi.

Untuk mengurangi perbedaan kualitas antara game VR dan game biasa, Nvidia memutuskan untuk merilis seluruh paket teknologi VRWorks terkait, yang mencakup sejumlah besar API, perpustakaan, mesin, dan teknologi yang dapat meningkatkan kualitas dan kinerja secara signifikan. VR- aplikasi. Bagaimana hubungannya dengan pengumuman solusi game pertama di Pascal? Ini sangat sederhana - beberapa teknologi telah diperkenalkan ke dalamnya yang membantu meningkatkan produktivitas dan meningkatkan kualitas, dan kami telah menulis tentang mereka.

Dan meskipun tidak hanya menyangkut grafik, pertama-tama kita akan membicarakannya sedikit. Rangkaian teknologi VRWorks Graphics mencakup teknologi yang disebutkan sebelumnya, seperti Lens Matched Shading, yang menggunakan fitur multi-proyeksi yang muncul di GeForce GTX 1080. Produk baru ini memungkinkan Anda untuk mendapatkan peningkatan kinerja 1,5-2 kali lipat. untuk solusi yang tidak memiliki dukungan tersebut. Kami juga menyebutkan teknologi lain, seperti MultiRes Shading, yang dirancang untuk merender pada resolusi berbeda di tengah bingkai dan di pinggirannya.

Namun yang jauh lebih tak terduga adalah pengumuman teknologi VRWorks Audio, yang dirancang untuk penghitungan data suara berkualitas tinggi dalam adegan 3D, yang sangat penting dalam sistem realitas virtual. Di mesin konvensional, posisi sumber suara di lingkungan virtual dihitung dengan cukup benar, jika musuh menembak dari kanan, maka suara lebih keras dari sisi sistem audio ini, dan perhitungan seperti itu tidak terlalu menuntut daya komputasi. .

Namun pada kenyataannya, suara tidak hanya mengarah ke pemain, tetapi ke segala arah dan memantul dari berbagai material, mirip dengan bagaimana sinar cahaya memantul. Dan pada kenyataannya, kita mendengar pantulan ini, meskipun tidak sejelas gelombang suara langsung. Refleksi suara tidak langsung ini biasanya disimulasikan oleh efek reverb khusus, tetapi ini adalah pendekatan yang sangat primitif untuk tugas tersebut.

VRWorks Audio menggunakan rendering gelombang suara yang mirip dengan ray tracing dalam rendering, di mana jalur sinar cahaya dilacak ke beberapa refleksi dari objek dalam adegan virtual. VRWorks Audio juga mensimulasikan propagasi gelombang suara di lingkungan ketika gelombang langsung dan gelombang pantul dilacak, tergantung pada sudut datang dan sifat bahan reflektif. Dalam pekerjaannya, VRWorks Audio menggunakan mesin ray tracing Nvidia OptiX berperforma tinggi yang dikenal untuk tugas grafis. OptiX dapat digunakan untuk berbagai tugas, seperti perhitungan pencahayaan tidak langsung dan pemetaan cahaya, dan sekarang juga untuk penelusuran gelombang suara di VRWorks Audio.

Nvidia telah membangun perhitungan gelombang suara yang akurat ke dalam demo VR Funhouse-nya, yang menggunakan beberapa ribu sinar dan menghitung hingga 12 pantulan dari objek. Dan untuk mempelajari keunggulan teknologi menggunakan contoh yang jelas, kami sarankan Anda menonton video tentang pengoperasian teknologi dalam bahasa Rusia:

Penting bahwa pendekatan Nvidia berbeda dari mesin suara tradisional, termasuk metode akselerasi perangkat keras dari pesaing utama menggunakan blok khusus di GPU. Semua metode ini hanya memberikan pemosisian sumber suara yang akurat, tetapi tidak menghitung pantulan gelombang suara dari objek dalam adegan 3D, meskipun metode ini dapat mensimulasikannya menggunakan efek gema. Namun, penggunaan teknologi ray tracing bisa jauh lebih realistis, karena hanya pendekatan seperti itu yang akan memberikan tiruan akurat dari berbagai suara, dengan mempertimbangkan ukuran, bentuk, dan bahan objek dalam pemandangan. Sulit untuk mengatakan apakah akurasi komputasi seperti itu diperlukan untuk pemain biasa, tetapi kami dapat mengatakan dengan pasti: dalam VR, ini dapat menambah realisme yang masih kurang dalam game konvensional kepada pengguna.

Nah, tetap bagi kami untuk hanya memberi tahu tentang teknologi VR SLI, yang berfungsi di OpenGL dan DirectX. Prinsipnya sangat sederhana: sistem video dua GPU dalam aplikasi VR akan bekerja sedemikian rupa sehingga setiap mata dialokasikan GPU terpisah, berbeda dengan rendering AFR yang akrab dengan konfigurasi SLI. Ini sangat meningkatkan kinerja keseluruhan, yang sangat penting untuk sistem realitas virtual. Secara teoritis, lebih banyak GPU dapat digunakan, tetapi jumlahnya harus genap.

Pendekatan ini diperlukan karena AFR tidak cocok untuk VR, karena dengan bantuannya GPU pertama akan menggambar bingkai genap untuk kedua mata, dan yang kedua akan membuat yang ganjil, yang tidak mengurangi penundaan yang penting untuk virtual. sistem realitas. Meskipun frame rate akan cukup tinggi. Jadi dengan bantuan VR SLI, pengerjaan setiap frame dibagi menjadi dua GPU - satu bekerja pada bagian frame untuk mata kiri, yang kedua untuk kanan, dan kemudian bagian frame ini digabungkan menjadi satu kesatuan.

Memisahkan pekerjaan seperti ini di antara sepasang GPU menghasilkan peningkatan kinerja 2x, menghasilkan frekuensi gambar yang lebih tinggi dan latensi yang lebih rendah dibandingkan dengan sistem yang didasarkan pada kartu grafis tunggal. Benar, penggunaan VR SLI memerlukan dukungan khusus dari aplikasi untuk menggunakan metode penskalaan ini. Tapi teknologi VR SLI sudah dibangun ke dalam aplikasi demo VR seperti Valve's The Lab dan ILMxLAB's Trials on Tatooine, dan itu baru permulaan - Nvidia menjanjikan aplikasi lain akan segera hadir, serta membawa teknologi ke Unreal Engine 4, Unity, dan Max Bermain.

Platform Tangkapan Layar Game Ansel

Salah satu pengumuman paling menarik yang terkait dengan perangkat lunak ini adalah rilis teknologi untuk menangkap tangkapan layar berkualitas tinggi dalam aplikasi game, yang dinamai menurut salah satu fotografer terkenal - Ansel. Game telah lama tidak hanya menjadi permainan, tetapi juga tempat untuk menggunakan tangan yang menyenangkan untuk berbagai kepribadian kreatif. Seseorang mengubah skrip untuk game, seseorang merilis set tekstur berkualitas tinggi untuk game, dan seseorang membuat tangkapan layar yang indah.

Nvidia memutuskan untuk membantu yang terakhir dengan menghadirkan platform baru untuk membuat (yaitu, membuat, karena ini bukan proses yang mudah) bidikan berkualitas tinggi dari game. Mereka percaya bahwa Ansel dapat membantu menciptakan jenis seni kontemporer baru. Lagi pula, sudah ada beberapa artis yang menghabiskan sebagian besar hidup mereka di PC, membuat tangkapan layar yang indah dari game, dan mereka masih tidak memiliki alat yang nyaman untuk ini.

Ansel memungkinkan Anda untuk tidak hanya menangkap gambar dalam game, tetapi juga mengubahnya sesuai kebutuhan pembuatnya. Dengan menggunakan teknologi ini, Anda dapat menggerakkan kamera di sekitar pemandangan, memutar dan memiringkannya ke segala arah untuk mendapatkan komposisi bingkai yang diinginkan. Misalnya, dalam permainan seperti penembak orang pertama, Anda hanya dapat memindahkan pemain, Anda tidak dapat benar-benar mengubah apa pun, sehingga semua tangkapan layar cukup monoton. Dengan kamera gratis di Ansel, Anda dapat melakukan lebih dari itu kamera permainan, memilih sudut yang diperlukan untuk gambar yang bagus, atau bahkan menangkap gambar stereo 360 derajat penuh dari titik yang diperlukan, dan dalam resolusi tinggi untuk dilihat nanti dalam helm VR.

Ansel bekerja cukup sederhana - dengan bantuan perpustakaan khusus dari Nvidia, platform ini disematkan dalam kode permainan. Untuk melakukan ini, pengembangnya hanya perlu menambahkan sepotong kecil kode ke proyeknya untuk memungkinkan driver video Nvidia mencegat data buffer dan shader. Ada sedikit pekerjaan yang harus dilakukan, membawa Ansel ke dalam permainan membutuhkan waktu kurang dari satu hari untuk diterapkan. Jadi, penyertaan fitur ini di The Witness membutuhkan sekitar 40 baris kode, dan di The Witcher 3 - sekitar 150 baris kode.

Ansel akan datang dengan paket pengembangan terbuka - SDK. Hal utama adalah bahwa pengguna menerima bersamanya serangkaian pengaturan standar yang memungkinkannya untuk mengubah posisi dan sudut kamera, menambahkan efek, dll. Platform Ansel berfungsi seperti ini: menjeda permainan, menyalakan kamera gratis dan memungkinkan Anda mengubah bingkai ke tampilan yang diinginkan dengan merekam hasilnya dalam bentuk tangkapan layar biasa, gambar 360 derajat, pasangan stereo, atau sekadar panorama resolusi tinggi.

Satu-satunya peringatan adalah bahwa tidak semua game akan menerima dukungan untuk semua fitur platform tangkapan layar game Ansel. Beberapa pengembang game, karena satu dan lain alasan, tidak ingin memasukkan kamera yang sepenuhnya gratis ke dalam game mereka - misalnya, karena kemungkinan penipu menggunakan fungsi ini. Atau mereka ingin membatasi perubahan sudut pandang untuk alasan yang sama - sehingga tidak ada yang mendapat keuntungan yang tidak adil. Nah, atau agar pengguna tidak melihat sprite yang menyedihkan di latar belakang. Semua ini adalah keinginan yang cukup normal dari pembuat game.

Salah satu fitur paling menarik dari Ansel adalah pembuatan tangkapan layar dengan resolusi yang sangat besar. Tidak masalah jika game mendukung resolusi hingga 4K, misalnya, dan monitor pengguna adalah Full HD. Dengan menggunakan platform tangkapan layar, Anda dapat menangkap gambar dengan kualitas yang jauh lebih tinggi, yang dibatasi oleh ukuran dan kinerja drive. Platform ini menangkap tangkapan layar hingga 4,5 gigapiksel dengan mudah, disatukan dari 3600 buah!

Jelas bahwa dalam gambar seperti itu Anda dapat melihat semua detail, hingga teks di koran yang tergeletak di kejauhan, jika tingkat detail seperti itu pada prinsipnya disediakan dalam permainan - Ansel juga dapat mengontrol tingkat detail, mengatur level maksimum untuk mendapatkan kualitas gambar terbaik. Tetapi Anda masih dapat mengaktifkan supersampling. Semua ini memungkinkan Anda untuk membuat gambar dari game yang dapat Anda cetak dengan aman di spanduk besar dan tenang tentang kualitasnya.

Menariknya, kode akselerasi perangkat keras khusus berdasarkan CUDA digunakan untuk menjahit gambar besar. Lagi pula, tidak ada kartu video yang dapat membuat gambar multi-gigapiksel secara keseluruhan, tetapi kartu ini dapat melakukannya dalam potongan-potongan, yang hanya perlu Anda gabungkan nanti, dengan mempertimbangkan kemungkinan perbedaan dalam pencahayaan, warna, dan sebagainya.

Setelah menggabungkan panorama seperti itu, pemrosesan pasca khusus digunakan untuk seluruh bingkai, juga dipercepat pada GPU. Dan untuk menangkap gambar dalam rentang dinamis yang lebih tinggi, Anda dapat menggunakan format gambar khusus - EXR, standar terbuka dari Industrial Light and Magic, nilai warna di setiap saluran yang direkam dalam format floating point 16-bit (FP16).

Format ini memungkinkan Anda untuk mengubah kecerahan dan rentang dinamis gambar dengan pasca-pemrosesan, membawanya ke yang benar untuk setiap tampilan tertentu dengan cara yang sama seperti yang dilakukan dengan format RAW dari kamera. Dan untuk penggunaan selanjutnya dari filter pasca-pemrosesan dalam program pemrosesan gambar, format ini sangat berguna, karena berisi lebih banyak data daripada format gambar biasa.

Tetapi platform Ansel sendiri mengandung banyak filter pasca-pemrosesan, yang sangat penting karena memiliki akses tidak hanya ke gambar akhir, tetapi juga ke semua buffer yang digunakan oleh game saat rendering, yang dapat digunakan untuk efek yang sangat menarik. , seperti kedalaman bidang. Untuk melakukan ini, Ansel memiliki API pasca-pemrosesan khusus, dan efek apa pun dapat dimasukkan ke dalam game dengan dukungan untuk platform ini.

Post-filter Ansel meliputi: kurva warna, ruang warna, transformasi, desaturasi, kecerahan/kontras, butiran film, mekar, suar lensa, silau anamorfik, distorsi, heathaze, fisheye, aberasi warna, pemetaan nada, kotoran lensa, lightshafts , sketsa, koreksi gamma, konvolusi, penajaman, deteksi tepi, blur, sepia, denoise, FXAA, dan lainnya.

Sedangkan untuk tampilan dukungan Ansel di dalam game, maka kita harus menunggu sebentar hingga developer mengimplementasikan dan mengujinya. Tetapi Nvidia berjanji bahwa dukungan tersebut akan segera muncul di game-game terkenal seperti The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky, Unreal Tournament, dan lainnya.

Teknologi proses FinFET 16nm baru dan optimalisasi arsitektur telah memungkinkan GeForce GTX 1080 berdasarkan GPU GP104 untuk mencapai kecepatan clock tinggi 1,6-1,7 GHz bahkan dalam bentuk referensi, dan generasi baru menjamin operasi pada frekuensi tertinggi dalam game. Teknologi Peningkatan GPU. Bersama dengan peningkatan jumlah unit eksekusi, peningkatan ini menjadikannya tidak hanya kartu grafis chip tunggal berperforma tertinggi sepanjang masa, tetapi juga solusi paling hemat energi di pasar.

GeForce GTX 1080 adalah kartu grafis pertama yang menampilkan memori grafis GDDR5X baru, generasi baru chip berkecepatan tinggi yang mencapai kecepatan data sangat tinggi. Dalam kasus GeForce GTX 1080 yang dimodifikasi, jenis memori ini beroperasi pada frekuensi efektif 10 GHz. Dikombinasikan dengan algoritme kompresi framebuffer yang ditingkatkan, hal ini menghasilkan peningkatan bandwidth memori efektif sebesar 1,7x untuk GPU ini dibandingkan dengan pendahulunya langsung, GeForce GTX 980.

Nvidia dengan hati-hati memutuskan untuk tidak merilis arsitektur baru yang radikal pada teknologi proses yang sama sekali baru untuk dirinya sendiri, agar tidak menghadapi masalah yang tidak perlu selama pengembangan dan produksi. Sebaliknya, mereka secara serius meningkatkan arsitektur Maxwell yang sudah baik dan sangat efisien dengan menambahkan beberapa fitur. Akibatnya, semuanya baik-baik saja dengan produksi GPU baru, dan dalam kasus model GeForce GTX 1080, para insinyur telah mencapai potensi frekuensi yang sangat tinggi - dalam versi overclock dari mitra, frekuensi GPU diharapkan hingga 2 GHz! Frekuensi yang mengesankan seperti itu menjadi kenyataan berkat proses teknis yang sempurna dan kerja keras para insinyur Nvidia dalam pengembangan GPU Pascal.

Meskipun Pascal adalah pengikut langsung Maxwell, dan arsitektur grafis ini pada dasarnya tidak terlalu berbeda satu sama lain, Nvidia telah memperkenalkan banyak perubahan dan peningkatan, termasuk kemampuan tampilan, mesin pengodean dan penguraian kode video, peningkatan eksekusi asinkron dari berbagai jenis perhitungan pada GPU, membuat perubahan pada rendering multi-chip dan memperkenalkan metode sinkronisasi baru, Fast Sync.

Mustahil untuk tidak menyoroti teknologi Multi-Proyeksi Simultan, yang membantu meningkatkan kinerja dalam sistem realitas virtual, mendapatkan tampilan pemandangan yang lebih tepat pada sistem multi-monitor, dan memperkenalkan teknik pengoptimalan kinerja baru. Tetapi aplikasi VR akan melihat peningkatan kecepatan terbesar ketika mereka mendukung teknologi multi-proyeksi, yang membantu menghemat sumber daya GPU hingga setengahnya saat memproses data geometris dan satu setengah kali dalam perhitungan per piksel.

Di antara perubahan perangkat lunak murni, platform untuk membuat tangkapan layar dalam game yang disebut Ansel menonjol - akan menarik untuk mencobanya dalam praktik tidak hanya untuk mereka yang banyak bermain, tetapi juga bagi mereka yang hanya tertarik dengan grafik 3D berkualitas tinggi . Kebaruan memungkinkan Anda untuk memajukan seni membuat dan memperbaiki tangkapan layar ke tingkat yang baru. Nah, paket untuk pengembang game seperti GameWorks dan VRWorks, Nvidia terus meningkat selangkah demi selangkah - jadi, yang terakhir, kemungkinan menarik untuk perhitungan suara berkualitas tinggi telah muncul, dengan mempertimbangkan banyak pantulan gelombang suara menggunakan sinar perangkat keras pelacakan.

Secara umum, dalam bentuk kartu video Nvidia GeForce GTX 1080, pemimpin sejati memasuki pasar, memiliki semua kualitas yang diperlukan untuk ini: kinerja tinggi dan fungsionalitas luas, serta dukungan untuk fitur dan algoritma baru. Pembeli pertama kartu video ini akan dapat menghargai banyak manfaat yang disebutkan segera, dan kemungkinan solusi lain akan terungkap sedikit kemudian, ketika ada dukungan luas dari luar. perangkat lunak. Hal utama adalah bahwa GeForce GTX 1080 ternyata sangat cepat dan efisien, dan, seperti yang sangat kami harapkan, teknisi Nvidia berhasil memperbaiki beberapa area masalah (perhitungan asinkron yang sama).

Akselerator grafis GeForce GTX 1070

ParameterArti
Nama kode chipGP104
Teknologi produksiFinFET 16nm
Jumlah transistor7,2 miliar
Area inti314 mm²
ArsitekturTerpadu, dengan serangkaian prosesor umum untuk pemrosesan aliran berbagai jenis data: simpul, piksel, dll.
Dukungan perangkat keras DirectXDirectX 12, dengan dukungan untuk Feature Level 12_1
Bus memori256-bit: delapan pengontrol memori 32-bit independen yang mendukung memori GDDR5 dan GDDR5X
frekuensi GPU1506 (1683) MHz
Blok komputasi15 multiprosesor streaming aktif (dari 20 dalam chip), termasuk 1920 (dari 2560) skalar ALU untuk perhitungan floating point dalam kerangka standar IEEE 754-2008;
Blok tekstur120 unit pengalamatan dan pemfilteran tekstur aktif (dari 160 dalam chip) dengan dukungan untuk komponen FP16 dan FP32 dalam tekstur dan dukungan untuk pemfilteran trilinear dan anisotropik untuk semua format tekstur
Unit Operasi Raster (ROP)8 ROP lebar (64 piksel) dengan dukungan untuk berbagai mode anti-aliasing, termasuk yang dapat diprogram dan dengan format buffer bingkai FP16 atau FP32. Blok terdiri dari array ALU yang dapat dikonfigurasi dan bertanggung jawab untuk pembuatan dan perbandingan kedalaman, multisampling, dan pencampuran
Memantau dukunganDukungan terintegrasi hingga empat monitor yang terhubung melalui Dual Link DVI, HDMI 2.0b, dan DisplayPort 1.2 (Siap 1.3/1.4)

Spesifikasi Grafis Referensi GeForce GTX 1070
ParameterArti
Frekuensi inti1506 (1683) MHz
Jumlah prosesor universal1920
Jumlah blok tekstur120
Jumlah blok pencampuran64
Frekuensi memori efektif8000 (4×2000) MHz
Jenis memoriGDDR5
Bus memori256-bit
Ukuran memori8 GB
Bandwidth Memori256 GB/dtk
Performa komputasi (FP32)sekitar 6,5 teraflop
Rasio pengisian maksimum teoretis96 gigapiksel/dtk
Tingkat pengambilan sampel tekstur teoretis181 gigatexel/s
BanPCI Express 3.0
konektorSatu DVI Tautan Ganda, satu HDMI, dan tiga DisplayPort
Konsumsi energihingga 150 W
Makanan tambahanSatu konektor 8-pin
Jumlah slot yang ditempati di sasis sistem2
Harga yang direkomendasikan$379-449 (AS), 34.990 (Rusia)

Kartu video GeForce GTX 1070 juga menerima nama logis yang mirip dengan solusi yang sama dari seri GeForce sebelumnya. Ini berbeda dari pendahulunya langsung GeForce GTX 970 hanya dalam sosok generasi yang berubah. Kebaruan menjadi selangkah di bawah solusi teratas saat ini GeForce GTX 1080 di lini perusahaan saat ini, yang menjadi unggulan sementara dari seri baru hingga rilis solusi GPU yang lebih kuat.

Harga yang direkomendasikan untuk kartu video teratas baru Nvidia adalah $379 dan $449 untuk Nvidia Partners dan Founders Edition reguler. Dibandingkan dengan model top, ini sangat harga yang pantas mengingat GTX 1070 tertinggal sekitar 25% dalam kasus terburuk. Dan pada saat pengumuman dan perilisannya, GTX 1070 menjadi solusi performa terbaik di kelasnya. Seperti GeForce GTX 1080, GTX 1070 tidak memiliki pesaing langsung dari AMD, dan hanya dapat dibandingkan dengan Radeon R9 390X dan Fury.

GPU GP104 dalam modifikasi GeForce GTX 1070 memutuskan untuk meninggalkan bus memori 256-bit penuh, meskipun mereka tidak menggunakan memori GDDR5X jenis baru, tetapi GDDR5 yang sangat cepat, yang beroperasi pada frekuensi efektif tinggi 8 GHz. Jumlah memori yang dipasang pada kartu video dengan bus semacam itu dapat mencapai 4 atau 8 GB, dan untuk memastikan kinerja maksimum dari solusi baru dalam kondisi pengaturan tinggi dan resolusi rendering, model kartu video GeForce GTX 1070 juga dilengkapi. dengan memori video 8 GB, seperti kakak perempuannya. Volume ini cukup untuk menjalankan aplikasi 3D apa pun dengan pengaturan kualitas maksimum selama beberapa tahun.

Edisi Pendiri GeForce GTX 1070

Dengan diumumkannya GeForce GTX 1080 pada awal Mei, edisi khusus kartu video yang disebut Founders Edition diumumkan, yang memiliki harga lebih tinggi daripada kartu video biasa dari mitra perusahaan. Hal yang sama berlaku untuk kebaruan. Pada artikel ini, kita akan kembali berbicara tentang edisi khusus kartu video GeForce GTX 1070 yang disebut Founders Edition. Seperti halnya model lama, Nvidia memutuskan untuk merilis versi kartu video referensi pabrikan ini dengan harga lebih tinggi. Mereka mengklaim bahwa banyak gamer dan penggemar yang membeli kartu grafis kelas atas yang mahal menginginkan produk dengan tampilan dan nuansa "premium" yang sesuai.

Oleh karena itu, untuk pengguna seperti itulah kartu video GeForce GTX 1070 Founders Edition akan dirilis ke pasar, yang dirancang dan diproduksi oleh para insinyur Nvidia dari bahan dan komponen premium, seperti penutup aluminium GeForce GTX 1070 Founders Edition, serta sebagai pelat belakang profil rendah yang menutupi bagian belakang PCB dan cukup populer di kalangan penggemar.

Seperti yang Anda lihat dari foto-foto papan, GeForce GTX 1070 Founders Edition mewarisi desain industri yang persis sama dari versi referensi GeForce GTX 1080 Founders Edition. Kedua model menggunakan kipas radial yang mengeluarkan udara panas, yang sangat berguna dalam kasus kecil dan konfigurasi SLI multi-chip dengan ruang fisik terbatas. Dengan menghembuskan udara panas keluar alih-alih mengedarkannya di dalam casing, Anda dapat mengurangi tekanan termal, meningkatkan hasil overclocking, dan memperpanjang umur komponen sistem.

Di bawah penutup sistem pendingin referensi GeForce GTX 1070, ada radiator aluminium berbentuk khusus dengan tiga pipa panas tembaga built-in yang menghilangkan panas dari GPU itu sendiri. Panas yang dikeluarkan oleh pipa panas kemudian dibuang oleh heatsink aluminium. Nah, pelat logam profil rendah di bagian belakang papan juga dirancang untuk memberikan kinerja termal yang lebih baik. Ini juga memiliki bagian yang dapat ditarik untuk aliran udara yang lebih baik antara beberapa kartu grafis dalam konfigurasi SLI.

Untuk sistem daya board, GeForce GTX 1070 Founders Edition memiliki sistem daya empat fase yang dioptimalkan untuk catu daya yang stabil. Nvidia mengklaim bahwa penggunaan komponen khusus dalam GTX 1070 Founders Edition meningkatkan efisiensi daya, stabilitas, dan keandalan dibandingkan GeForce GTX 970, memberikan kinerja overclocking yang lebih baik. Dalam pengujian perusahaan sendiri, GPU GeForce GTX 1070 dengan mudah melampaui 1,9 GHz, yang mendekati hasil model GTX 1080 yang lebih lama.

Kartu grafis Nvidia GeForce GTX 1070 akan tersedia di toko ritel mulai 10 Juni. Harga yang direkomendasikan untuk GeForce GTX 1070 Founders Edition dan solusi mitra berbeda, dan ini adalah pertanyaan utama untuk edisi khusus ini. Jika mitra Nvidia menjual kartu grafis GeForce GTX 1070 mereka mulai dari $379 (di pasar AS), maka desain referensi Nvidia Founders Edition hanya akan berharga $449. Apakah ada banyak peminat yang siap membayar lebih untuk, mari kita hadapi, keuntungan yang meragukan dari versi referensi? Waktu akan memberi tahu, tetapi kami percaya bahwa biaya referensi lebih menarik sebagai opsi yang tersedia untuk pembelian di awal penjualan, dan kemudian titik pembeliannya (dan bahkan dengan harga tinggi!) sudah dikurangi menjadi nol.

Masih harus ditambahkan bahwa papan sirkuit tercetak dari referensi GeForce GTX 1070 mirip dengan kartu video yang lebih lama, dan keduanya berbeda dari perangkat papan perusahaan sebelumnya. Nilai konsumsi daya khas untuk produk baru ini adalah 150 W, yang hampir 20% lebih rendah dari nilai untuk GTX 1080 dan mendekati konsumsi daya kartu video GeForce GTX 970 generasi sebelumnya. Papan referensi Nvidia memiliki rangkaian yang sudah dikenal konektor untuk menghubungkan perangkat output gambar: satu DVI Dual-Link, satu HDMI, dan tiga DisplayPort. Selain itu, ada dukungan untuk yang baru versi HDMI dan DisplayPort, yang kami tulis di atas dalam ulasan model GTX 1080.

Perubahan arsitektur

GeForce GTX 1070 didasarkan pada chip GP104, yang pertama dari generasi baru arsitektur grafis Pascal Nvidia. Arsitektur ini didasarkan pada solusi yang dikembangkan kembali di Maxwell, tetapi juga memiliki beberapa perbedaan fungsional, yang kami tulis secara rinci di atas - di bagian yang dikhususkan untuk kartu video GeForce GTX 1080 teratas.

Perubahan utama dari arsitektur baru adalah proses teknologi dimana semua GPU baru akan dieksekusi. Penggunaan proses manufaktur FinFET 16 nm dalam produksi GP104 memungkinkan untuk meningkatkan kompleksitas chip secara signifikan sambil mempertahankan area dan biaya yang relatif rendah, dan chip pertama dari arsitektur Pascal memiliki jumlah eksekusi yang jauh lebih besar. unit, termasuk yang menyediakan fungsionalitas baru, dibandingkan dengan chip Maxwell dengan posisi serupa.

Chip video GP104 serupa dalam desainnya dengan solusi arsitektur Maxwell yang serupa, dan Anda dapat menemukan informasi mendetail tentang desain GPU modern dalam ulasan kami tentang solusi Nvidia sebelumnya. Seperti GPU sebelumnya, chip arsitektur baru akan memiliki konfigurasi yang berbeda dari Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM) dan pengontrol memori, dan beberapa perubahan telah terjadi di GeForce GTX 1070 - bagian dari chip terkunci dan tidak aktif ( disorot dalam warna abu-abu):

Meskipun GPU GP104 mencakup empat cluster GPC dan 20 multiprosesor SM, dalam versi untuk GeForce GTX 1070, ia menerima modifikasi sederhana dengan satu cluster GPC dinonaktifkan oleh perangkat keras. Karena setiap klaster GPC memiliki mesin rasterisasi khusus dan mencakup lima SM, dan setiap multiprosesor terdiri dari 128 inti CUDA dan delapan TMU tekstur, 1920 inti CUDA dan 120 TMU dari 2560 prosesor aliran aktif dalam versi GP104 ini dan 160 unit tekstur fisik.

Prosesor grafis yang menjadi dasar GeForce GTX 1070 berisi delapan pengontrol memori 32-bit, menghasilkan total bus memori 256-bit - persis seperti dalam kasus model GTX 1080 yang lebih lama. Subsistem memori belum dipangkas secara berurutan untuk menyediakan memori bandwidth yang cukup tinggi dengan kondisi menggunakan memori GDDR5 pada GeForce GTX 1070. Masing-masing pengontrol memori memiliki delapan ROP dan cache L2 256 KB, sehingga chip GP104 dalam modifikasi ini juga berisi 64 ROP dan 2048 KB tingkat cache L2.

Berkat optimalisasi arsitektur dan teknologi proses baru, GPU GP104 telah menjadi GPU paling hemat energi hingga saat ini. Insinyur Nvidia mampu meningkatkan kecepatan clock lebih dari yang mereka harapkan ketika pindah ke proses baru, di mana mereka harus bekerja keras, dengan hati-hati memeriksa dan mengoptimalkan semua kemacetan solusi sebelumnya yang tidak memungkinkan mereka bekerja pada frekuensi yang lebih tinggi. Oleh karena itu, GeForce GTX 1070 juga beroperasi pada frekuensi yang sangat tinggi, lebih dari 40% lebih tinggi dari nilai referensi untuk GeForce GTX 970.

Karena GeForce GTX 1070, pada dasarnya, hanya GTX 1080 yang sedikit kurang produktif dengan memori GDDR5, GeForce GTX 1070 mendukung semua teknologi yang kami jelaskan di bagian sebelumnya. Untuk detail lebih lanjut tentang arsitektur Pascal, serta teknologi yang didukungnya, seperti unit pemrosesan video dan output yang ditingkatkan, dukungan Async Compute, teknologi Multi-Projection Simultan, perubahan dalam rendering multi-chip SLI, dan jenis sinkronisasi Fast Sync yang baru , ada baiknya membaca dengan bagian pada GTX 1080.

Memori GDDR5 berkinerja tinggi dan penggunaannya yang efisien

Kami menulis di atas tentang perubahan subsistem memori GPU GP104, yang menjadi dasar model GeForce GTX 1080 dan GTX 1070 - pengontrol memori yang disertakan dalam GPU ini mendukung kedua jenis baru memori video GDDR5X, yang dijelaskan secara rinci di ulasan GTX 1080, serta memori GDDR5 lama yang bagus yang telah kami kenal selama beberapa tahun sekarang.

Agar tidak kehilangan terlalu banyak bandwidth memori di GTX 1070 yang lebih muda dibandingkan dengan GTX 1080 yang lebih lama, kedelapan pengontrol memori 32-bit dibiarkan aktif di dalamnya, mendapatkan antarmuka memori video umum 256-bit penuh. Selain itu, kartu video dilengkapi dengan memori GDDR5 tercepat yang tersedia di pasaran - dengan frekuensi operasi efektif 8 GHz. Semua ini menyediakan bandwidth memori 256 GB / s, berbeda dengan 320 GB / s untuk solusi yang lebih lama - kemampuan komputasi dipotong dengan jumlah yang hampir sama, sehingga keseimbangan tetap terjaga.

Ingatlah bahwa meskipun bandwidth teoritis puncak penting untuk kinerja GPU, Anda juga perlu memperhatikan efisiensinya. Selama proses rendering, banyak hambatan yang berbeda dapat membatasi kinerja secara keseluruhan, mencegah penggunaan semua bandwidth memori yang tersedia. Untuk meminimalkan kemacetan ini, GPU menggunakan kompresi data lossless khusus untuk meningkatkan efisiensi baca dan tulis data.

Generasi keempat kompresi delta informasi buffer telah diperkenalkan dalam arsitektur Pascal, yang memungkinkan GPU untuk lebih efisien menggunakan kemampuan yang tersedia dari bus memori video. Subsistem memori di GeForce GTX 1070 dan GTX 1080 menggunakan peningkatan lama dan beberapa teknik kompresi data lossless baru yang dirancang untuk mengurangi kebutuhan bandwidth. Ini mengurangi jumlah data yang ditulis ke memori, meningkatkan efisiensi cache L2, dan mengurangi jumlah data yang dikirim antara titik berbeda pada GPU, seperti TMU dan framebuffer.

GPU Boost 3.0 dan fitur overclocking

Sebagian besar mitra Nvidia telah mengumumkan solusi overclock pabrik berdasarkan GeForce GTX 1080 dan GTX 1070. utilitas khusus untuk overclocking, memungkinkan Anda untuk menggunakan fungsionalitas baru dari teknologi GPU Boost 3.0. Salah satu contoh utilitas tersebut adalah EVGA Precision XOC, yang mencakup pemindai otomatis untuk menentukan kurva tegangan-ke-frekuensi - dalam mode ini, untuk setiap nilai tegangan, dengan menjalankan uji stabilitas, frekuensi stabil ditemukan di mana GPU menyediakan peningkatan kinerja. Namun, kurva ini juga dapat diubah secara manual.

Kami mengetahui teknologi GPU Boost dengan baik dari kartu grafis Nvidia sebelumnya. Di GPU mereka, mereka menggunakan fitur perangkat keras ini, yang dirancang untuk meningkatkan kecepatan jam operasi GPU dalam mode yang belum mencapai batas konsumsi daya dan pembuangan panas. Dalam GPU Pascal, algoritma ini telah mengalami beberapa perubahan, yang utamanya adalah pengaturan frekuensi turbo yang lebih baik, tergantung pada voltase.

Jika sebelumnya perbedaan antara frekuensi dasar dan frekuensi turbo telah diperbaiki, maka di GPU Boost 3.0 dimungkinkan untuk mengatur offset frekuensi turbo untuk setiap voltase secara terpisah. Sekarang frekuensi turbo dapat diatur untuk masing-masing nilai voltase individual, yang memungkinkan Anda untuk sepenuhnya memeras semua kemampuan overclocking dari GPU. Kami menulis tentang fitur ini secara rinci dalam ulasan GeForce GTX 1080, dan Anda dapat menggunakan utilitas EVGA Precision XOC dan MSI Afterburner untuk ini.

Karena beberapa detail telah berubah dalam metodologi overclocking dengan dirilisnya kartu video dengan dukungan GPU Boost 3.0, Nvidia harus membuat penjelasan tambahan dalam instruksi untuk overclocking produk baru. Ada teknik overclocking yang berbeda dengan karakteristik variabel yang berbeda yang mempengaruhi hasil akhir. Untuk setiap sistem tertentu, metode tertentu mungkin lebih cocok, tetapi dasar-dasarnya selalu hampir sama.

Banyak overclocker menggunakan benchmark Unigine Heaven 4.0 untuk memeriksa stabilitas sistem, yang memuat GPU dengan baik, memiliki pengaturan yang fleksibel dan dapat dijalankan dalam mode berjendela bersama dengan jendela utilitas overclocking dan pemantauan di dekatnya, seperti EVGA Precision atau MSI Afterburner. Namun, pemeriksaan semacam itu cukup hanya untuk perkiraan awal, dan untuk memastikan stabilitas overclocking dengan tegas, pemeriksaan tersebut harus diperiksa di beberapa aplikasi game, karena game yang berbeda memerlukan beban yang berbeda pada unit fungsional GPU yang berbeda: matematika, tekstur, geometris. Benchmark Heaven 4.0 juga nyaman untuk overclocking karena memiliki mode operasi loop, di mana nyaman untuk mengubah pengaturan overclocking, dan ada benchmark untuk mengevaluasi peningkatan kecepatan.

Nvidia menyarankan untuk menjalankan jendela Heaven 4.0 dan EVGA Precision XOC secara bersamaan saat melakukan overclock pada kartu grafis GeForce GTX 1080 dan GTX 1070 yang baru. Pada awalnya, diinginkan untuk segera meningkatkan kecepatan kipas. Dan untuk overclocking yang serius, Anda dapat segera mengatur nilai kecepatan ke 100%, yang akan membuat kartu video sangat keras, tetapi akan mendinginkan GPU dan komponen lain dari kartu video sebanyak mungkin dengan menurunkan suhu serendah mungkin. level, mencegah throttling (pengurangan frekuensi karena peningkatan suhu GPU di atas nilai tertentu).

Selanjutnya, Anda perlu mengatur nilai daya target (Power Target) juga hingga maksimal. Pengaturan ini akan memberi GPU jumlah daya maksimum yang dimungkinkan dengan meningkatkan tingkat konsumsi daya dan suhu target GPU (GPU Temp Target). Untuk beberapa tujuan, nilai kedua dapat dipisahkan dari perubahan Target Daya, dan kemudian pengaturan ini dapat disesuaikan secara individual - untuk mencapai lebih sedikit pemanasan chip video, misalnya.

Langkah selanjutnya adalah meningkatkan nilai GPU Clock Offset - itu berarti seberapa tinggi frekuensi turbo selama operasi. Nilai ini meningkatkan frekuensi untuk semua tegangan dan menghasilkan kinerja yang lebih baik. Seperti biasa, saat overclocking, Anda perlu memeriksa stabilitas saat meningkatkan frekuensi GPU dalam langkah-langkah kecil - dari 10 MHz menjadi 50 MHz per langkah sebelum Anda melihat hang, driver atau kesalahan aplikasi, atau bahkan artefak visual. Ketika batas ini tercapai, Anda harus mengurangi nilai frekuensi secara bertahap dan sekali lagi memeriksa stabilitas dan kinerja selama overclocking.

Selain frekuensi GPU, Anda juga dapat meningkatkan frekuensi memori video (Memory Clock Offset), yang sangat penting dalam kasus GeForce GTX 1070 yang dilengkapi dengan memori GDDR5, yang biasanya di-overclock dengan baik. Proses dalam hal frekuensi memori persis mengulangi apa yang dilakukan ketika menemukan frekuensi GPU yang stabil, satu-satunya perbedaan adalah langkah-langkahnya dapat dibuat lebih besar - tambahkan 50-100 MHz sekaligus ke frekuensi dasar.

Selain langkah-langkah di atas, Anda juga dapat meningkatkan batas Tegangan Lebih, karena frekuensi GPU yang lebih tinggi sering dicapai pada tegangan yang meningkat, ketika bagian GPU yang tidak stabil menerima daya tambahan. Benar, potensi kerugian dari peningkatan nilai yang diberikan adalah kemungkinan kerusakan pada chip video dan kegagalannya yang dipercepat, jadi Anda perlu menggunakan peningkatan tegangan dengan sangat hati-hati.

Penggemar overclocking menggunakan teknik yang sedikit berbeda, mengubah parameter dalam urutan yang berbeda. Misalnya, beberapa overclocker berbagi eksperimen untuk menemukan frekuensi GPU dan memori yang stabil sehingga tidak saling mengganggu, dan kemudian menguji overclocking gabungan dari chip video dan chip memori, tetapi ini sudah merupakan detail yang tidak signifikan dari pendekatan individual. .

Dilihat dari pendapat di forum dan komentar di artikel, beberapa pengguna tidak menyukai algoritma operasi GPU Boost 3.0 yang baru, ketika frekuensi GPU pertama kali naik sangat tinggi, seringkali lebih tinggi dari frekuensi turbo, tetapi kemudian, di bawah pengaruh peningkatan dalam suhu GPU atau peningkatan konsumsi daya di atas batas yang ditetapkan, dapat turun ke nilai yang jauh lebih rendah. Ini hanya spesifik dari algoritma yang diperbarui, Anda perlu membiasakan diri dengan perilaku baru dari frekuensi GPU yang berubah secara dinamis, tetapi itu tidak memiliki konsekuensi negatif.

GeForce GTX 1070 adalah model kedua setelah GTX 1080 dalam jajaran prosesor grafis baru Nvidia yang berbasis keluarga Pascal. Proses manufaktur FinFET 16nm baru dan optimalisasi arsitektur telah memungkinkan kartu grafis ini mencapai kecepatan clock tinggi, yang didukung oleh teknologi GPU Boost generasi baru. Meskipun jumlah blok fungsional dalam bentuk prosesor aliran dan modul tekstur telah dikurangi, jumlahnya tetap cukup untuk GTX 1070 menjadi solusi yang paling menguntungkan dan hemat energi.

Memasang memori GDDR5 pada yang termuda dari sepasang model kartu video Nvidia yang dirilis pada chip GP104, tidak seperti tipe baru GDDR5X yang membedakan GTX 1080, tidak mencegahnya mencapai indikator kinerja tinggi. Pertama, Nvidia memutuskan untuk tidak memotong bus memori model GeForce GTX 1070, dan kedua, mereka menempatkan memori GDDR5 tercepat dengan frekuensi efektif 8 GHz, yang hanya sedikit lebih rendah dari 10 GHz untuk GDDR5X yang digunakan dalam model yang lebih tua. Dengan mempertimbangkan algoritme kompresi delta yang ditingkatkan, bandwidth memori efektif GPU menjadi lebih tinggi daripada parameter yang sama untuk model serupa GeForce GTX 970 generasi sebelumnya.

GeForce GTX 1070 bagus karena menawarkan kinerja yang sangat tinggi dan dukungan untuk fitur dan algoritme baru dengan harga yang jauh lebih rendah dibandingkan dengan model lama yang diumumkan sedikit lebih awal. Jika beberapa penggemar mampu membeli GTX 1080 seharga 55.000, maka lingkaran pembeli potensial yang jauh lebih besar akan mampu membayar 35.000 hanya untuk seperempat dari solusi yang kurang produktif dengan kemampuan yang persis sama. Kombinasi harga yang relatif rendah dan kinerja tinggi yang menjadikan GeForce GTX 1070 sebagai pembelian paling menguntungkan pada saat peluncurannya.

Akselerator grafis GeForce GTX 1060

ParameterArti
Nama kode chipGP106
Teknologi produksiFinFET 16nm
Jumlah transistor4,4 miliar
Area inti200 mm²
ArsitekturTerpadu, dengan serangkaian prosesor umum untuk pemrosesan aliran berbagai jenis data: simpul, piksel, dll.
Dukungan perangkat keras DirectXDirectX 12, dengan dukungan untuk Feature Level 12_1
Bus memori192-bit: enam pengontrol memori 32-bit independen yang mendukung memori GDDR5
frekuensi GPU1506 (1708) MHz
Blok komputasi10 multiprosesor streaming, termasuk 1280 skalar ALU untuk perhitungan floating point dalam standar IEEE 754-2008;
Blok tekstur80 unit pengalamatan dan pemfilteran tekstur dengan dukungan untuk komponen FP16 dan FP32 dalam tekstur dan dukungan untuk pemfilteran trilinear dan anisotropik untuk semua format tekstur
Unit Operasi Raster (ROP)6 ROP lebar (48 piksel) dengan dukungan untuk berbagai mode anti-aliasing, termasuk yang dapat diprogram dan dengan format buffer bingkai FP16 atau FP32. Blok terdiri dari array ALU yang dapat dikonfigurasi dan bertanggung jawab untuk pembuatan dan perbandingan kedalaman, multisampling, dan pencampuran
Memantau dukunganDukungan terintegrasi hingga empat monitor yang terhubung melalui Dual Link DVI, HDMI 2.0b, dan DisplayPort 1.2 (Siap 1.3/1.4)

Spesifikasi Grafis Referensi GeForce GTX 1060
ParameterArti
Frekuensi inti1506 (1708) MHz
Jumlah prosesor universal1280
Jumlah blok tekstur80
Jumlah blok pencampuran48
Frekuensi memori efektif8000 (4×2000) MHz
Jenis memoriGDDR5
Bus memori192-bit
Ukuran memori6 GB
Bandwidth Memori192 GB/dtk
Performa komputasi (FP32)sekitar 4 teraflop
Rasio pengisian maksimum teoretis72 gigapiksel/dtk
Tingkat pengambilan sampel tekstur teoretis121 gigatexel/dtk
BanPCI Express 3.0
konektorSatu DVI Tautan Ganda, satu HDMI, dan tiga DisplayPort
Konsumsi Daya Khas120 W
Makanan tambahanSatu konektor 6-pin
Jumlah slot yang ditempati di sasis sistem2
Harga yang direkomendasikan$249 ($299) di AS dan 18.990 di Rusia

Kartu video GeForce GTX 1060 juga menerima nama yang mirip dengan solusi yang sama dari seri GeForce sebelumnya, berbeda dari nama pendahulunya langsung GeForce GTX 960 hanya dengan digit pertama generasi yang diubah. Kebaruan telah menjadi di lini perusahaan saat ini satu langkah lebih rendah dari solusi GeForce GTX 1070 yang dirilis sebelumnya, yang rata-rata dalam hal kecepatan dalam seri baru.

Harga yang direkomendasikan untuk kartu video baru Nvidia adalah $249 dan $299 untuk versi reguler dari mitra perusahaan dan masing-masing untuk Edisi Pendiri khusus. Dibandingkan dengan dua model lama, ini adalah harga yang sangat menguntungkan, karena model GTX 1060 yang baru, meskipun lebih rendah dari motherboard kelas atas, tidak sebanding dengan harganya yang lebih murah. Pada saat pengumuman, kebaruan pasti menjadi solusi kinerja terbaik di kelasnya dan salah satu penawaran paling menguntungkan dalam kisaran harga ini.

Model kartu video keluarga Pascal Nvidia ini keluar untuk melawan keputusan baru dari perusahaan saingan AMD, yang merilis Radeon RX 480 sedikit lebih awal.Anda dapat membandingkan kartu video Nvidia baru dengan kartu video ini, meskipun tidak secara langsung, karena mereka masih berbeda cukup signifikan dalam harga. GeForce GTX 1060 lebih mahal ($249-299 versus $199-229), tetapi juga jelas lebih cepat daripada pesaingnya.

Prosesor grafis GP106 memiliki bus memori 192-bit, sehingga jumlah memori yang terpasang pada kartu video dengan bus semacam itu bisa 3 atau 6 GB. Nilai yang lebih kecil dalam kondisi modern sejujurnya tidak cukup, dan banyak proyek game, bahkan dalam resolusi Full HD, akan mengalami kekurangan memori video, yang akan sangat mempengaruhi kelancaran rendering. Untuk memastikan kinerja maksimal dari solusi baru pada pengaturan tinggi, model GeForce GTX 1060 dilengkapi dengan memori video 6 GB, yang cukup untuk menjalankan aplikasi 3D apa pun dengan pengaturan kualitas apa pun. Selain itu, hari ini tidak ada perbedaan antara 6 dan 8 GB, dan solusi seperti itu akan menghemat uang.

Nilai konsumsi daya khas untuk produk baru ini adalah 120 W, yang 20% ​​lebih rendah dari nilai untuk GTX 1070 dan sama dengan konsumsi daya kartu grafis GeForce GTX 960 generasi sebelumnya, yang memiliki kinerja dan kemampuan yang jauh lebih rendah. Papan referensi memiliki rangkaian konektor biasa untuk menghubungkan perangkat output gambar: satu DVI Dual-Link, satu HDMI, dan tiga DisplayPort. Selain itu, ada dukungan untuk versi baru HDMI dan DisplayPort, yang kami tulis dalam ulasan model GTX 1080.

Panjang papan referensi GeForce GTX 1060 adalah 9,8 inci (25 cm), dan dari perbedaan dari opsi yang lebih lama, kami secara terpisah mencatat bahwa GeForce GTX 1060 tidak mendukung konfigurasi rendering multi-chip SLI, dan tidak memiliki konektor khusus untuk ini. Karena board mengkonsumsi daya lebih sedikit daripada model lama, satu konektor daya eksternal PCI-E 6-pin dipasang di board untuk daya tambahan.

Kartu video GeForce GTX 1060 telah muncul di pasaran sejak hari pengumuman dalam bentuk produk dari mitra perusahaan: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. Edisi khusus GeForce GTX 1060 Founder's Edition, yang diproduksi oleh Nvidia sendiri, akan dirilis dalam jumlah terbatas, yang akan dijual dengan harga $ 299 secara eksklusif di situs web Nvidia dan tidak akan disajikan secara resmi di Rusia. Edisi Pendiri dibedakan oleh fakta bahwa itu terbuat dari bahan dan komponen berkualitas tinggi, termasuk wadah aluminium, dan menggunakan sistem pendingin yang efisien, serta sirkuit daya resistansi rendah dan pengatur tegangan yang dirancang khusus.

Perubahan arsitektur

Kartu video GeForce GTX 1060 didasarkan pada model prosesor grafis yang sama sekali baru GP106, yang secara fungsional tidak berbeda dengan arsitektur Pascal yang pertama kali lahir dalam bentuk chip GP104, di mana model GeForce GTX 1080 dan GTX 1070 dijelaskan di atas didasarkan Arsitektur ini didasarkan pada solusi yang dikerjakan di Maxwell, tetapi juga memiliki beberapa perbedaan fungsional, yang telah kami tulis secara rinci sebelumnya.

Chip video GP106 serupa dalam desainnya dengan chip Pascal kelas atas dan solusi serupa dari arsitektur Maxwell, dan Anda dapat menemukan informasi mendetail tentang desain GPU modern dalam ulasan kami tentang solusi Nvidia sebelumnya. Seperti GPU sebelumnya, chip arsitektur baru memiliki konfigurasi yang berbeda dari Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM) dan pengontrol memori:

Prosesor grafis GP106 menggabungkan dua cluster GPC, yang terdiri dari 10 multiprosesor streaming (Streaming Multiprocessor - SM), yaitu, tepat setengah dari GP104. Seperti pada GPU yang lebih lama, masing-masing multiprosesor berisi 128 core, 8 unit tekstur TMU, masing-masing 256 KB daftar memori, 96 KB memori bersama, dan 48 KB cache L1. Hasilnya, GeForce GTX 1060 berisi total 1.280 inti komputasi dan 80 unit tekstur, setengah dari GTX 1080.

Tetapi subsistem memori GeForce GTX 1060 tidak dibagi dua relatif terhadap solusi teratas, ini berisi enam pengontrol memori 32-bit, memberikan bus memori 192-bit terakhir. Dengan frekuensi efektif memori video GDDR5 untuk GeForce GTX 1060 sebesar 8 GHz, bandwidth mencapai 192 GB / s, yang cukup baik untuk solusi di segmen harga ini, terutama mengingat tingginya efisiensi penggunaannya di Pascal. Masing-masing pengontrol memori memiliki delapan ROP dan 256 KB cache L2 yang terkait dengannya, jadi secara total versi lengkap GPU GP106 berisi 48 ROP dan cache L2 1536 KB.

Untuk mengurangi kebutuhan bandwidth memori dan membuat penggunaan arsitektur Pascal yang tersedia lebih efisien, kompresi data on-chip lossless telah ditingkatkan lebih lanjut, yang mampu mengompresi data dalam buffer, mendapatkan efisiensi dan peningkatan kinerja. Secara khusus, metode kompresi delta baru dengan rasio 4:1 dan 8:1 telah ditambahkan ke chip dari keluarga baru, memberikan tambahan 20% untuk efisiensi bandwidth memori dibandingkan dengan solusi sebelumnya dari keluarga Maxwell.

Frekuensi dasar GPU baru adalah 1506 MHz - pada prinsipnya frekuensi tidak boleh di bawah tanda ini. Turbo clock tipikal (Boost Clock) jauh lebih tinggi pada 1708 MHz, yang merupakan rata-rata frekuensi sebenarnya yang dijalankan oleh chip grafis GeForce GTX 1060 di berbagai macam game dan aplikasi 3D. Frekuensi Boost yang sebenarnya tergantung pada permainan dan kondisi di mana tes berlangsung.

Seperti solusi keluarga Pascal lainnya, model GeForce GTX 1060 tidak hanya beroperasi pada frekuensi clock tinggi, memberikan kinerja tinggi, tetapi juga memiliki margin yang layak untuk overclocking. Eksperimen pertama menunjukkan kemungkinan mencapai frekuensi orde 2 GHz. Tidak mengherankan bahwa mitra perusahaan juga mempersiapkan versi overclock pabrik dari kartu video GTX 1060.

Jadi, perubahan utama dalam arsitektur baru adalah proses FinFET 16 nm, yang penggunaannya dalam produksi GP106 memungkinkan untuk meningkatkan kompleksitas chip secara signifikan sambil mempertahankan area yang relatif rendah sebesar 200 mm², jadi chip arsitektur Pascal ini memiliki jumlah unit eksekusi yang jauh lebih besar dibandingkan dengan chip Maxwell dengan pemosisian serupa yang diproduksi menggunakan teknologi proses 28 nm.

Jika GM206 (GTX 960) dengan luas 227 mm² memiliki 3 miliar transistor dan 1024 ALU, 64 TMU, 32 ROP dan bus 128-bit, maka GPU baru berisi 4,4 miliar transistor, 1280 ALU, di 200 mm², 80 TMU dan 48 ROP dengan bus 192-bit. Selain itu, pada frekuensi hampir satu setengah kali lebih tinggi: 1506 (1708) versus 1126 (1178) MHz. Dan ini dengan konsumsi daya yang sama yaitu 120 watt! Hasilnya, GPU GP106 telah menjadi salah satu GPU paling hemat energi, bersama dengan GP104.

Teknologi Nvidia Baru

Salah satu teknologi paling menarik dari perusahaan, yang didukung oleh GeForce GTX 1060 dan solusi lain dari keluarga Pascal, adalah teknologi Multi-Proyeksi Simultan Nvidia. Kami sudah menulis tentang teknologi ini di ulasan GeForce GTX 1080, ini memungkinkan Anda untuk menggunakan beberapa teknik baru untuk mengoptimalkan rendering. Secara khusus - untuk secara bersamaan memproyeksikan gambar VR untuk dua mata sekaligus, secara signifikan meningkatkan efisiensi penggunaan GPU dalam realitas virtual.

Untuk mendukung SMP, semua GPU dari keluarga Pascal memiliki mesin khusus, yang terletak di Mesin PolyMorph di ujung pipa geometris sebelum rasterizer. Dengan itu, GPU dapat secara bersamaan memproyeksikan primitif geometris ke beberapa proyeksi dari satu titik, sementara proyeksi ini dapat stereo (yaitu, hingga 16 atau 32 proyeksi didukung secara bersamaan). Kemampuan ini memungkinkan Pascal GPU untuk secara akurat mereproduksi permukaan melengkung untuk rendering VR, serta menampilkan dengan benar pada sistem multi-monitor.

Penting bahwa teknologi Multi-Projection Simultan telah diintegrasikan ke dalam mesin game populer (Unreal Engine dan Unity) dan game, dan hingga saat ini, dukungan untuk teknologi tersebut telah diumumkan untuk lebih dari 30 game dalam pengembangan, termasuk yang terkenal seperti proyek seperti Unreal Tournament, Poolnation VR, Everest VR, Obduction, Adr1ft dan Raw Data. Menariknya, meskipun Unreal Tournament bukan game VR, game ini menggunakan SMP untuk mencapai visual dan performa yang lebih baik.

Teknologi lain yang telah lama ditunggu-tunggu adalah alat yang ampuh untuk membuat tangkapan layar dalam game. Nvidia Ansel. Alat ini memungkinkan Anda membuat tangkapan layar yang tidak biasa dan berkualitas sangat tinggi dari permainan, dengan fitur yang sebelumnya tidak dapat diakses, menyimpannya dalam resolusi sangat tinggi dan melengkapinya dengan berbagai efek, dan membagikan kreasi Anda. Ansel memungkinkan Anda untuk benar-benar membuat tangkapan layar seperti yang diinginkan artis, memungkinkan Anda memasang kamera dengan parameter apa pun di mana pun dalam adegan, menerapkan filter pasca yang kuat ke gambar, atau bahkan mengambil bidikan 360 derajat untuk dilihat dalam helm realitas maya.

Nvidia telah menstandarisasi integrasi UI Ansel ke dalam game, dan melakukannya semudah menambahkan beberapa baris kode. Tidak perlu lagi menunggu fitur ini muncul di game, kamu bisa mengevaluasi kemampuan Ansel sekarang di Mirror's Edge: Catalyst, dan sebentar lagi akan tersedia di Witcher 3: Wild Hunt. Selain itu, banyak proyek game yang mendukung Ansel sedang dalam pengembangan, termasuk game seperti Fortnite, Paragon dan Turnamen Unreal, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky, dan banyak lagi.

GPU GeForce GTX 1060 baru juga mendukung toolkit Nvidia VRWorks, yang membantu pengembang membuat proyek yang mengesankan untuk realitas virtual. Paket ini mencakup banyak utilitas dan alat untuk pengembang, termasuk VRWorks Audio, yang memungkinkan Anda melakukan penghitungan pantulan gelombang suara yang sangat akurat dari objek pemandangan menggunakan GPU ray tracing. Paket ini juga mencakup integrasi ke dalam efek fisika VR dan PhysX untuk memastikan perilaku objek yang benar secara fisik di tempat kejadian.

Salah satu game VR paling menarik untuk diuntungkan dari VRWorks adalah VR Funhouse, game VR milik Nvidia, tersedia gratis di layanan Steam Valve. Game ini didukung oleh Unreal Engine 4 (Epic Games) dan berjalan pada kartu grafis GeForce GTX 1080, 1070, dan 1060 bersama dengan headset HTC Vive VR. Selain itu, kode sumber game ini akan tersedia untuk umum, yang akan memungkinkan pengembang lain untuk menggunakan ide dan kode yang sudah jadi dalam atraksi VR mereka. Ambil kata kami untuk itu, ini adalah salah satu demonstrasi paling mengesankan dari kemungkinan realitas virtual.

Termasuk berkat teknologi SMP dan VRWorks, penggunaan GPU GeForce GTX 1060 dalam aplikasi VR cukup memberikan tingkat masuk kinerja realitas virtual, dan GPU yang dimaksud memenuhi tingkat perangkat keras minimum yang diperlukan, termasuk untuk SteamVR, menjadi salah satu akuisisi paling sukses untuk digunakan dalam sistem dengan dukungan resmi dunia maya

Karena model GeForce GTX 1060 didasarkan pada chip GP106, yang sama sekali tidak kalah dengan prosesor grafis GP104, yang menjadi dasar untuk modifikasi yang lebih lama, ia benar-benar mendukung semua teknologi yang dijelaskan di atas.

GeForce GTX 1060 adalah model ketiga dalam jajaran prosesor grafis baru Nvidia berdasarkan keluarga Pascal. Teknologi proses FinFET 16nm baru dan optimalisasi arsitektur telah memungkinkan semua kartu grafis baru untuk mencapai kecepatan clock tinggi dan menempatkan lebih banyak blok fungsional di GPU dalam bentuk prosesor aliran, modul tekstur, dan lainnya, dibandingkan dengan chip video generasi sebelumnya. Itulah mengapa GTX 1060 menjadi solusi paling menguntungkan dan hemat energi di kelasnya dan secara umum.

Sangat penting bahwa GeForce GTX 1060 menawarkan kinerja dan dukungan yang cukup tinggi untuk fitur dan algoritma baru dengan harga yang jauh lebih rendah dibandingkan dengan solusi lama berdasarkan GP104. Chip grafis GP106 yang digunakan dalam model baru memberikan kinerja dan efisiensi daya terbaik di kelasnya. GeForce GTX 1060 dirancang khusus dan sangat cocok untuk semua game modern dengan pengaturan grafis tinggi dan maksimum pada resolusi 1920x1080 dan bahkan dengan anti-aliasing layar penuh yang diaktifkan dengan berbagai metode (FXAA, MFAA, atau MSAA).

Dan bagi mereka yang menginginkan performa lebih dengan tampilan resolusi ultra tinggi, Nvidia memiliki kartu grafis GeForce GTX 1070 dan GTX 1080 terbaik, yang juga cukup baik dalam hal performa dan efisiensi daya. Namun, kombinasi harga rendah dan kinerja yang memadai cukup baik membedakan GeForce GTX 1060 dari latar belakang solusi lama. Dibandingkan dengan Radeon RX 480 yang bersaing, solusi Nvidia sedikit lebih cepat dengan lebih sedikit kompleksitas dan jejak GPU, dan memiliki efisiensi daya yang jauh lebih baik. Benar, itu dijual sedikit lebih mahal, jadi setiap kartu video memiliki ceruknya sendiri.

Ulasan kartu video NVIDIA GeForce GTX 780 | Pengalaman GeForce dan ShadowPlay

Pengalaman GeForce

Sebagai penggemar komputer, kami menghargai kombinasi pengaturan berbeda yang memengaruhi kinerja dan kualitas game. Cara termudah adalah menghabiskan banyak uang untuk kartu video baru dan mengatur semua pengaturan grafis secara maksimal. Tetapi ketika parameter ternyata terlalu berat untuk kartu dan harus dikurangi atau dimatikan, ada perasaan tidak enak dan kesadaran bahwa permainan bisa bekerja lebih baik.

Namun, pengaturan pengaturan yang optimal tidak begitu mudah. Beberapa pengaturan menghasilkan visual yang lebih baik daripada yang lain, dan dampak pada kinerja dapat sangat bervariasi. Program GeForce Experience adalah upaya NVIDIA untuk mempermudah memilih pengaturan game dengan membandingkan CPU, GPU, dan resolusi Anda dengan database konfigurasi. Bagian kedua dari utilitas membantu Anda menentukan apakah driver memerlukan pembaruan.

Kemungkinan besar penggemar akan terus memilih pengaturan itu sendiri dan akan melihat secara negatif program tambahan. Namun, sebagian besar gamer yang ingin menginstal game dan langsung bermain tanpa memeriksa driver dan melalui berbagai pengaturan pasti akan senang dengan kesempatan ini. Either way, NVIDIA GeForce Experience membantu orang memanfaatkan pengalaman bermain game mereka, dan karena itu merupakan utilitas yang berguna untuk game PC.

GeForce Experience mengidentifikasi kesembilan game yang diinstal pada sistem pengujian kami. Tentu saja mereka tidak menyimpan pengaturan default karena kami menerapkan pengaturan tertentu demi pengujian. Tapi tetap menarik bagaimana GeForce Experience mengubah opsi yang kami pilih.

Untuk Tomb Raider, GeForce Experience ingin menonaktifkan teknologi TressFX, meskipun NVIDIA GeForce GTX 780 dengan fungsi yang diaktifkan, ini menunjukkan rata-rata 40 frame per detik. Untuk beberapa alasan, program tidak dapat menentukan konfigurasi Jauh Menangis 3, meskipun pengaturan yang dia sarankan cukup tinggi. Untuk alasan yang tidak diketahui untuk Skyrim, utilitas ingin menonaktifkan FXAA.

Sangat menyenangkan untuk mendapatkan satu set tangkapan layar untuk setiap game yang menjelaskan efek pengaturan tertentu pada kualitas gambar. Dari sembilan contoh yang kami ulas, GeForce Experience mendekati pengaturan optimal, menurut kami. Namun, utilitas juga bias, menggurui fitur khusus NVIDIA seperti PhysX (yang dipasang oleh program level tinggi di Borderlands 2) dan mencegah fitur dari AMD (termasuk TressFX di Tomb Raider) diaktifkan. Menonaktifkan FXAA di Skyrim sama sekali tidak masuk akal, karena game ini rata-rata 100 FPS. Ada kemungkinan bahwa para penggemar ingin menginstal GeForce Experience setelah sistem NVIDIA Shield dikirimkan, karena fitur Streaming Game tampaknya tersedia melalui aplikasi NVIDIA.

ShadowPlay: Perekam Video Selalu Aktif untuk Gaming

Penggemar WoW sering merekam serangan mereka, tetapi ini membutuhkan sistem yang cukup kuat, Fraps, dan banyak ruang disk.

NVIDIA baru-baru ini mengumumkan fitur baru ShadowPlay, yang dapat sangat menyederhanakan proses perekaman.

Saat diaktifkan, ShadowPlay menggunakan dekoder tetap NVEnc yang ada di dalam GPU Kepler, yang secara otomatis merekam 20 menit terakhir permainan. Atau Anda dapat memulai dan menghentikan ShadowPlay secara manual. Dengan demikian, teknologi menggantikan solusi perangkat lunak seperti Fraps, yang memberikan beban lebih tinggi pada CPU.

Untuk referensi: NVEnc hanya bekerja dengan pengkodean H.264 pada resolusi hingga 4096x4096 piksel. ShadowPlay belum tersedia di pasaran, tetapi NVIDIA mengatakan akan dapat merekam video 1080p hingga 30 FPS pada saat diluncurkan musim panas ini. Kami ingin melihat resolusi yang lebih tinggi seperti yang telah dinyatakan sebelumnya bahwa encoder memiliki potensi untuk mendukungnya di perangkat keras.

Ulasan kartu video NVIDIA GeForce GTX 780 | GPU Boost 2.0 dan kemungkinan masalah overclocking

Peningkatan GPU 2.0

dalam ulasan GeForce GTX Titan Kami tidak dapat menguji teknologi NVIDIA GPU Boost Generasi ke-2 secara ekstensif, tetapi sekarang ada di sini NVIDIA GeForce GTX 780. Berikut adalah deskripsi singkat tentang teknologi ini:

GPU Boost adalah mekanisme NVIDIA yang mengubah kinerja kartu grafis tergantung pada jenis tugas yang sedang diproses. Seperti yang mungkin Anda ketahui, game memiliki persyaratan sumber daya GPU yang berbeda. Secara historis, frekuensi harus disetel untuk skenario terburuk. Tetapi saat memproses "ringan" tugas GPU bekerja untuk apa-apa. GPU Boost memonitor berbagai parameter dan menambah atau mengurangi frekuensi tergantung pada kebutuhan aplikasi dan situasi saat ini.

Implementasi pertama GPU Boost bekerja di bawah ambang batas daya tertentu (170 W dalam kasus GeForce GTX 680). Namun, para insinyur perusahaan telah menemukan bahwa mereka dapat dengan aman melebihi level ini jika suhu GPU cukup rendah. Dengan demikian, kinerja dapat lebih dioptimalkan.

Dalam praktiknya, GPU Boost 2.0 hanya berbeda dalam NVIDIA sekarang mempercepat frekuensi tidak berdasarkan batas daya, tetapi pada suhu tertentu, yaitu 80 derajat Celcius. Artinya, nilai frekuensi dan tegangan yang lebih tinggi sekarang akan digunakan hingga suhu chip hingga 80 derajat. Jangan lupa bahwa suhu terutama tergantung pada profil dan pengaturan kipas: semakin tinggi kecepatan kipas, semakin rendah suhu dan, oleh karena itu, semakin tinggi nilai Peningkatan GPU (dan sayangnya, juga tingkat kebisingan). Teknologi ini masih mengevaluasi situasi setiap 100ms sekali, sehingga NVIDIA memiliki lebih banyak pekerjaan yang harus dilakukan di versi mendatang.

Pengaturan yang bergantung pada suhu membuat proses pengujian menjadi lebih sulit dibandingkan dengan GPU Boost versi pertama. Apa pun yang menaikkan atau menurunkan suhu GK110 mengubah jam chip. Oleh karena itu, mencapai hasil yang konsisten antar run cukup sulit. Dalam kondisi laboratorium, orang hanya bisa berharap untuk suhu lingkungan yang stabil.

Selain hal di atas, perlu dicatat bahwa Anda dapat meningkatkan batas suhu. Misalnya, jika Anda ingin NVIDIA GeForce GTX 780 menurunkan frekuensi dan tegangan pada level 85 atau 90 derajat Celcius, ini dapat dikonfigurasi dalam parameter.

Ingin menjaga GK110 sejauh mungkin dari batas suhu yang Anda pilih? kurva kipas NVIDIA GeForce GTX 780 sepenuhnya dapat disesuaikan, memungkinkan Anda untuk menyesuaikan siklus kerja sesuai dengan nilai suhu.

Kemungkinan masalah overclocking

Selama kenalan kami dengan GeForce GTX Titan perwakilan perusahaan menunjukkan kepada kami utilitas internal yang mampu membaca status berbagai sensor: sehingga menyederhanakan proses mendiagnosis perilaku non-standar kartu. Jika suhu GK110 naik terlalu tinggi selama overclocking, bahkan saat throttling, informasi ini akan dicatat dalam log.

Sekarang perusahaan mengimplementasikan fungsi ini melalui aplikasi Precision X, yang meluncurkan "alasan" algoritme peringatan jika selama akselerasi ada tindakan yang mencegah kelanjutan efektifnya. Ini adalah fitur hebat karena Anda tidak perlu lagi menebak potensi kemacetan. Ada juga indikator batas maksimal OV yang akan memberi tahu Anda jika Anda telah mencapai tegangan puncak absolut GPU. Dalam hal ini, ada risiko membakar kartu. Anda dapat menganggap ini sebagai saran untuk menurunkan parameter overclocking.

Ulasan kartu video NVIDIA GeForce GTX 780 | Tempat uji dan tolok ukur


Konfigurasi bangku tes
CPU Intel Core i7-3770K (Ivy Bridge) 3.5GHz @ 4.0GHz (40*100MHz), LGA 1155, cache L3 bersama 8MB, Hyper-Threading diaktifkan, Hemat daya diaktifkan
papan utama Gigabyte Z77X-UD5H (LGA 1155), chipset Z77 Express, BIOS F15q
RAM G.Skill 16GB (4 x 4GB) DDR3-1600, F3-12800CL9Q2-32GBZL @ 9-9-9-24 pada 1.5V
Alat penyimpanan SSD m4 penting 256GB SATA 6Gb/dtk
Kartu video Nvidia GeForce GTX 780 3 GB

AMD Radeon HD 7990 6 GB

AMD Radeon HD 7970 GHz Edisi 3 GB

Nvidia GeForce GTX 580 1,5 GB

Nvidia GeForce GTX 680 2 GB

Nvidia GeForce GTX Titan 6 GB

Nvidia GeForce GTX 690 4 GB

Sumber Daya listrik Cooler Master UCP-1000W
Perangkat lunak dan driver sistem
OS Windows 8 Professional 64-bit
DirectX DirectX 11
Grafik. pengemudi AMD Katalis 13.5 (Beta 2)
Nvidia GeForce Rilis 320.00
Nvidia GeForce Rilis 320.18 (untuk GeForce GTX 780)

Mendapatkan nilai frekuensi gambar yang benar

Pembaca yang jeli akan melihat bahwa angka-angka di halaman berikut lebih sederhana daripada di ulasan. AMD Radeon HD 7990, dan ada alasan untuk itu. Sebelumnya, kami menyajikan kecepatan bingkai sintetis dan nyata, dan kemudian menunjukkan fluktuasi waktu antara bingkai bersama dengan bingkai yang dijatuhkan dan pendek. Faktanya adalah bahwa metode ini tidak mencerminkan sensasi nyata dari kartu video, dan di pihak kami tidak adil untuk mengutuk AMD, berdasarkan indikator sintetis dari waktu tunda antar frame.

Itulah sebabnya, bersama dengan fluktuasi frekuensi gambar, kami kini menyediakan metrik kecepatan bingkai dinamis yang lebih praktis. Hasilnya tidak setinggi itu, tetapi pada saat yang sama mereka sangat fasih dalam permainan di mana AMD mengalami kesulitan.

Tes dan pengaturan
Medan Perang 3 Kualitas Grafik - Ultra, v-sync off, 2560x1440, DirectX 11, Going Hunting, 90 detik, FCAT
Jauh Menangis 3 Kualitas Grafik - Ultra, DirectX 11, v-sync off, 2560x1440, jalankan rute Anda sendiri, 50 detik, FCAT
Perbatasan 2 Kualitas Grafik - Tertinggi, PhysX Rendah, Penyaringan Anisotropik 16x, 2560x1440, Jalankan Rute Anda Sendiri, FCAT
Hitman: Absolution Kualitas grafis - Ultra, MSAA nonaktif, 2560x1440, benchmark bawaan, FCAT
The Elder Scrolls V: Skyrim Kualitas Grafik - Ultra, FXAA Diaktifkan, 2560x1440, jalankan rute Anda sendiri, 25 detik, FCAT
3DMark Tolok Ukur Serangan Api
Bioshock tak terbatas Kualitas grafis - Ultra, DirectX 11, kedalaman bidang diffuser, 2560x1440, benchmark bawaan, FCAT
krisis 3 Kualitas grafis - sangat tinggi, MSAA: Rendah (2x), teks resolusi tinggi, 2560x1440, berjalan di rute Anda sendiri, 60 detik, FCAT
perampok makam Kualitas Grafik - Ultimate, FXAA diaktifkan, pemfilteran anisotropik 16x, Rambut TressFX, 2560x1440, jalankan rute Anda sendiri, 45 detik, FCAT
Lux Mark 2.0 Biner 64-bit, Versi 2.0, Sala Scene
SiSoftware Sandra 2013 Professional Sandra Tech Support (Engineer) 2013.SP1, Kriptografi, Kinerja Analisis Keuangan


ISI