Nvidia RTX: tutti i dettagli e i migliori monitor per sfruttarle

Poco tempo fa, è stata annunciata una nuova generazione di schede grafiche NVIDIA, marchio ormai garanzia per quanto riguarda il gaming ad alte prestazioni. Sono state presentate alla Gamescom, durante la quale l’amministratore delegato della società Jen-Hsun “Jensen” Huang ha rivelato la nuova serie di schede grafiche GeForce 20, con  principale caratteristica, l’implementazione in hardware del Ray Tracing. La sigla che segue il nome GeForce, GTX nelle famiglie precedenti, è stata cambiata in RTX, facendo riferimento proprio all’uso di questa tecnologia.
La più potente delle tre è la GeForce RTX 2080Ti, 4352 Cuda Core, 11 GB di memoria GDDR6 con ampiezza di banda di 616 GB/s. Ha bus memoria di 352-bit e la velocità di quest’ultima di 14 Gbps. La GPU ha valore di base 1350 MHz, ma raggiunge i 1635 Mhz in overclock. Per le “minori” , la GeForce RTX 2080 ha 23 Turing SM e 2944 CUDA core, mentre la RTX 2070 con 18 Turing SM e 2304 CUDA core.

Ma esattamente in cosa consiste il Ray Tracing? Questa tecnica, consente il rendering della grafica in tempo reale, finora risultata difficile a causa dell’insufficiente capacità di elaborazione dell’hardware in commercio.
Consiste nel proiettamento dei raggi di luce dal punto di osservazione agli oggetti, i quali poi, rimbalzando nuovamente dagli oggetti al resto della scena, danno vita a una relazione fonte di luce – oggetto molto realistica, tutto basato su un algoritmo che segue il percorso tracciato da ogni singolo raggio al fine di determinare il colore del pixel su cui è proiettato, fermandosi non appena la destinazione risulta essere definitiva; in caso contrario viene gestito l’effetto conseguente di riflessione o rifrazione.
Nella tradizionale tecnica di rasterizzazione, l’illuminazione nella scena virtuale veniva gestita a partire dalla fonte di illuminazione, invece il Ray Tracing parte dal punto di osservazione.
Viene risolto quindi un problema di ottimizzazione creatosi con il progredire della qualità grafica dei videogiochi con rasterizzazione, dipendente dell’aumento delle fonti di illuminazione; avendo motori grafici supportanti l’illuminazione globale, il numero di fonti di illuminazione non è più importante quanto piuttosto il singolo pixel della scena.

Queste nuove schede rappresentano a tutti gli effetti una rivoluzione nel campo della grafica ad alte prestazioni, ed è stata anche coniata una nuova unità di misura, Giga Rays, per poter misurare la capacità di una specifica configurazione hardware di gestire il Ray Tracing. Ad esempio, gli RT core dell’architettura Turing elaborano 10 Giga Rays/s; in particolare, Jensen ha dichiarato che la RTX 1080 Ti è in grado di gestire 1,21 Giga Rays/s.
La nuova architettura Turing, caratteristica fondamentale delle nuove schede, in breve funziona così: in un primo momento partono shader e Ray Tracing, poi le operazioni in FP e INT. Infine, entrano in campo i Tensor Core. In futuro questi ultimi, potranno innalzare esponenzialmente la risoluzione di immagini non dettagliate, ottimizzando di molto il lavoro delle risorse hardware.

Stando ai benchmark forniti da Nvidia, le nuove RTX hanno un potenziale del 50% superiore in fatto di prestazioni rispetto alle schede precedenti con architettura Pascal, per quanto riguarda la gestione del Ray Tracing.
Ovviamente, le schede sono state confrontate mediante videogiochi tra cui Wolfenstein II: The New ColossusFinal Fantasy XV e Shadow of the Tomb Raider e, dati alla mano, la RTX 2080 ha il 150% della potenza rispetto alla GTX 1080, constatato anche tra 2070 e 1070, e addirittura tra 2080 Ti e 1080 Ti.
E mentre Shadow of the Tomb Raider non supera i 1080p e 40 fps, Battlefield V gira a 1080p con 60 frame al secondo sulla RTX 2080 Ti con Ray Tracing.
Secondo NVIDIA, il Ray Tracing verrà impiegato sempre di più nei giochi di prossima generazione, che l’architettura Turing permetterà di gestire con prestazioni decisamente superiori.

Chi volesse lasciare l’architettura Pascal per acquistare una scheda video Turing, dovrà fare i conti però con un prezzo che al momento è praticamente doppio, ma soprattutto perché sfruttare le nuove risorse richiede una forte limitazione in termini di risoluzione e frame rate, in particolare per quanto riguarda le 2070 e 2080.
Pertanto, nonostante i monitor 4K siano l’ultima moda, se si vuole investire su una RTX per sfruttare il Ray Tracing, l’ideale sarebbe abbinarlo ad un televisore Full HD, ovvero composto da una griglia di pixel 1920 x 1080, detto anche 1080p, o a un Quad HD, con risoluzione 2560 x 1440.
A questo proposito, abbiamo stilato una lista dei migliori monitor per PC in Full HD e Quad HD.

HP 22W

Caratteristiche:

  • Pannello IPS da 21.5″
  • Risoluzione Full HD (1920 x 1080)
  • Refresh rate a 60 Hz
  • Entrate video HDMI VGA con cavo HDMI incluso
  • Non provvisto di audio integrato

Prezzo consigliato: 129.99€
Prezzo attuale su Amazon: 89€

Samsung C24F390

Caratteristiche:

  • Pannello VA da 23.5″ curvo
  • Risoluzione Full HD (1920 x 1080)
  • Refresh rate a 60 Hz
  • Entrate video HDMI e VGA con cavo HDMI incluso
  • Non provvisto di audio integrato

Prezzo consigliato: 219€
Prezzo attuale su Amazon: 128,80€

LG 25UM58

Caratteristiche:

  • Pannello IPS Ultra Wide da 25″
  • Risoluzione Full HD (2560 x 1080)
  • Refresh rate a 60 Hz
  • Entrate video 2x HDMI con cavo HDMI incluso
  • Non provvisto di audio integrato

Prezzo consigliato: 199€
Prezzo attuale su Amazon: 158,92€

AOC Q3279VWF

Caratteristiche:

  • Pannello MVA da 32″ con risoluzione Quad HD (2560 x 1440)
  • Refresh rate a 75 Hz
  • Entrate video HDMI, DisplayPort, DVI VGA con cavi VGA, DisplayPort e HDMI inclusi
  • Non provvisto di audio integrato

Prezzo consigliato: 299€
Prezzo attuale su Amazon: 204,99€

BenQ BL2420PT

  • Pannello IPS da 24″
  • Risoluzione Quad HD (2560 x 1440)
  • Refresh rate a 60 Hz
  • Entrate video HDMI, DisplayPort, DVI VGA con cavi VGA e DVI inclusi
  • Non provvisto di audio integrato

Prezzo consigliato: 409€
Prezzo attuale su Amazon: 253,89€

Lenovo L27q-10

Caratteristiche:

  • Pannello IPS da 27″
  • Risoluzione Quad HD(2560 x 1440)
  • Refresh rate a 75 Hz
  • Entrate video HDMI e DisplayPort con con cavo HDMI incluso
  • Non provvisto di audio integrato

Prezzo consigliato: 299€
Prezzo attuale su Amazon: 249€




Nvidia: la nuova GeForce GTX verrà lanciata a luglio?

Secondo i rumors, Nvidia si starebbe preparando a lanciare una scheda grafica di nuova generazione, la GeForce GTX, che avrà come numero identificativo 1180 o 2080, anche se tale nomea non è ancora stata ufficializzata dall’azienda.
La notizia è stata divulgata da TomsHardware e da fonti del settore che sembrano concordi su un probabile lancio a luglio con i modelli Founders Edition, mentre gli altri modelli personalizzati dai partner aggiuntivi AIB verranno lanciati in seguito, tra agosto e settembre.
Inoltre, TomsHardware ha pubblicato un’interessante analisi del processo di convalida seguito dall’AIB per la creazione e il lancio di una nuova scheda: i nuovi dispositivi devono superare molteplici controlli di progettazione e design e, successivamente, ne viene testata l’interferenza elettromagnetica. Superati i test, servono diverse settimane perché si concluda il rilascio finale del BIOS, la produzione in serie e la spedizione.
La prossima GeForce GTX, stando a quanto si dice, sarà davvero innovativa. Secondo le fonti, sarà basata sulla piattaforma Turing di Nvidia, anche se non è ancora chiaro se si tratti di una variante di Volta o un’architettura totalmente nuova.
Sfortunatamente non c’è stato modo di sapere con certezza alcun dettaglio tecnico, ma secondo WCCFTech, la nuova GeForce GTX probabilmente avrà 3.584 CUDA core (contro i 2.560 della 1080), da 8 GB a 16 GB di dati di connessione di memoria GDDR6 (quando la 1080 ne ha 8) attraverso un bus a 256 bit, e raggiungerà intorno a 1.6 GHz parlando dei core e a 1.8 GHz per quanto riguarda il boost (mentre la 1080 raggiunge come massimo gli 1.733 MHz).




Le criptovalute sono davvero l’unica causa dell’aumento di prezzo delle GPU?

Principalmente, la colpa della temporanea sparizione delle schede grafiche è stata data alle criptovalute. Un altro bersaglio sono stati i produttori di GPU, Nvidia e AMD, accusati di non produrne abbastanza e i partner Asus, EVGA, Gigabyte, MSI, per averne aumentato i prezzi.
In realtà i maggiori responsabili di tutto questo sono in particolare i produttori di DRAM. Nel 2015 e nel 2016, le DRAM erano facilmente reperibili e costavano pochissimo, quindi investire in fonderie aggiuntive per produrre ancora più DRAM per soddisfare le esigenze di un mercato già saturo non sembrava una buona idea.
In sostanza, i prezzi e la richiesta di DRAM stavano precipitando. Nel frattempo, stava aumentando la domanda delle NAND, le quali sono spesso fabbricate nelle stesse fonderie delle DRAM. La produzione richiede tempo e può costare molto, il che significa che i piani vengono messi in atto mesi o addirittura anni prima, prevedendo di vendere più NAND e meno DRAM (e di passare alla NAND 3D, ma questo è un’altra storia).
Gli smartphone hanno iniziato a utilizzare più DRAM e NAND: AMD ha lanciato Ryzen, e le battaglie CPU del 2017 hanno spinto gli utenti ad aggiornare sempre più spesso le componenti del PC. Le automobili sono diventate un mercato sempre più proficuo per i circuiti integrati DRAM: la maggior parte delle auto moderne ha da 4 a 8 GB di DRAM e nei modelli con funzionalità avanzate come la tecnologia Lane Assist e Self-Driving la quantità di DRAM usata può quadruplicare. Inoltre sono stati prodotti milioni di piccoli dispositivi IoT, ciascuno con una piccola parte di DRAM.

Ma il punto focale di tutto ciò, è che le schede grafiche hanno bisogno di molta DRAM. Con più domanda che offerta, i prezzi potevano solo salire; anche senza i minatori, i prezzi delle schede grafiche sarebbero aumentati comunque verso la fine del 2017 e l’inizio del 2018: i kit da 16GB di memoria DDR4-2400 e DDR4-2666 costavano tra i 40 e i 50€ nella metà del 2016; quegli stessi kit oggi vengono venduti per 140€ o più. Gli stick DDR4, vengono fabbricati nella stessa struttura dei GDDR5, GDDR5X e HBM2, e devono lottare contro il tempo sulla linea di produzione.
Che cosa significa questo per le schede grafiche? Il prezzo da contratto per il set GDDR5 è stato tra i 30 e i 40€ per 8GB quando sono state lanciate la GeForce 1080 e 1070 di Nvidia, insieme alla Radeon RX 480/470 di AMD. Oggi, i prezzi del contratto per lo stesso set GDDR5 da 8GB sono intorno agli 80€. Ma ogni livello della catena di approvvigionamento vuole la sua parte, quindi se il costo base aumenta di 40€ su una scheda grafica, complessivamente il prezzo di vendita complessivo aumenterà di 80€.
Se già per i set GDDR5 è un momento difficile, è ancora peggiore per gli HBM2; 8GB di HBM2 possono arrivare a costare 140€ e usare questo sistema, è già comunque più costoso a causa della necessità di un interposer al silicio. Sulla base di queste informazioni, si può intuire che Vega 56 e Vega 64 non torneranno mai agli obiettivi iniziali di vendita del MSRP ammontanti a 330€ e 400€, il che fa si che nonostante possano competere con la GTX 1070/1070 Ti/1080 per quanto riguarda le prestazioni, diventano una scelta sconveniente con un prezzo del 25 o 50% in più.

Nvidia e AMD non hanno ufficialmente alzato i prezzi sulle loro schede grafiche pre-costruite, ma con i modelli Founders Edition per lo più di serie (tranne il 1080 Ti), vale la pena notare che le carte FE in genere costano 40€ in più rispetto al MSRP di base. I modelli di Founders Edition aiutano a eliminare almeno un livello nella catena di approvvigionamento. In via ufficiale, sembra che i prezzi dei contratti per i produttori di schede grafiche siano aumentati, il che in parte giustifica il costo più elevato della DRAM. Anche ora, le GPU “budget friendly” che originariamente costavano tra i 90 e i 110€ sono vendute tra i 130 e i 160€
I produttori di DRAM (Samsung, SK-Hynix, Micron) stanno aumentando la loro produzione di DRAM e costruendo nuove strutture a causa della grande richiesta. Ma anche con l’aumento della produzione dovrebbe passare un po’ di tempo prima che i prezzi delle DRAM si avvicinino a quelli del 2016.
Cosa succederà nel 2018? AMD sembra essere in silenzio stampa e, a parte una riduzione di 7nm della Vega destinata alle applicazioni di machine learning, non ci si aspetta di vedere alcuna nuova scheda grafica principale lanciata quest’anno.
Per Nvidia la storia è diversa, con la GTX 2080/2070 o GTX 1180/1170 molto diffusa che verrà lanciata in agosto o settembre e, se si considerano le architettura di Turing, Ampere e Volta, sembra che le nuove GPU potrebbero risultare simili al Volta GV100, tranne che per il Tensor Cores e il supporto FP64.
La ragione per l’aumento dei prezzi relativo alle parti della serie 10 è la stessa, i costi della DRAM più elevati, combinati con l’aumento della domanda da parte di più settori (giochi, automotive, IA e crittografia).