Shadow of the Tomb Raider – Bellezza Letale

Il reboot di una delle serie più importanti della storia dei videogame, con l’intrinseca riscrittura di un’icona pop come Lara Croft, è stato un successo. Con l’ultimo capitolo di questa ideale trilogia, Shadow of the Tomb Raider, possiamo dirlo ma, diciamocela tutta: era più semplice sbagliare che fare bene.
Sin dal 2013, anno di debutto della nuova archeologa e delle sue avventure, Tomb Raider ha saputo a poco a poco abbattere i pregiudizi dei fan, portando capitoli interessanti dal punto di vista qualitativo (ricordiamo infatti l’eccellente Rise of the Tomb Raider) e soprattutto nella ricostruzione di una Lara Croft più umana, con un percorso di crescita che l’ha portata a essere (quasi) l’eroina che tutti conosciamo. Con Shadow of the Tomb Raider, il focus è incentrato sui tratti caratteriali e conseguenze negative dell’agire dell’archeologa, in un viaggio attraverso i suoi traumi infantili e insicurezze che finora, ha ben mascherato.

E se poi te ne penti?

Da quando Lara era formata da pochi e spigolosi poligoni, il suo agire non ha mai portato a conseguenze particolarmente fatali per il genere umano: si trovava una reliquia e la si prendeva, senza far troppe domande. Ma come Indiana Jones insegna, non è tutto oro ciò che luccica e questa volta, le conseguenza si faranno sentire. Sin dal prologo, assistiamo a un lato che poco si era visto nella trilogia: la superbia, il credere di essere fondamentale per il destino del mondo, unica protettrice dell’umana stirpe. Inutile dire come le cose prenderanno una brutta piega, dopo aver creduto di aver fatto la scelta giusta. L’avverarsi di un’antica profezia Maya getterà nel caos Messico e Perù e Lara, non potrà far altro che sentirsi in colpa per quanto sta avvenendo.
Comincia così un lungo cammino di redenzione per la protagonista, esplorando se stessa, la sua infanzia e il suo ruolo nel mondo, un cammino, come da tradizione, intriso di pericoli, a cominciare dalla Trinità, una presenza costante ma forse fin poco tangibile. L’avventura, tra esplorazione, stealth e azione frenetica, riesce a intrattenere anche grazie a una rinnovata regia non solo nelle cinematografiche cutscene ma anche in game, mostrando sempre i tratti più spettacolari o struggenti dell’azione. Da questo punto di vista Shadow of the Tomb Raider dà il meglio di se, trasponendo una campagna completa, suggestiva e contornata da missioni secondarie presenti nelle località che potremmo utilizzare quasi come degli hub. Queste missioni (forse un po’ troppo vecchia scuola), permettono, alla loro conclusione, lo sblocco di nuove armi ed equipaggiamento ma con l’effetto collaterale di frammentare fin troppo la narrazione. In qualche modo infatti, purché non obbligatorie, queste rallentano, sino quasi ad arrestare le quest principali, che appesantiscono ulteriormente il vero problema (e forse unico) di questo titolo: il ritmo. Se è vero che ci troviamo di fronte a un racconto maturo, con i giusti colpi di scena e la giusta dose di pathos, la narrazione non procede mai con ritmi costanti risultando veramente interessante solo in alcuni frangenti. In qualche modo, con le modifiche di gameplay adottate, non si è riusciti a bilanciare il tutto, anche perché allargare la natura del franchise verso l’open world, non sembra la scelta azzeccata.
A mostrare il fianco – a tratti – è anche la sceneggiatura, che riesce a esaltare molti momenti chiave ma anche a neutralizzare alcuni dei momenti più empatici della protagonista e dei comprimari, svolti forse con troppa fretta e superficialità.
Nonostante tutto però – soprattutto se avete giocato i due prequel – Shadow of the Tomb Raider vi terrà incollati allo schermo, proprio per poter vedere con i vostri occhi come una ragazza fragile, ingenua ma con tanti sogni nel cassetto, sia riuscita a divenire un donna forte, in grado di cambiare il proprio destino.

Sangue e Fango

Come prevedibile Shadow of the Tomb Raider è l’evoluzione (finale?) di quanto visto finora, dal 2013 a Rise of the Tomb Raider. Il cambio di location ha permesso alcune implementazioni, a cominciare dall’uso del rampino, necessario per raggiungere appigli altrimenti inaccessibili, agganciandosi alle pareti o permettendoci di salire o scendere in sicurezza. Questo attrezzo si dimostra utile anche nelle fasi stealth, in cui potremmo letteralmente impiccare il povero malcapitato tra i rami degli alberi, alla stregua di quanto avveniva in Assassin’s Creed III con protagonista Connor Kenway. Ma l’agire nell’ombra è facilitato anche dall’uso di altri nuovi elementi, come trappole da innestare nei cadaveri o speciali frecce in grado di mandare in delirio i nemici, uccidendosi a vicenda. L’approccio rimane dunque abbastanza libero e anche l’ambiente circostante arriva in soccorso, tra innumerevoli alberi e vegetazione in grado di fornire il giusto riparo. All’interazione ambientale consona, si aggiunge anche la possibilità di poter utilizzare del fango per ricoprire il corpo di Lara, rendendola invisibile (soprattutto la notte) a fugaci occhiate. È in questi frangenti che ci si toglie le grosse soddisfazioni, potendo sfruttare tutto l’ambiente a nostro vantaggio tra alberi, cespugli, pareti, alture e acqua. In questi frangenti Lara Croft è la cacciatrice, disposta a tutto pur di fermare la Trinità che, in questi frangenti, può contate su un’intelligenza artificiale leggermente sopra la media, in grado di stanarci con l’utilizzo di granate e di accerchiarci prendendoci alla sprovvista.
Come già accennato, l’avventura di Lara può essere arricchita da incarichi secondari più o meno interessanti, presenti all’interno delle città che visiteremo. In questi ambienti regna la tranquillità dove, interagire con gli abitanti, diventa fondamentale non solo per sbloccare nuovo equipaggiamento ma anche per scovare segreti e tesori sparsi per la mappa. Il problema di queste sezioni, benché ben congegnate, è che hanno l’effetto collaterale di diluire fin troppo la narrazione con elementi che in fin dei conti, non sono fondamentali. Aggiungere tali elementi, quasi da “open world”, in un’avventura nello stile di Tomb Raider è il problema più evidente: manca l’amalgama necessaria per apprezzare queste “pause” dalla narrazione principale e purché si tratti di location suggestive, la voglia di proseguire è fin troppo più grande rispetto a quella di eseguire piccoli incarichi secondari. Fortunatamente però, tornano, più grandi, più complesse e artisticamente più ispirate, le Tombe della Sfida e le Cripte. In questo terzo capitolo, esse assumono un ruolo attivo nello sviluppo della protagonista sbloccando, alla loro risoluzione, equipaggiamento (soprattutto vestiario) ma soprattutto abilità bonus e accessibili solo in questo caso, come la possibilità di trattenere maggiormente il respiro sott’acqua. Questo, regala finalmente la giusta importanza all’esplorazione delle tombe, ovviamente il punto focale dell’intero franchise, rispondendo alle critiche verso i capitoli precedenti in cui tutto ciò risultava del tutto secondario. Le abilità di Lara comunque, sono molteplici e suddivise in tre branche principali; la diversificazione delle capacità è la chiave per la sopravvivenza e in questo Crystal Dynamics ed Eidos Montreal hanno svolto un egregio lavoro dando l’opportunità al giocatore di “lavorare di fino” per personalizzare la nostra eroina. È tutto il gioco a invogliare a esplorare e a potenziale le abilità di Lara, sfruttando le capacità acquisite eventualmente nel new game + e nei contenuti aggiuntivi.
Dal punto di vista meramente action, dove la fasi shooting la fanno da padrone, non vi sono novità rilevanti: probabilmente il punto più debole del pacchetto, non riesce a risaltare quanto dovrebbe, contando su animazioni dedicate troppo legnose; cambiare arma, mirare, sparare e ricaricare non avviene con la giusta fluidità, finendo alle volte per preferire di gran lunga eliminare in silenzio i vari nemici. Nulla che intacchi l’avventura, ma forse è arrivato il momento di “svecchiare” queste sezioni, magari prendendo spunto dal suo rivale maschile (Nathan Drake, ndr).

Sinestesia

Come accaduto soltanto per la recensione di Hellblade: Senua’s Sacrifice, anche questa volta si parte dall’audio, un lavoro eccellente sotto tutti i punti vista. Le musiche, composte e dirette da Rob Bridgett, sono sempre adatte al contesto, creando atmosfere uniche non solo nei momenti riflessivi o nostalgici ma anche quando l’azione si fa via via più frenetica. Tutto viene enfatizzato anche dall’ausilio di alcuni strumenti tipici Maya, atti a ricreare probabilmente una delle migliori colonne sonore di questo 2018. Ma anche il doppiaggio (come da tradizione) non è da meno: l’ormai storica voce di Benedetta Ponticelli riesce a trasporre una Lara in costante conflitto con se stessa, attanagliata dai sensi di colpa senza andar mai sopra le righe. Tutti i dialoghi dell’archeologa restituiscono un personaggio reale, così come lo sono i comprimari, a cominciare dal suo fedele Jonah (Diego Baldoin), amico, guida e fratello maggiore di una Lara in via di maturazione. Ma il lavoro che lascia più di stucco è quello eseguito sugli effetti sonori e la loro tridimensionalità (consigliato vivamente l’utilizzo di un buon paio di headset). Tutti i suoni risentono delle varie superfici presenti, con un contrasto netto tra interni ed esterni; tutto è al posto giusto e in grado di generare ancor di più un forte senso di immedesimazione.
La parte meramente visiva invece spicca come una delle produzioni migliori degli ultimi anni e sicuramente il miglior Tomb Raider visto sinora. Tutti gli ambienti di gioco, dai piccoli villaggi alle intricate foreste godono di innumerevoli particolari, con l’attenzione minuziosa per i dettagli. Che siano baracche o semplici alberi, tutto è realizzato con cura, così come i modelli dei personaggi principali (Lara ovviamente splendida), esaltati da una regia che raramente è visibile in un videogioco. Il salto di qualità a livello narrativo, come detto, è forse mancato, ma il modo in cui vengono raccontate le vicende hanno subito un boost eccezionale, non solo per quanto riguardo le scene più adrenaliniche, mostrando ampie panoramiche in grado di risaltare l’impatto empatico con quanto avviene, ma anche un’attenzione particolare per i primi piani e durante alcuni momenti costruiti ad hoc per rimanere impressi per sempre nella mente dei giocatori. Tutto questo ben di dio, è purtroppo macchiato da qualche imprecisione nella fisica degli oggetti, qualche piccolo glitch e compenetrazione di troppo, quasi a segnalare un ultimo mancato intervento di “pulizia”. Nulla comunque che possa minare l’eccellente lavoro svolto da Crystal Dynimics.

In conclusione

L’ultimo capitolo della trilogia reboot dedicata a Lara Croft, riesce anche questa volta a fare centro. Nonostante la struttura narrativa soffra di alcuni cali di ritmo, dovuti anche all’introduzione di alcuni elementi di gameplay che forse mal si sposano con le caratteristiche dell’avventura proposta, il cammino di redenzione dell’archeologa più famosa al mondo riesce a trasmettere le giuste emozioni e il giusto grado di empatia. Il lavoro svolto da Crystal Dynamics dunque è di ottimo livello, riconfermando quanto di buono svolto dai precedenti  capitoli, migliorando in toto tutta la parte tecnico-artistica, in cui spiccano audio e regia. Shadow of the Tomb Raider chiude il cerchio su una Lara molto diversa dall’icona pop degli anni ’90, ma sicuramente più vicina a noi, tralasciando ricchezza, l’atletismo di Ercole e la bellezza afrodisiaca. Anche questa Lara, ci piace.

Processore: Intel Core I7 4930K
Scheda video: Nvidia Gigabyte GTX760 4GB
Scheda Madre: MSi X79A
RAM: Corsair Vengeance 16GB
Sistema Operativo: Windows 10




La creazione di un Open World

Con l’avanzare delle tecnologie, la creazione di nuovi interi mondi digitali in ambito videoludico è divenuta realtà. Dai primi esponenti del genere Open World a oggi l’evoluzione è stata enorme, sino ad arrivare ai recenti Assassin’s Creed: Odyssey, Red Dead Redemption II e Cyberpunk 2077. L’immersione del videogiocatore in un contesto credibile non è solo l’obbiettivo principale: intrattenere, prolungare la durata del titolo e sopratutto restituire un senso di crescita e libero arbitrio, sono tra le componenti più difficili da bilanciare anche perché, questi titoli, possono viaggiare su un limbo molto sottile, dividendosi tra il divertimento e la noia. Come nasce dunque un Open Word e come si sviluppa sino alla sua pubblicazione non è noto a tutti, e oggi cercheremo di raccontarlo. Si tratta di uno dei generi di più complessa elaborazione in assoluto, in poche parole, una “bomba alla legge di Murphy” pronta a esplodere.

Il Mondo in uno Schermo

Sembra incredibile ma gli open world conoscono un proprio Medioevo: più di dieci anni fa infatti, titoli come Beyond Good & Evil, Gran Theft Auto III e Far Cry, si attestavano già su buoni livelli se paragonati alle macchine su cui dovevano girare. Ma a un certo punto, gli open world cominciarono a sparire, in favore di avventure più lineari e, di conseguenza, più “semplici” da produrre. Chiedete al pubblico il perché di questa scelta: fatto sta che l’evoluzione di questa tipologia di videogame subì un drastico rallentamento e per questo l’avvento di saghe come Assassin’s Creed, dopo anni di “buio”, fu una vera e propria rivoluzione, che contribuì a rendere la categoria così come la conosciamo ora. Con l’avvento delle console di attuale e precedente generazione le cose cominciarono a farsi interessanti, arrivando a quel The Witcher III divenuto pietra miliare e nuovo metro di paragone del genere, almeno fino a oggi.
La creazione di un Open World varia a seconda dell’obiettivo finale, racchiudendosi in due macro universi: quelli basati sul mondo reale e quelli fittizi. Entrambi sono uniti dalla gigantesca mole di lavoro necessaria a produrli, che non si limita alla creazione del mondo in sé ma, sopratutto, al bilanciamento generale, al fine di restituire il giusto senso di progressione.
I primi si basano su rilevamenti sul campo, al fine di ricreare nella maniera più dettagliata possibile strade, palazzi, piazze che potremmo vedere dal vivo; ovviamente tutto in scala. Esempi di questo tipo ne abbiamo a bizzeffe come ad esempio il dimenticato The Gateway (2002) in grado di riprodurre una piccola Londra su Playstation 2, passando ovviamente per gli Assassin’s Creed fino ai giorni nostri, dove i rilievi effettuati, soprattutto nella planimetria delle città e dei luoghi storici raggiunge livelli sopraffini. Ma c’è chi ha fatto di più e sempre in casa Ubisoft: The Crew, racing arcade immerso negli interi Stati Uniti. Era possibile letteralmente viaggiare da New York a Los Angeles, (impiegando circa tre ore; niente male) e visitare non solo le maggiori città americane ma anche i piccoli centri e luoghi più famosi dei coloni di tutto il mondo. Creare degli ambienti reali ha la propria dose di responsabilità e, essendo il videogioco un’opera globale, è possibile incappare in qualche imprevisto, come la scelta di censurare statue patrimonio dell’umanità, per evitare di urtare la sensibilità di qualcuno (vedi Assassin’s Creed: Origins). E per chi crea un mondo da zero? La difficoltà viene decuplicata, non tanto per la realizzazione tecnica quantoper quella artistica: anche se fittizio, un mondo possiede delle sue regole, e far sì che l’ambiente di gioco sia coerente con se stesso è la prima regola da rispettare. Del resto abbiamo visto come in The Elder Scrolls V: Skyrim e Fallout 3 tutto questo è estremamente rilevante in quanto, il contesto visivo è la chiave di volta per far sì che la narrazione possa attecchire su solide basi. Questo perché alle volte, un open world può essere anche un pretesto, “mascherando” la poca qualità della trama con la frammentazione della stessa in varie quest, principali e non o, ancora peggio, non sfruttando l’ambiente e il contesto creato. Assassin’s Creed è sempre un franchise da cui è possibile trarre numerosi spunti e anche in questo caso ci accontenta: Unity è stato un disastro per tanti motivi, ma sopratutto perché il suo svolgimento sembra del tutto slegato dalla Parigi rivoluzionaria di fine 1700. Immergere un videogiocatore in un contesto visivo credibile è la base su cui si poggia un open world in tutte le sue declinazioni, una sorta di regola scrittore-lettore che, una volta infranta, riduce di molto l’appeal verso il titolo interessato.

Faccio cose, vedo gente

Dopo aver modellato un nuovo mondo come novelle divinità, arriva la parte più complicata, riassunta nella domanda “e mo’ che ci metto?”. È chiaro che questo processo arriva dopo centinaia di ore di brainstormig, storyboard, idee azzeccate e sbagliate fino a quando si arriva alle decisioni finali. In questo frangente molto dipende dal tipo di videogioco creato che può andare da FPS, TPS, Racing, RPG e persino spaziale. In un racing game, ad esempio, come l’eccellente Forza Horizon 4, il focus, oltre ad andare alla realizzazione dei modelli delle auto, è indirizzato a rendere l’intero ambiente di gioco abbastanza vario da poterne definire diverse regioni, enfatizzandone magari differenze di flora, fauna e clima, oltre a cercare di restituire il giusto colpo d’occhio nelle grandi città. In questo caso, il numero di NPC presenti ad esempio ha una limitata rilevanza così come, elementi di contorno che poco hanno a che fare con le corse sfrenate a bordo di bolidi.  Tutt’altra storia con open world con componente narrativa ed esplorativa come Assassin’s Creed: Odyssey e Red Dead Redemption II, anche se con approcci diametralmente opposti. Entrambi però sembrano aver risolto un problema intrinseco presente in mappe molto vaste: il vuoto. È capitato, in diversi frangenti, che vastità non fa rima con divertimento, presentando zone senza elementi particolari tra altre che esplodevano di vita. Questo equilibrio spezzato, visibile anche nell’acclamato The Legend of Zelda: Breath to the Wild (ma non preoccupatevi, verrà elogiato successivamente), è stato il tallone d’Achille di quasi tutti gli open world ma fortunatamente, grazie forse a macchine più performanti (o magari una maggiore attenzione), questo problema sembra essere risolto: quest, zone intere da esplorare, segreti o semplici scorci mozzafiato, sono la cura di questo male, ma che Rockstar al contrario di Ubisoft, è riuscita a plasmare nella maniera più naturale possibile.
Ma esistono titoli che fanno degli ambienti ricreati il loro punto di forza: Dark Souls vanta una direzione artistica che difficilmente è riscontrabile in altri titoli, con una cura maniacale necessaria, perché è proprio la mappa che ci parla. Questa, visibile quasi interamente da ogni dove e benché non sia un open world in senso stretto, è utile a capire quanto sia importante inserire elementi corretti, coerenti e soprattutto in grado di risaltare agli occhi del videogiocatore.
Quello che colpisce nel titolo Nintendo e Rockstar precedentemente citati è la capacità di reinventarsi, cercando di portare qualcosa di nuovo. Link è immerso in un mondo sconosciuto e libero da vincoli dettati da missioni in sequenza da svolgere per portare al termine il titolo. Siamo vicini alla pura libertà d’azione in cui, il progresso avviene in maniera del tutto naturale, un’approccio molto diverso dai rivali, probabilmente anche per limitazioni hardware; ma non basta fare di necessità virtù: bisogna saperlo fare. Il team di sviluppo è riuscito a portarci tra le mani un’avventura genuina, una scelta che è stata ben premiata durante tutto il corso del 2017. Ma con Red Dead Redemption si è andati oltre, e sicuramente piccolo anticipo di quel che vedremo nei prossimi anni: un mondo vivo, in costante evoluzione e mai uguale a sé stesso; l’evoluzione, visibile sia negli ambienti che fra i personaggi giocanti e non, è un elogio alla cura per il dettaglio, spiegando anche i circa dieci anni di sviluppo. Ed è proprio questo il punto: l’open world è qualcosa di mastodontico e serve il giusto tempo per poter portare qualcosa di innovativo e curato in ogni dettaglio; ma ne vale la pena? In un mercato frenetico come quello di oggi, con questa moda che sembra più prendere il largo, non c’è il rischio del copia-incolla? Sì, e lo vediamo in continuazione. Eppure, basta variare l’intento con cui si crea un mondo aperto: Avalanche Studios, ad esempio, è maestra in questo e il suo Just Cause è una festa per gli occhi. La libertà concessa al giocatore (ben diversa da quella di Link) è in qualche modo indirizzata verso la spettacolarizzazione, rendendo di fatto questo titolo uno dei più divertenti e intrattenti sul mercato. Inoltre, anche il futuro Rage 2 potrà contare su una vasta mappa che metterà assieme il contesto esagerato di id Software con la cura per gli ambienti di Avalanche.
Il contesto è e resterà sempre fondamentale: creare un mondo credibile in tutti i suoi aspetti la regola d’oro per chi vuole cimentarsi in questa faticosa missione. Ma poi c’è la tecnica e, come Bethesda insegna, basta poco per distruggere tutto.

L’abito fa il monaco

Il bello della tecnologia è che ogni anno c’è sempre qualcosa di nuovo. Quello che un tempo era impensabile a un certo punto diventa possibile ma l’insidia è sempre dietro l’angolo. I moderni open world sono molto complessi anche dal punto di vista tecnico, dove si cerca di mettere assieme diverse simulazioni nella maniera più omogenea possibile. Una delle più grandi innovazioni l’ha introdotta Ubisoft con il suo Sea Engine, apparso in Assassin’s Creed III e ulteriormente potenziato in Assassin’s Creed IV: Black Flag: l’utilizzo di diverse equazioni sulla fisica dell’acqua, ha permesso un’attenta simulazione delle onde, cosa essenziale quando oltre al suolo, è possibile esplorare anche gli oceani. Da questo punto di vista le ultime produzioni dedicate agli Assassini, sono davvero eccellenti, mostrando mondi così diversi come quello acqueo e terrestre in tutta la loro complessità. Negli ultimi anni ha fatto anche capolino la simulazione del clima, passando da caldo afoso a intense nevicate, in grado tra l’altro di influenzare il gameplay. Anche questo processo è estremamente delicato: gestire centinaia di elementi diversi nello stesso momento può risultare davvero arduo e solo con le recenti macchine si è riusciti a raggiungere ottimi risultati. Questo perché è tutto l’ambiente a risentire del cambiamento: prendiamo ad esempio la pioggia; ogni goccia è indipendente l’una dall’altra e, ognuna di esse, viene influenzata dall’ambiente circostante dunque, già di per sé, molto complesso. Se aggiungiamo anche la simulazione dei venti o la gestione di elementi volumetrici come nebbia o fumo, il rischio del patatrac è dietro l’angolo. Per non parlare di come le superfici, una volta bagnate, debbano riflettere ancora più luce e di conseguenza ambiente circostante, appesantendo ancor di più il tutto. Ma per rendere veramente reale l’ambiente in cui ci muoviamo, devono intervenire le luci, che stanno pian piano passando da un’illuminazione globale al ray tracing. L’illuminazione globale è stata croce e delizia per ogni sviluppatore, che ha permesso sì una buona approssimazione nella simulazione dei fasci di luce ma molto distante dalla realtà. Funzionando in stretta relazione con gli shader, questo sistema riproduce centinaia di fasci di luce multi-direzionali, influenzando anche le ombre e le rifrazioni. Niente male, ma il ray tracing? Non abbiamo ancora visto la sua applicazione su larga scala ma le potenzialità sono sotto gli occhi di tutti. I prossimi open world potrebbero contare su un rivoluzionario sistema di illuminazione, trasformando gli odierni Odyssey o Marvel’s Spider-Man, in oggetti da antiquariato. Ma tutto questo ben di dio richiederà macchine ancor più performanti delle attuali GPU, visto la fatica con cui la GTX 2080 riesce a gestire tutto ciò, solo con anti aliasing DLSS.
A meno che non si tratti di post apocalittici come Fallout o Rage, anche la vegetazione ha il suo bel da fare, a dimostrazione di come un’innovazione tecnica possa influire sul gameplay. Il caso eclatante arriva sempre da Assassin’s Creed, che con un maggior dettaglio del fogliame 3D dinamico è riuscita ad aggiungere alcune meccaniche stealth anche in mancanza di architetture. E non dimentichiamo le animazioni: ci vorrebbe un articolo a parte per parlare di quanto sia difficile gestire animazioni uniche in base al contesto, non solo per il personaggio che controlliamo ma per tutti gli NPC presenti su schermo. Non siamo ancora al punto di avere personaggi non giocanti unici, avendo a che fare molte volte con la ripetizione esasperata dei diversi modelli (vedi We Happy Few). Proprio le animazioni, unite alla gestione della fisica, sono le vere gatte da pelare e serve un ottimo lavoro di pulizia dei vari codici affinché non avvenga il disastro. Come dicevamo, Bethesda è ormai habitué in questi termini, contando su un motore di gioco (Creation Engine) targato 2011 e già imperfetto alla sua nascita. La buona norma, sarebbe quella di creare un nuovo motore di zecca a ogni passaggio di generazione piuttosto che aggiornare il precedente perché, a ogni riscrittura, possono generarsi conflitti che se presi sottogamba, possono rovinare l’intera esperienza.

In sostanza, questi sono i parametri da tener d’occhio nella creazione di un open world: tutto deve funzionare in perfetta armonia affinché il giocatore possa sentirsi integrato all’interno di nuovo mondo. La creazione della mappa è solo la punta dell’iceberg di un immenso lavoro e magari, ora che state giocando uno di questi titoli, soffermatevi davanti a una roccia o un cespuglio, chiedetevi perché si trovi lì e il tempo necessario alla sua modellazione. Poi alzate lo sguardo verso l’orizzonte: vi accorgerete di quanto ogni programmatore e artista abbia faticato per permettervi di godervi sane ore di svago.




Top 5: Novembre 2018

La fine di questo 2018 videoludico è ormai vicina e il mese di Novembre ci ha regalato alcuni dei titoli più importanti di tutta l’annata. Andiamo a vedere quali.

#5 Fallout 76

Il titolo Bethesda era uno dei più attesi dell’anno: dopo la pubblicazione di The Elder Scrolls Online gli sviluppatori americani si lanciano nel loro primo MMORPG, un prequel narrativo ambientato nel 2102, venticinque anni dopo la guerra nucleare che ha devastato il mondo. Noi impersoneremo un abitante del Vault 76 atto a riconolonizzare il territorio. Attualmente il titolo soffre di qualche problema con i server e probabilmente ingranerà dopo qualche patch correttiva e un po’ di mesi di rodaggio, quindi è da considerare come un investimento a lungo termine.

#4 Football Manager 2019

Nuova interazione per l’amata saga manageriale calcistica di Sports Interactive: quest’anno il team ha voluto cambiare faccia, con una nuova interfaccia grafica e una rinnovata attenzione sul lato tecnico-tattico. Mai come quest’anno sarà fondamentale trovare il giusto assetto e progettare bene la sessione di allenamenti, facendo attenzione a non strafare ed evitare di esser falcidiati dagli infortuni, esattamente come nella realtà. Probabilmente uno dei migliori capitoli della serie, ottimo anche per chi non ne ha mai giocato uno e vorrebbe iniziare ad emulare le gesta di Allegri, Guardiola o Mourinho.

#3 Battlefield V

Il nuovo capitolo del popolare sparatutto di casa DICE fa buon uso delle critiche arrivate nel periodo della beta, regalandoci uno dei migliori titoli della saga: abbandonato il periodo della Prima Guerra Mondiale di Battlefield 1 si ritorna sui campi da battaglia della Seconda Guerra Mondiale, prendendo i punti di forza del predecessore e ampliandoli in un gameplay frenetico e fluido. Battlefield V è anche uno dei primi titoli che sfrutta appieno le potenzialità della serie di schede grafiche RTX di Nvidia con la tecnologia ray tracing, capace di avvicinarci sempre di più al fotorealismo. Manca ancora l’attesa modalità battle royale in arrivo a breve, ma al momento il titolo pubblicato da Electronic Arts ha fatto centro.

#2 Darksiders III

Terzo attesissimo capitolo della saga di Darksiders, il primo dopo il fallimento di THQ e il passaggio a THQ Nordic: questa volta vestiremo i panni di Furia, uno dei quattro cavalieri dell’Apocalisse, atta a distruggere le impersonificazioni dei sette vizi capitali.
Pur mantenendo l’aspetto action-adventure con elementi RPG dei predecessori, Darksiders III aggiunge degli elementi hack and slash e soulslike al mix, rendendo il titolo sviluppato da Gunfire Games un gradito ritorno.

#1 Red Dead Redemption II

Il titolo di Rockstar Games era uno dei più attesi dell’anno e non ha deluso le aspettative: Red Dead Redemption II ci riporta negli impolverati sentieri del Far West, dove impersoneremo Arthur Morgan, leader di una banda di fuorilegge che dovremo gestire e dirigere come ogni buon capo che si rispetti. Ogni nostra mossa avrà un impatto sulle cittadine e sugli NPC che incontreremo lungo l’avventura, siano essi nella storia principale che durante le fasi di free roaming, e sotto questo punto di vista il lavoro di Rockstar è enorme: la già grande base del precedente capitolo viene ampliata a dismisura, restituendo al giocatore un titolo open world vivo e capace di evolversi come poche volte si è visto nella storia dei videogiochi, rendendo Red Dead Redemption II non solo uno dei migliori titoli del 2018, ma probabilmente uno dei migliori degli ultimi anni.




Battlefield V: le impressioni dalla open beta

Battlefield V non sembra essere partito col piede giusto. Dopo tanti anni in cui abbiamo visto avvicendarsi varie epoche storiche ed esperimenti discretamente interessanti, l’ultimo capitolo sembra avvolto da un alone di mistero. Nessuna notizia della battle royale, denominata Firestorm, pre-order ben al di sotto della media e infine un posticipo sulla data di uscita di un mese, forse per evitare la “concorrenza” spietata di Red Dead Redemption 2 o, più probabilmente, per rifinire alcuni elementi di varia natura, come ad esempio, l’ottimizzazione generale in vista dell’entrata in scena del Ray Tracing di Nvidia.
Questa open beta ci ha finalmente permesso di saggiare alcune novità del titolo che in qualche modo sanciscono un ritorno al passato.

V per Vanitoso

Il passaggio da Battlefield 3 a Battlefield V sembra essere avvenuto in maniera istantanea anche se, nel frattempo, abbiamo assistito a Battlefied 1 e a Hardline, ben diversi per caratteristiche e aspettative. La natura del titolo DICE dunque rimane invariata, con un feeling divenuto ormai un marchio di fabbrica e lontano dalla frenesia del suo rivale più diretto Call of Duty. Ma di novità ce ne sono, a cominciare dal ritorno della distruttibilità ambientale totale che cambia decisamente le carte in tavola una volta compreso che i proiettili posso attraversare alcuni ripari. Ma tutto questo si esprime maggiormente con i mezzi pesanti, in grado di distruggere interi appartamenti modificando di fatto il layout della mappa. A proposito, le location disponibili in questa beta sono due: Rotterdam, protagonista anche della presentazione di Nvidia, e Narvik, una mappa innevata ai confini del Circolo Polare Artico. L’approccio in queste due zone è completamente diverso e sono caratterizzate da un buon level design sviluppato anche in verticale, pieno di ripari, vie di fuga e scorciatoie.
Proprio una delle grandi novità di Battlefield V è la possibilità di costruire piccoli avamposti, torrette e persino artiglieria anti-aerea che ampia a dismisura le possibilità tattiche: presa posizione, sarà possibile costruire un proprio fortino in grado di difendere più agevolmente uno degli obbiettivi e, viceversa, dare vita a un vero e proprio assedio, a una guerra di trincea che tanto è mancata nel precedente capitolo. Inoltre, potremmo soccorrere chiunque indipendentemente dalla classe scelta: una volta colpiti “mortalmente” abbiamo a disposizione due scelte, ovvero se morire in maniera rapida, accelerando l’arrivo al menu di respawn, oppure lottare con tutte le forze chiedendo aiuto, attivando anche animazioni dedicate.
Come detto, il feeling è sempre lo stesso, con la Grand Operation a fare da traino, e forse unica modalità in grado di restituire l’epicità di una grande guerra. Le armi, limitate per numero in questa beta, ma comunque varie, non presentano particolari novità dal punto di vista delle meccaniche, cosa che fa storcere un po’ il naso considerando che siamo passati dalla modernità di Battlefield 4, alla Prima Guerra Mondiale e ora alla Seconda.

V per Vistoso

Anche se non abbiamo potuto approfondire, sappiamo che la personalizzazione avrà un ruolo chiave all’interno del progetto: sia il nostro alter ego che armi e mezzi a disposizione, avranno un ampio set di elementi in grado di trasformare visivamente qualunque cosa. Il tentativo è quello di rendere Battlefied V più “umano”, mettendo al centro il giocatore e il suo team. Di fatti, la cooperazione svolge un ruolo più importante rispetto ai capitoli precedenti e premiata non solo dai classici punti esperienza ma anche da equipaggiamento speciale, come armi o mezzi corazzati. Più umano vuol dire anche avere un sistema di progressione “su misura”, che abbiamo avuto modo di verificare sul campo: via dunque alla standardizzazione in favore di un approccio più personale e incline al nostro stile di gioco. Una volta raggiunti determinati obbiettivi, armi ed equipaggiamento sbloccati saranno in linea con le nostre abitudini, in un percorso delineato che invoglia il giocatore a seguire stili diversi.
A livello tecnico, il Frostbite Engine è sempre un bel vedere, nonostante l’assenza del Ray Tracing. Sia Rotterdam che Narvik, benché completamente diverse, sono ricche di dettagli, con elementi perfettamente modellati, come da tradizione. Da segnalare però alcuni problemi dovuti alla fisica, e bug e glitch di varia natura oltre a problemi di matchmaking, ma che probabilmente verranno risolti con il rilascio ufficiale.

In conclusione

Battlefield V sembra essere il Battlefield di sempre, qualitativamente molto valido e puntellato qua e là al fine di arricchire un sistema già ampiamente collaudato. È ancora molto presto per esprimere un giudizio, del resto non sappiamo quasi nulla del single player, della rimanente offerta di gioco e sopratutto della modalità Firestorm. Dunque non ci resta che attendere (un mese in più) per recensire adeguatamente l’ultima fatica di DICE.




We Happy Few – E La Pillola Va Giù

Come tutti sappiamo, We Happy Few, è un titolo dalla storia travagliata, presentato ormai nel lontano 2015 e arrivato in questi giorni, ben diverso da quanto prospettato. La campagna Kickstarter atta a finanziare il progetto è stata una manna per Compulsion Games ma anche una spada di Damocle, in quanto, dopo vari rinvii, l’uscita del titolo non poteva più esser posticipata. Terminato il lungo periodo di early access, Wellington Wells è pronta per essere esplorata, un’isola avvolta dal mistero ma anche da tanti elementi da rifinire.

Sembra talco, ma non è…

Inghilterra, 1960, ma non quello che pensate: la Seconda Guerra Mondiale è stata vinta dalla Germania e, come in altre ucronie, questo ha portato molti cambiamenti nella società. Ma c’è una città particolare, un luogo isolato, che ha deciso  di dimenticare il passato vivendo in allegria e spensieratezza: Wellington Wells è la vera protagonista del titolo, proprio come Rapture per Bioshock, anche se con le dovute proporzioni. Tra gli abitanti circola una speciale “medicina”, la Joy, capace di regalare subito benessere, rendendo luminosa anche una lugubre giornata; ed ecco quindi che la città pullula di vita, lontana dalle tragedie vissute durante il conflitto, cui nessuno sembra ricordarsene. A dir la verità, questo espediente non è nuovo: si pensa subito al Soma di Brave New World di Aldous Huxley, ma anche a Naruto e al suo Tsukuyomi Infinito o persino a Code Geass: Lelouch of the Rebellion e alla droga Refrain. Come rendere dunque originale un espediente narrativo già abusato in numerose opere? Ci pensa il comparto artistico a mettere una pezza, ma anche la caratterizzazione dei protagonisti con i loro dialoghi a renderci quasi alieni di fronte alle bizzarie che ci troveremo davanti.
Ma – come dicevamo – Wellington Wells è il fulcro, una radiosa prigione in cui la perfezione la fa da padrona, tanto che ogni minimo gesto ritenuto “non conforme” (come correre) verrà immediatamente preso di mira dagli abitanti e dalla polizia, una sorta di Gestapo, pronta a sedare qualunque tipo di ribellione. Basta infatti mancare una sola dose di Joy – come avviene nel prologo – per far cessare la meravigliosa fiaba indotta dalla droga, attanagliando con sensi colpa, rimorsi e traumi che solo una guerra e i suoi postumi è in grado di produrre. We Happy Few è tutto questo, un costante contrasto di emozioni che riesce a colpire nel segno lo spettatore, con dialoghi ben scritti e originali, con una sceneggiatura che riesce a estrapolare tematiche importanti da ogni anfratto della cittadina. Purtroppo, non di solo narrativa si vive.

Perché sei così serio?

We Happy Few nasce come immersive sim con una forte componente survival mitigata in questa versione finale. La fame, la sete e la stanchezza non sono più letali come nella concezione originaria del gioco, divenendo meri malus per la nostra stamina. Gli sviluppatori, probabilmente ascoltando i pareri del pubblico durante l’early access, hanno addolcito alcune componenti che, in qualche modo, risultano però mal amalgamate tra loro. Andare a ricercare varie componenti per il crafting come i buoni Bioshock o Fallout insegnano, è fondamentale: bidoni della spazzatura, cassette della posta, bauli possono diventare delle vere e proprie miniere e, ottenuti i componenti necessari, sarà possibile dilettarsi nella costruzione di vari oggetti che variano tra quelli base e quelli avanzati. Non solo armi e oggetti utili, ma anche il vestiario ha la sua importanza: una caratteristica che non è andata persa è lo stealth, essenziale, ma fino a un certo punto. Indossare il vestito giusto in certi frangenti può fare la differenza, eppure, tutto si perde in un bicchiere d’acqua, naufragando in un’intelligenza artificiale lacunosa sotto molti punti di vista: basterà un piccolo errore per ritrovarsi accerchiati da gente che nemmeno si trovava nelle vicinanze, e si potrà far tornare tutto alla normalità con la stessa facilità, semplicemente svoltando l’angolo, come dopo un’istantanea dose di Joy. Questo difetto fa pendant anche con la morte, che non ha alcuna conseguenza, anzi, a volte sarà più comodo tirare le cuoia piuttosto che proseguire. Tutto ciò rende il titolo poco appagante ed, escludendo l’efficace narrativa, nel complesso il risultato rischia di essere disastroso. Anche il venire alle mani con i nemici del momento non regala alcuna soddisfazione a causa di hit box imprecise, mancanza di feedback reale e animazioni non proprio eleganti. Sembra quasi di colpire il vuoto, sarebbe bastato davvero poco per mettere una pezza a questo problema.
Anche la differenziazione esteriore dei tre protagonisti viene meno: la loro fisicità così diversa non risulta fondamentale e solo aumentando il nostro livello con alcuni upgrade, potremmo sentire lievi differenze.
Gli unici elementi discretamente riusciti sono le sezioni notturne, in cui il coprifuoco è attivo ed esser visti può scatenare un putiferio ma, soprattutto, la meccanica dedicata alla pillola Joy e ai suoi effetti. Ogni compressa ingerita comporta alcuni cambiamenti – anche visivi – dato che potremmo passare inosservati per le vie della città e superare senza problemi i detector per i “Musoni”, coloro che rifiutano le gioie della medicina. Ma assumerne troppa ha delle controindicazioni, come perdita della memoria e crisi d’astinenza più marcate, in grado di far imbestialire la popolazione. È quindi un bene assumerla solo in casi specifici; anche qui, spingere su questa meccanica avrebbe garantito maggiore originalità e spessore a un titolo che vede nell’amalgama degli elementi il principale problema.
Durante le avventure avremo modo di sbloccare piccoli rifugi, degli hub dove poter riposare o spostarsi rapidamente, cosa abbastanza utile quando si ha a che fare con molte quest secondarie aperte ma purtroppo fin troppo simili tra loro.

Chiaroscuro

Anche dal punto di vista tecnico We Happy Few non raggiunge vette d’eccellenza. Nonostante l’utilizzo dell’Unreal Engine 4 il gioco lascia adito a qualche dubbio, a cominciare da alcuni glich e bug di varia natura, come corpi spariti nel nulla o l’eccessivo pop-up delle texture. Oltre a questo, fa quasi impressione l’eccessivo riutilizzo degli asset sia per gli ambienti che per la popolazione, consistente in circa cinque-sei modelli, ripetuti all’infinito. Tutto crea anche problemi alla navigazione in quanto perdersi per le vie della cittadina sarà all’ordine del giorno. Nonostante un ciclo meteo e giorno-notte il titolo non riesce proprio a spiccare, se non per alcune trovate artistiche come il passaggio dalla triste realtà al lucente bagliore della vita dovuto all’assunzione della pillola Joy e allo stile in cel-shading che, in qualche modo, regala a We Happy Few una sua identità. Inoltre, il titolo sarà uno dei pochi a poter sfruttare la nuova tecnologia per il ray tracing e il nuovo anti-aliasing DLSS, disponibili non appena le nuove Nvidia serie 2000 muoveranno i loro primi passi sul mercato.
Fortunatamente la componente audio riesce a salvare quanto rimane, contando su un ottimo doppiaggio inglese, con uno slang appositamente elaborato. Tutto risulta a volte caricaturale ma efficace, in grado di far risaltare i momenti bui come quelli goliardici.  Purtroppo la traduzione non sembra essere andata a buon fine, con sottotitoli a volte incompleti e soprattutto invasivi, mostrando dialoghi non direttamente interessati a noi, anche nel bel mezzo di un’altra conversazione. Il risultato è una caotica bulimia di frasi su schermo che rendono il tutto di difficile comprensione.

In conclusione

We Happy Few paga il suo contorto sviluppo e l’improvviso cambio di direzione che ne hanno mozzato, a ogni livello, il gameplay. L’ossatura buona del titolo resta nella componente narrativa e nel doppiaggio, in grado di restituire una storia forse non originale ma capace di emozionare, esplorando le mille sfaccettature della società umana. Dipende dunque da quanto peso decidiate di dare alla trama e al suo evolversi rispetto al resto: valutando gli elementi nel loro insieme, si arriva giusto alla sufficienza. È dunque una grossa occasione sprecata ma un buon punto di svolta per Compulsion Games, che dopo questa esperienza potrà ripensare ai propri errori e portare in futuro qualcosa di più completo e meglio curato in tutti i suoi aspetti.

Processore: Intel Core I7 4930K
Scheda video: Nvidia Gigabyte GTX760 4GB
Scheda Madre: MSi X79A
RAM: Corsair Vengeance 16GB
Sistema Operativo: Windows 10.




Nvidia RTX: tutti i dettagli e i migliori monitor per sfruttarle

Poco tempo fa, è stata annunciata una nuova generazione di schede grafiche NVIDIA, marchio ormai garanzia per quanto riguarda il gaming ad alte prestazioni. Sono state presentate alla Gamescom, durante la quale l’amministratore delegato della società Jen-Hsun “Jensen” Huang ha rivelato la nuova serie di schede grafiche GeForce 20, con  principale caratteristica, l’implementazione in hardware del Ray Tracing. La sigla che segue il nome GeForce, GTX nelle famiglie precedenti, è stata cambiata in RTX, facendo riferimento proprio all’uso di questa tecnologia.
La più potente delle tre è la GeForce RTX 2080Ti, 4352 Cuda Core, 11 GB di memoria GDDR6 con ampiezza di banda di 616 GB/s. Ha bus memoria di 352-bit e la velocità di quest’ultima di 14 Gbps. La GPU ha valore di base 1350 MHz, ma raggiunge i 1635 Mhz in overclock. Per le “minori” , la GeForce RTX 2080 ha 23 Turing SM e 2944 CUDA core, mentre la RTX 2070 con 18 Turing SM e 2304 CUDA core.

Ma esattamente in cosa consiste il Ray Tracing? Questa tecnica, consente il rendering della grafica in tempo reale, finora risultata difficile a causa dell’insufficiente capacità di elaborazione dell’hardware in commercio.
Consiste nel proiettamento dei raggi di luce dal punto di osservazione agli oggetti, i quali poi, rimbalzando nuovamente dagli oggetti al resto della scena, danno vita a una relazione fonte di luce – oggetto molto realistica, tutto basato su un algoritmo che segue il percorso tracciato da ogni singolo raggio al fine di determinare il colore del pixel su cui è proiettato, fermandosi non appena la destinazione risulta essere definitiva; in caso contrario viene gestito l’effetto conseguente di riflessione o rifrazione.
Nella tradizionale tecnica di rasterizzazione, l’illuminazione nella scena virtuale veniva gestita a partire dalla fonte di illuminazione, invece il Ray Tracing parte dal punto di osservazione.
Viene risolto quindi un problema di ottimizzazione creatosi con il progredire della qualità grafica dei videogiochi con rasterizzazione, dipendente dell’aumento delle fonti di illuminazione; avendo motori grafici supportanti l’illuminazione globale, il numero di fonti di illuminazione non è più importante quanto piuttosto il singolo pixel della scena.

Queste nuove schede rappresentano a tutti gli effetti una rivoluzione nel campo della grafica ad alte prestazioni, ed è stata anche coniata una nuova unità di misura, Giga Rays, per poter misurare la capacità di una specifica configurazione hardware di gestire il Ray Tracing. Ad esempio, gli RT core dell’architettura Turing elaborano 10 Giga Rays/s; in particolare, Jensen ha dichiarato che la RTX 1080 Ti è in grado di gestire 1,21 Giga Rays/s.
La nuova architettura Turing, caratteristica fondamentale delle nuove schede, in breve funziona così: in un primo momento partono shader e Ray Tracing, poi le operazioni in FP e INT. Infine, entrano in campo i Tensor Core. In futuro questi ultimi, potranno innalzare esponenzialmente la risoluzione di immagini non dettagliate, ottimizzando di molto il lavoro delle risorse hardware.

Stando ai benchmark forniti da Nvidia, le nuove RTX hanno un potenziale del 50% superiore in fatto di prestazioni rispetto alle schede precedenti con architettura Pascal, per quanto riguarda la gestione del Ray Tracing.
Ovviamente, le schede sono state confrontate mediante videogiochi tra cui Wolfenstein II: The New ColossusFinal Fantasy XV e Shadow of the Tomb Raider e, dati alla mano, la RTX 2080 ha il 150% della potenza rispetto alla GTX 1080, constatato anche tra 2070 e 1070, e addirittura tra 2080 Ti e 1080 Ti.
E mentre Shadow of the Tomb Raider non supera i 1080p e 40 fps, Battlefield V gira a 1080p con 60 frame al secondo sulla RTX 2080 Ti con Ray Tracing.
Secondo NVIDIA, il Ray Tracing verrà impiegato sempre di più nei giochi di prossima generazione, che l’architettura Turing permetterà di gestire con prestazioni decisamente superiori.

Chi volesse lasciare l’architettura Pascal per acquistare una scheda video Turing, dovrà fare i conti però con un prezzo che al momento è praticamente doppio, ma soprattutto perché sfruttare le nuove risorse richiede una forte limitazione in termini di risoluzione e frame rate, in particolare per quanto riguarda le 2070 e 2080.
Pertanto, nonostante i monitor 4K siano l’ultima moda, se si vuole investire su una RTX per sfruttare il Ray Tracing, l’ideale sarebbe abbinarlo ad un televisore Full HD, ovvero composto da una griglia di pixel 1920 x 1080, detto anche 1080p, o a un Quad HD, con risoluzione 2560 x 1440.
A questo proposito, abbiamo stilato una lista dei migliori monitor per PC in Full HD e Quad HD.

HP 22W

Caratteristiche:

  • Pannello IPS da 21.5″
  • Risoluzione Full HD (1920 x 1080)
  • Refresh rate a 60 Hz
  • Entrate video HDMI VGA con cavo HDMI incluso
  • Non provvisto di audio integrato

Prezzo consigliato: 129.99€
Prezzo attuale su Amazon: 89€

Samsung C24F390

Caratteristiche:

  • Pannello VA da 23.5″ curvo
  • Risoluzione Full HD (1920 x 1080)
  • Refresh rate a 60 Hz
  • Entrate video HDMI e VGA con cavo HDMI incluso
  • Non provvisto di audio integrato

Prezzo consigliato: 219€
Prezzo attuale su Amazon: 128,80€

LG 25UM58

Caratteristiche:

  • Pannello IPS Ultra Wide da 25″
  • Risoluzione Full HD (2560 x 1080)
  • Refresh rate a 60 Hz
  • Entrate video 2x HDMI con cavo HDMI incluso
  • Non provvisto di audio integrato

Prezzo consigliato: 199€
Prezzo attuale su Amazon: 158,92€

AOC Q3279VWF

Caratteristiche:

  • Pannello MVA da 32″ con risoluzione Quad HD (2560 x 1440)
  • Refresh rate a 75 Hz
  • Entrate video HDMI, DisplayPort, DVI VGA con cavi VGA, DisplayPort e HDMI inclusi
  • Non provvisto di audio integrato

Prezzo consigliato: 299€
Prezzo attuale su Amazon: 204,99€

BenQ BL2420PT

  • Pannello IPS da 24″
  • Risoluzione Quad HD (2560 x 1440)
  • Refresh rate a 60 Hz
  • Entrate video HDMI, DisplayPort, DVI VGA con cavi VGA e DVI inclusi
  • Non provvisto di audio integrato

Prezzo consigliato: 409€
Prezzo attuale su Amazon: 253,89€

Lenovo L27q-10

Caratteristiche:

  • Pannello IPS da 27″
  • Risoluzione Quad HD(2560 x 1440)
  • Refresh rate a 75 Hz
  • Entrate video HDMI e DisplayPort con con cavo HDMI incluso
  • Non provvisto di audio integrato

Prezzo consigliato: 299€
Prezzo attuale su Amazon: 249€




NVIDIA: opinioni positive in cambio di informazioni

Il team Heise, tramite un leak ha pubblicato il nuovo NDA (accordo di non divulgazione) di NVIDIA, nel quale l’azienda dichiara che le informazioni confidenziali dovranno essere usate soltanto per il beneficio di NVIDIA.
Il nuovo NDA ha una durata complessiva di cinque anni in cui, chi lo sottoscrive (con solo due giorni di tempo per decidere se farlo o meno) è indotto a divulgare solo opinioni positive sull’azienda californiana,  evitando – ovviamente – di divulgare informazioni ritenute segrete da Nvidia.
Resta da capire se questo contratto ha valenza anche per chi usufruisce di GPU con accesso anticipato, oltre a varie informazioni confidenziali.
Questa notizia fa pendant con le polemiche scaturite dal GeForce Partner Program, dove veniva creato un forte legame con i produttori di schede video, creando quasi una sorta di monopolio. Queste polemiche potrebbero minare l’immagine di Nvidia, ma solo il tempo potrà dirci con che gravità.




Nvidia: la nuova GeForce GTX verrà lanciata a luglio?

Secondo i rumors, Nvidia si starebbe preparando a lanciare una scheda grafica di nuova generazione, la GeForce GTX, che avrà come numero identificativo 1180 o 2080, anche se tale nomea non è ancora stata ufficializzata dall’azienda.
La notizia è stata divulgata da TomsHardware e da fonti del settore che sembrano concordi su un probabile lancio a luglio con i modelli Founders Edition, mentre gli altri modelli personalizzati dai partner aggiuntivi AIB verranno lanciati in seguito, tra agosto e settembre.
Inoltre, TomsHardware ha pubblicato un’interessante analisi del processo di convalida seguito dall’AIB per la creazione e il lancio di una nuova scheda: i nuovi dispositivi devono superare molteplici controlli di progettazione e design e, successivamente, ne viene testata l’interferenza elettromagnetica. Superati i test, servono diverse settimane perché si concluda il rilascio finale del BIOS, la produzione in serie e la spedizione.
La prossima GeForce GTX, stando a quanto si dice, sarà davvero innovativa. Secondo le fonti, sarà basata sulla piattaforma Turing di Nvidia, anche se non è ancora chiaro se si tratti di una variante di Volta o un’architettura totalmente nuova.
Sfortunatamente non c’è stato modo di sapere con certezza alcun dettaglio tecnico, ma secondo WCCFTech, la nuova GeForce GTX probabilmente avrà 3.584 CUDA core (contro i 2.560 della 1080), da 8 GB a 16 GB di dati di connessione di memoria GDDR6 (quando la 1080 ne ha 8) attraverso un bus a 256 bit, e raggiungerà intorno a 1.6 GHz parlando dei core e a 1.8 GHz per quanto riguarda il boost (mentre la 1080 raggiunge come massimo gli 1.733 MHz).




Le criptovalute sono davvero l’unica causa dell’aumento di prezzo delle GPU?

Principalmente, la colpa della temporanea sparizione delle schede grafiche è stata data alle criptovalute. Un altro bersaglio sono stati i produttori di GPU, Nvidia e AMD, accusati di non produrne abbastanza e i partner Asus, EVGA, Gigabyte, MSI, per averne aumentato i prezzi.
In realtà i maggiori responsabili di tutto questo sono in particolare i produttori di DRAM. Nel 2015 e nel 2016, le DRAM erano facilmente reperibili e costavano pochissimo, quindi investire in fonderie aggiuntive per produrre ancora più DRAM per soddisfare le esigenze di un mercato già saturo non sembrava una buona idea.
In sostanza, i prezzi e la richiesta di DRAM stavano precipitando. Nel frattempo, stava aumentando la domanda delle NAND, le quali sono spesso fabbricate nelle stesse fonderie delle DRAM. La produzione richiede tempo e può costare molto, il che significa che i piani vengono messi in atto mesi o addirittura anni prima, prevedendo di vendere più NAND e meno DRAM (e di passare alla NAND 3D, ma questo è un’altra storia).
Gli smartphone hanno iniziato a utilizzare più DRAM e NAND: AMD ha lanciato Ryzen, e le battaglie CPU del 2017 hanno spinto gli utenti ad aggiornare sempre più spesso le componenti del PC. Le automobili sono diventate un mercato sempre più proficuo per i circuiti integrati DRAM: la maggior parte delle auto moderne ha da 4 a 8 GB di DRAM e nei modelli con funzionalità avanzate come la tecnologia Lane Assist e Self-Driving la quantità di DRAM usata può quadruplicare. Inoltre sono stati prodotti milioni di piccoli dispositivi IoT, ciascuno con una piccola parte di DRAM.

Ma il punto focale di tutto ciò, è che le schede grafiche hanno bisogno di molta DRAM. Con più domanda che offerta, i prezzi potevano solo salire; anche senza i minatori, i prezzi delle schede grafiche sarebbero aumentati comunque verso la fine del 2017 e l’inizio del 2018: i kit da 16GB di memoria DDR4-2400 e DDR4-2666 costavano tra i 40 e i 50€ nella metà del 2016; quegli stessi kit oggi vengono venduti per 140€ o più. Gli stick DDR4, vengono fabbricati nella stessa struttura dei GDDR5, GDDR5X e HBM2, e devono lottare contro il tempo sulla linea di produzione.
Che cosa significa questo per le schede grafiche? Il prezzo da contratto per il set GDDR5 è stato tra i 30 e i 40€ per 8GB quando sono state lanciate la GeForce 1080 e 1070 di Nvidia, insieme alla Radeon RX 480/470 di AMD. Oggi, i prezzi del contratto per lo stesso set GDDR5 da 8GB sono intorno agli 80€. Ma ogni livello della catena di approvvigionamento vuole la sua parte, quindi se il costo base aumenta di 40€ su una scheda grafica, complessivamente il prezzo di vendita complessivo aumenterà di 80€.
Se già per i set GDDR5 è un momento difficile, è ancora peggiore per gli HBM2; 8GB di HBM2 possono arrivare a costare 140€ e usare questo sistema, è già comunque più costoso a causa della necessità di un interposer al silicio. Sulla base di queste informazioni, si può intuire che Vega 56 e Vega 64 non torneranno mai agli obiettivi iniziali di vendita del MSRP ammontanti a 330€ e 400€, il che fa si che nonostante possano competere con la GTX 1070/1070 Ti/1080 per quanto riguarda le prestazioni, diventano una scelta sconveniente con un prezzo del 25 o 50% in più.

Nvidia e AMD non hanno ufficialmente alzato i prezzi sulle loro schede grafiche pre-costruite, ma con i modelli Founders Edition per lo più di serie (tranne il 1080 Ti), vale la pena notare che le carte FE in genere costano 40€ in più rispetto al MSRP di base. I modelli di Founders Edition aiutano a eliminare almeno un livello nella catena di approvvigionamento. In via ufficiale, sembra che i prezzi dei contratti per i produttori di schede grafiche siano aumentati, il che in parte giustifica il costo più elevato della DRAM. Anche ora, le GPU “budget friendly” che originariamente costavano tra i 90 e i 110€ sono vendute tra i 130 e i 160€
I produttori di DRAM (Samsung, SK-Hynix, Micron) stanno aumentando la loro produzione di DRAM e costruendo nuove strutture a causa della grande richiesta. Ma anche con l’aumento della produzione dovrebbe passare un po’ di tempo prima che i prezzi delle DRAM si avvicinino a quelli del 2016.
Cosa succederà nel 2018? AMD sembra essere in silenzio stampa e, a parte una riduzione di 7nm della Vega destinata alle applicazioni di machine learning, non ci si aspetta di vedere alcuna nuova scheda grafica principale lanciata quest’anno.
Per Nvidia la storia è diversa, con la GTX 2080/2070 o GTX 1180/1170 molto diffusa che verrà lanciata in agosto o settembre e, se si considerano le architettura di Turing, Ampere e Volta, sembra che le nuove GPU potrebbero risultare simili al Volta GV100, tranne che per il Tensor Cores e il supporto FP64.
La ragione per l’aumento dei prezzi relativo alle parti della serie 10 è la stessa, i costi della DRAM più elevati, combinati con l’aumento della domanda da parte di più settori (giochi, automotive, IA e crittografia).




Come scegliere un monitor da gaming o da lavoro

La scorsa volta abbiamo parlato di come funzionano i monitor e come sceglierli per l’uso standard. Questa settimana invece parleremo nello specifico di come scegliere i monitor in base all’utilizzo, gaming o lavoro.
Tratteremo molti aspetti presenti in un monitor da gaming. Decidere cosa è meglio, soprattutto quando il budget è basso non è facile, essendoci molte possibili scelte che possono destare confusione e un marketing ancora poco preciso per chi vuole comprare un monitor. Quindi qui presenteremo la nostra opinione su ciò che un appassionato di videogiochi dovrebbe prendere in considerazione, che non sono regole assolute ma, alcuni fattori possono dipendere dal livello di abilità dei giocatori.

Risoluzione

Quando si tratta di videogame, la maggior parte dei giocatori ritiene che più pixel ci siano più tutto risulterà migliore, ma questo è vero fino a un certo punto. Sì, è importante avere una densità di pixel sufficiente a rendere le immagini uniformi e realistiche, ma ovviamente più pixel si hanno, più potenza grafica servirà. Se si vuole la massima risoluzione disponibile sul desktop, esistono alcune limitazioni che bisogna accettare: il più grande di questi è la frequenza di aggiornamento dove le attuali interfacce video non supportano velocità superiori a 60Hz per i segnali UHD (4096×2160) e, anche se lo facessero, bisogna avere una scheda video potente per muovere realmente 8,2 milioni di pixel oltre i 60fps. Per esempio NVIDIA GTX Titan X riesce a malapena a gestire tutto ciò se si abbassano i livelli di dettaglio. L’attuale punto debole sembra essere la risoluzione QHD (2160×1440) in cui, nelle dimensioni fino a 32 pollici si avrà una buona densità e un’immagine dettagliata ma non troppo difficile da gestire per le schede video di fascia media. Naturalmente se si desidera la massima velocità, il FHD (1920×1080) fornirà i framerate più alti. Prima di fare un acquisto bisogna quindi valutare il proprio hardware.

Tecnologia del pannello

Come abbiamo detto i pannelli con tecnologia TN sono veloci e offrono una buona precisione e contrasto dei colori. Sono relativamente economici e i monitor FreeSync da 24 pollici con risoluzione FullHD sono in vendita anche a meno di 200 euro. Ma, visto le informazioni elaborate sulla qualità dell’immagine, e i desideri degli utenti per schermi da 27 pollici o più grandi, probabilmente si sarà più soddisfatti con l’immagine fornita da un display IPS o VA. Lo svantaggio è il loro costo più alto: i monitor da gioco IPS sono concentrati nella fascia più alta della scala mentre VA, con il suo contrasto leader di classe, è difficile da trovare a qualsiasi prezzo.

Adaptive Refresh

Il G-Sync, apparso per la prima volta quattro anni fa, è stata davvero una rivoluzione nell’elaborazione video. Dal momento che i giochi rendono il loro contenuto a un framerate costantemente variabile, è diventato necessario creare un monitor che potesse variare il suo ciclo di aggiornamento al passo con l’output della scheda video. G-Sync ha abilitato questa funzione per le schede basate su Nvidia pagando qualcosa in più rispetto ai normali monitor mentre, il concorrente AMD FreeSync ha un approccio diverso: semplicemente, aggiungendo nuove funzioni alle specifiche DisplayPort esistenti, un monitor può avere un aggiornamento adattativo senza sacrificare performance. Entrambe le tecnologie sincronizzano il framerate della scheda video con il monitor per evitare il fastidioso problema di bande sullo schermo; l’artefatto si verifica quando i frame non corrispondono: il computer invia un nuovo frame prima che il monitor abbia finito di disegnare il precedente e, assegnando il controllo della frequenza di aggiornamento alla scheda grafica, questo artefatto viene eliminato. Quando si sceglie tra i due, l’ovvia considerazione è su quale hardware si ha già investito: se si è possessori di una GTX 1080Ti, la scelta è chiara. Se si è indecisi su quale tecnologia adottare, tuttavia, ecco alcuni dettagli che potrebbero aiutare. Entrambi hanno un range operativo limitato: i monitor G-Sync funzionano sempre da 30Hz fino al massimo consentito dal monitor. I display di FreeSync non sono così coerenti e in genere supportano il refresh adattivo fino al massimo, ma è il limite inferiore che si deve prendere in considerazione. Questo può essere un problema se la scheda video non è in grado di mantenere i framerate sopra quel livello. Il Low Framerate Compensation (LFC), è una soluzione valida, ma funzionerà solo se il refresh massimo è almeno più del doppio rispetto al minimo. Per esempio, se il massimo è 100Hz, il minimo deve essere 40. Se l’intervallo è troppo piccolo, LFC non entra in gioco. Quindi se il proprio budget indica una scheda video da metà a bassa velocità, è preferibile scegliere il G-Sync con ovviamente una scheda Nvidia mentre, in caso di display FreeSync si sceglie AMD.

Refresh Rate

Quando sono usciti i primi display dedicati ai videogiochi, una caratteristica fondamentale era la loro capacità di funzionare a 144 Hz. Questa era una risposta alle prestazioni sempre più elevate offerte dalle schede video veloci. Ovviamente se si ha una scheda video che potrebbe far girare un gioco a 100 fps, è opportuno che anche il monitor sia abbastanza veloce. Un 60Hz semplicemente non basterà più. Oggi esistono schermi che girano a 144Hz, 200 HZ e addirittura 240 Hz. Quindi la domanda è una: è così importante la velocità di aggiornamento? La risposta ovviamente è si. Comprare un display con una frequenza alta, a lungo termine eviterà la necessità di cambiare  il monitor in poco tempo. Per coloro che spendono meno, tuttavia, 144 e persino 120 Hz sono molto veloci e consigliati. Nella maggior parte dei casi si ottiene un ritardo di input sufficientemente basso, un movimento fluido e un elevato carico di prestazioni per la maggior parte dei titoli in commercio.

Motion Blur Reduction e Overdrive

La riduzione della sfocatura e l’overdrive sono due caratteristiche che si trovano in molti schermi da gaming. In effetti l’overdrive è praticamente presente su tutti i monitor indipendentemente dal tipo e funziona, consentendo una certa quantità di overshoot durante le transizioni di luminosità. L’obiettivo di progettazione è che i singoli pixel anticipino la tensione richiesta per un particolare livello di luminosità. Se eseguito correttamente, il pixel raggiunge rapidamente quel livello, per poi cambiare nel fotogramma successivo prima che la tensione diventi troppo alta. Quando si verifica un overshoot, appare come un artefatto chiamato ghosting: Possiamo vederlo usando il test UFO di BlurBusters che si può trovare qui. È semplice da interpretare: bisogna guardare l’UFO mentre si cambiano  diverse opzioni OD. Quando è visibile una scia bianca dietro il “piattino”, si è andati troppo lontano. Nel contenuto reale, l’artefatto appare in transizioni ad alto contrasto come quelle tra oggetti scuri e chiari. Le implementazioni dell’overdrive differiscono notevolmente tra i monitor.

Come scegliere un monitor da lavoro

Gli utenti professionali hanno alcune esigenze speciali che devono essere considerate. Stiamo parlando di fotografi, tipografi, web designer, artisti di effetti speciali, game designer o chiunque abbia bisogno di un controllo preciso del colore lungo tutta la loro catena di produzione. Solo pochi monitor sono effettivamente certificati dai loro produttori ma se si vuole un display che sia preciso e pronto all’uso, è il modo migliore per garantire la qualità. Siamo d’accordo con i nostri lettori sul fatto che i monitor professionali dovrebbero essere pronti per il lavoro senza necessità di regolazioni, ma crediamo anche che un monitor professionale dovrebbe avere la flessibilità e la capacità di essere regolato in modo preciso. Ci sono due modi per farlo: l’OSD e il software. La maggior parte dei schermi ha un OSD, più o meno completo. Esistono OSD di grandi dimensioni dotati di cursori RGB per le scale di grigio, preimpostazioni del gamma e un sistema di gestione del colore. A volte i produttori si affidano a software che consentono all’utente di creare modalità personalizzate. Qualunque sia il metodo che si preferisce, è importante che un display professionale includa opzioni per diverse gamma di colori, temperature di colore e curve di gamma. Dovrebbero essere  presenti gli standard sRGB e Adobe RGB, le temperature di colore che vanno da 5000 a 7500K e le preimpostazioni di gamma da 1,8 a 2,4. I monitor utilizzati per la produzione televisiva o cinematografica dovrebbero anche supportare lo standard gamma BT.1886. Tutte le impostazioni dovrebbero essere identiche alle loro etichette e l’OSD dovrebbe avere regolazioni sufficienti per raggiungere la precisione.

Profondità di bit

Nella maggior parte dei casi, un pannello a 8 bit non sarà adatto per il lavoro di grafica professionale. Gli utenti solitamente richiedono almeno 10 bit, o preferibilmente 12. Questo è abbastanza comune tra i display professionali, ma è importante che gli utenti considerino l’intera catena del segnale quando superano gli 8 bit. In sostanza più bit si hanno più i colori risulteranno fedeli però, ovviamente, per usare un monitor del genere serve una scheda video che supporti oltre gli 8 bit; in caso contrario il monitor inserirà le informazioni aggiuntive, ma solo per interpolazione. Proprio come con il ridimensionamento dei pixel infatti, un display non può aggiungere informazioni che non sono presenti in primo luogo, può solo approssimarsi. La maggior parte delle schede video di fascia consumer sono limitate all’uscita a 8 bit in questo momento. Alcuni esempi premium possono inviare informazioni a 10 e 12 bit sul display, ma la soluzione migliore per un professionista è utilizzare qualcosa basato sui processori Nvidia Quadro o AMD FirePro.

Compensazione di uniformità

Alcuni display incorporano una compensazione di uniformità nel loro elenco di funzionalità. Questo ha lo scopo di eliminare le aree luminose o scure dallo schermo e bilanciare la luminosità in ogni zona. Alcuni produttori, NEC in particolare, hanno fatto di tutto per risolvere il problema, creando una tabella di ricerca per ogni singolo monitor che esce dalla catena di montaggio. Non si può semplicemente applicare le stesse correzioni a ogni pannello. L’unico modo per eliminare un hotspot in un campo nero è aumentare la luminosità delle altre zone a quel livello. Questo ha l’ovvio effetto di aumentare i livelli di nero e ridurre il contrasto: all’estremità luminosa della scala, i punti deboli vengono compensati abbassando l’uscita nelle zone rimanenti, riducendo anche il contrasto. La compensazione dell’uniformità non è molto utile perché i suoi benefici sono ampiamente superati dalla riduzione dell’output e del contrasto che ne risulta. Quindi, in sintesi, gli utenti che acquistano uno schermo di livello professionale dovrebbero cercare entrambe le opzioni di gamma di colori sRGB e Adobe RGB, una calibrazione certificata dalla fabbrica, un OSD completo con regolazioni precise e un pannello con profondità di colore nativa a 10 o 12 bit.

 

Conclusione

Ecco perché è così importante decidere l’uso che si farà con il proprio PC prima di comprare un monitor. Se sei un giocatore o stai mettendo insieme un sistema a livello professionale, il lavoro è praticamente finito. Tutti i principali mercati dei produttori si focalizzano principalmente per questi due scopi, gaming e lavoro e, grazie alle richieste degli utenti e alla copertura completa nei media, se una società afferma che il proprio monitor è appropriato per giocare o per lavorare, è davvero così. Sono finiti i giorni in cui un monitor poteva semplicemente essere stilizzato in un certo modo e chiamato da “gaming”. Deve essere supportato con funzionalità come l’aggiornamento adattivo e la risposta rapida del pannello. Il mercato così non sarà ingannevole per chi si avvicina per la prima volta in questo mondo. Lo stesso vale per gli ambienti professionali: dati i prezzi elevati che definiscono il genere, elementi come l’ampia gamma e la calibrazione di fabbrica sono obbligatorie se un produttore deve essere preso sul serio.