Siamo arrivati dunque alla terza parte (qui la prima, qui la seconda) di una lunga e dettagliata retrospettiva riguardante gli ultimi quattro anni di competizione fra nVidia e AMD. Anni che hanno visto avvicendarsi architetture diversissime, uniti però da un sottile fil rouge, il processo produttivo a 28nm. Ecco quindi la terza parte del contributo, il cui autore, assiduo frequentatore di AD, si fa conoscere col nickname omerico “nessuno”. Le successive “puntate” verranno rese disponibili nei prossimi giorni. A nome di tutta la silente ma sempre presente ciurma di AD, auguro una buona Pasqua ai nostri affezionati lettori :-)
Negli stessi giorni AMD presenta anche lei quello che dovrebbe essere il suo step successivo di ottimizzazione sullo stesso processo produttivo, la versione 1.2 di GCN: nome del chip Tonga. Questo chip è una revisione completa di Tahiti nel tentativo di realizzare una scheda nel segmento della 770 (aka 680 overclock, che monta il GK104) più competitiva. Il chip viene presentato nella sua versione PRO, cioè con ridotto numero di shader attivi e bus di memoria di 256bit, quando si mormora che in realtà il chip abbia un bus di memoria di 384bit come Tahiti e qualche shader in più. La nuova revisione di GCN ha come caratteristica l’implementazione di un sistema di compressione dei dati in memoria che dovrebbe migliorare l’uso della banda di memoria, ovvero ridurre la quantità di dati che transitano dalla memoria grafica verso il core della GPU e viceversa, una caratteristica che nVidia implementa già da Kepler e che con la seconda versione di Maxwell ha ampiamente raffinato.
Il test della nuova GPU montata sulla scheda R9-285, che grazie al diverso bus monta 4GB di RAM contro i 3GB della 280X (aka 7970 GHz edition), è un mix di luci e ombre: rispetto a Tahiti mostra dei miglioramenti nella computazione pura ma è più lenta nella gestione della memoria, nonostante la nuova compressione di cui è dotata ma con bus più stretto (256 vs 384bit). In media la nuova scheda risulta leggermente più lenta della vecchia 280X anche se consuma il 30% meno sulla carta. Il chip risulta quindi un compromesso che non risolve davvero il problema che sta alla radice di GCN rispetto ai risultati della concorrenza, ovvero la necessità di usare più silicio e corrente per ottenere gli stessi risultati. Per fare un esempio, il consumo di Tonga equivale a quello del GM204 ma le prestazioni sono su due fasce completamente diverse.
La presentazione di Tonga dopo tanti mesi di preparazione non è solo un piccolo fallimento riguardo alla specifica scheda realizzata (che alla fine non va meglio di una scheda presentata 2 anni prima), ma è una indicazione abbastanza importante, e non certo positiva, sulla capacità che AMD ha in quel momento di competere. Se il meglio che è riuscita a realizzare AMD con l’ultima revisione 1.2 della sua architettura è Tonga mentre nVdia ha realizzato con Maxwell il GM204, molti vedono delle nubi sull’orizzonte di AMD.
I dati di vendita del periodo sono impietosi: nVidia vende oltre 5 volte quello che vende AMD nel mercato delle schede grafiche discrete. Le analisi di market share descrivono AMD con il 18% delle vendite, quando all’inizio dell’era 28nm ne deteneva il 35%. Una dimezzamento netto.
La situazione è così grave dal punto di vista finanziario che a fine 2014 AMD si vede costretta a fare dichiarazioni nel tentativo di evitare ulteriori ribassi del proprio titolo azionario. AMD annuncia che ha ultimato il lavoro su una nuova GPU che usa una nuova rivoluzionaria memoria, denominata HBM (High Bandwidth Memory) su cui AMD sta lavorando da diverso tempo insieme a Hynix. Questa memoria promette di superare di gran lunga le limitazioni delle GDDR5, la cui adozione per raggiungere elevate bande passanti (quantità di dati trasferibili al secondo) diviene sempre più costosa, complessa ed economicamente non sostenibile. Le caratteristiche salienti della HBM sono i tempi di latenza ridotti, uso di grande bus, uso di una frequenza ridotta. Inoltre è una memoria di tipo stacked (costituita da diversi livelli di silicio sovrapposti) che viene montata vicino alla al die della GPU, senza necessità di usare lunghi bus sulla scheda, che degradano il segnale e necessitano di potenze di trasmissione dei segnali molto elevate.
I risultati promessi sono prestazioni maggiori con riduzione notevole dei consumi e dei costi della scheda (per via del delicato bus esterno verso i chip GDRR5 che ora non c’è più). Un vantaggio secondario aggiunto è che le dimensioni della scheda si riducono notevolmente non necessitando più di montare una notevole quantità di chip GDDR5. Le limitazioni sono quella che nella sua prima versione queste memorie sono disponibili con una densità piuttosto limitata che ne condiziona la quantità installabile e sopratutto che il costo produttivo è ingente, dato che necessitano di un ulteriore base di silicio molto grande su cui montare sia la GPU sia le memorie (base denominata interposer).
AMD presenta quindi una rivoluzione nel campo delle schede grafiche, dove l’uso delle varie GDDRx perdura sin dalle primissime versioni di chip dotati di accelerazione 3D prodotti negli anni ’90. I vantaggi come abbiamo visto sono notevoli e permettono di andare oltre alle GDDR5, ma con lo svantaggio di un costo iniziale di adozione molto alto, non essendo ancora matura la loro produzione su vasta scala né l’ottimizzazione per ridurre i costi dell’interposer necessaria per ospitare GPU e memorie vicinissime. AMD dice che userà un bus da 4096bit (4 canali da 1024bit ciascuno), che abbinati ai dati conosciuti della HBM definisce la banda di 512GB/s (per confronto la Titan X arriva a 336GB/s) e la quantità di memoria installabile (e non espandibile in alcun modo), pari a 4GB (1GB ciascun chip x 4 chip montati).
La presentazione suscita numerose discussioni sui vari siti di appassionati circa le possibili capacità di questa nuova GPU. Volano numeri da capogiro e non manca chi descrive scenari apocalittici per nVidia che a molti sembra essere giunta al capolinea con la sua architettura Maxwell, in attesa della successiva che però verrà resa disponibile almeno un anno dopo.
Il tempo passa, ma di questa nuova rivoluzionaria GPU ancora non se ne vede l’ombra. AMD proclama da mesi che le schede sono pronte e che manca solo il tuning del BIOS. Sembra lecito pensare che la mossa di anticipare così tanto l’annuncio di un prodotto non finito fosse solo per questione finanziaria (non far fuggire gli investitori in un periodo tanto difficile) e di marketing (arginare le vendite della concorrenza che sul mercato sta complessivamente vendendo 5 volte tanto).
A marzo 2015, nVidia gioca la sua ultima carta: presenta la Titan X. Una scheda basata sul chip “monster” GM200 con architettura Maxwell. Su questo chip circolavano voci insistenti, ma da diverso tempo non se ne sentiva più parlare per vie ufficiali e molti lo davano per abbandonato per impossibilità di realizzazione su processo produttivo a 28nm (ricordiamo che Maxwell era originariamente pensato per il processo produttivo a 20nm che permette quasi il raddoppio del numero dei transistor nello stesso spazio). Invece a sorpresa nVidia lo crea, seppur con qualche limitazione. Il chip si presenta come una vera GPU “monster” a tutti gli effetti: anzi, è LA GPU più grande mai costruita: 601mm^2 che includono 3072 shader, 192 TMS e 96 ROP e 384bit di bus di memoria. Viene montata sulla Titan X con ben 12GB di GDDR5 e 250W di TDP. Il chip però non ha le unità di calcolo a 64bit caratteristiche di tutte le GPU di classe professionale sfornate fino a quel momento da nVidia. Il compromesso è necessario per limitare le dimensioni del chip che già nella sua veste castrata arriva al limite delle dimensioni di produzione dei macchinari di TMSC.
Il prezzo della scheda è lo stesso della vecchia Titan: $999. Questa volta meno giustificabili, dato che rispetto ad una scheda gaming (che tutti ormai si aspettano arriverà, come fu con il lancio della Titan poi seguito dalla 780Ti) monta solo più memoria. Niente capacità di calcolo 64bit che possano interessare chi necessita di fare simulazioni scientifiche ma non può permettersi le schede Quadro o Tesla.
La scheda mostra subito numeri altissimi nei test dedi giochi: finalmente si avvicina alla possibilità di essere usata singolarmente per la risoluzione 4K, anche se con diversi compromessi. La differenza con la 980 è notevole, così come lo è con il meglio che la concorrenza offre, la 290X, basata ancora su quel chip Hawaii ormai 1 anno e mezzo più vecchio.
Qualche settimana dopo AMD annuncia, finalmente, che presenterà la sua nuova serie, inclusa la nuova top gamma basata sulla GPU con HBM, a giugno. Intanto circolano presunti test sulle capacità della nuova GPU di AMD con vari giochi che la vedono particolarmente in vantaggio sulla scheda top di nVidia. Si comincia a discutere sull’eventuale prezzo della scheda che test alla mano, a questo punto potrebbe andare molto vicino se non oltre al prezzo della Titan X.
Con una mossa inaspettata, all’inizio di Giugno 2015, nVidia annuncia la 980Ti, la scheda gaming basata sul GM200. Leggermente più castrata della Titan X, come fu per la 780Ti rispetto alla Titan, monta “solo” 6GB di RAM e le prestazioni sono solo leggermente inferiori con un prezzo, e questo è la parte importante, indicato a $650, non tanto lontana da quelli che sono i prezzi delle 980 custom (superiori a $500). Sembra che nVidia sia nel disperato tentativo di vendere la sua ultima GPU prima del debutto della scheda rivale che mostra numeri migliori dei suoi.
A metà giugno AMD presenta finalmente la sua nuova serie di schede grafiche, la serie 300. È praticamente un rebrand di tutte le schede già in commercio (alcune anche dal 2012), fatta salva la sostituzione di Tahiti con il nuovo Tonga. Tutte le GPU presentate sono una revisione che permettono di aumentare la frequenza, seppur a discapito dei consumi che già non erano bassi. Tonga viene montato ancora solo nella sua versione PRO, cioè quella leggermente castrata rispetto alle caratteristiche complete del chip. Questa mossa non è ben compresa, dato che AMD sul mercato ha un Tonga completo che però è usato esclusivamente per i MacBook di Apple. La nuova serie 300 è quindi la stessa serie 200 con prestazioni migliori dovute a clock e consumi leggermente aumentati. Non ci sono novità di rilievo e la serie è deludente visto che fa ancora uso di GPU basate sulla versione GCN 1.0 nelle fasce minori.
Il 24 Giugno, 3 settimane dopo la presentazione della 980Ti, AMD finalmente presenta la sua ultima creatura in ordine di tempo: la scheda Fury X su cui monta la nuova rivoluzionaria GPU Fiji con HBM e incorpora un dissipatore a liquido di default. I numeri del nuovo chip sono: dimensione 596mm^2 ovvero la GPU più grande in assoluto che AMD abbia mai prodotto e pari (solo 5 mm^2 in meno) alla dimensione del GM200, 4096 shader, 256 TMU e 64 ROP oltre ad avere a bordo 4GB della nuova HBM. Da considerare che per montare la HBM è necessario l’uso di una base di silicio su cui posizionare sia il die della GPU che quelli delle 4 RAM, cioè un ulteriore pizza di silicio (l’interposer) di oltre 1000mm^2. Il costo finale del chip è quindi molto elevato.
Per l’occasione AMD rispolvera un vecchio glorioso marchio, Fury, come già ha fatto nVidia con le versioni Ti delle sue schede. E come sempre avviene, ecco arrivare on-line le prove della scheda…
Continua qui.