Eccoci alla quarta e ultima parte (qui la prima, qui la seconda, qui la terza) di una lunga e dettagliata retrospettiva riguardante gli ultimi quattro anni di competizione fra nVidia e AMD. Anni che hanno visto avvicendarsi architetture diversissime, uniti però da un sottile fil rouge, il processo produttivo a 28nm. Ecco a voi la sostanziosa parte conclusiva del contributo, il cui autore, assiduo frequentatore di AD, si fa conoscere col nickname omerico “nessuno”. Speriamo di tornare presto su questi schermi con nuovi contributi fermo restando che, come sempre, piuttosto che proporre riempitivi rimarremo silenti. Se ritenete tuttavia di avere qualcosa di interessante da proporre, non esitate a scriverci attraverso questo link.
Nuovi test 4K
Con l’arrivo della GTX980Ti e della Fury X, il gaming a 4K su singola scheda diventa possibile. Nonostante qualche compromesso sull’uso degli effetti e filtri più impegnativi, è possibile raggiungere il minimo dei 30FPS a questa risoluzione (che ricordiamo, necessita di calcolare 4 volte il numero dei pixel necessari per il Full HD).
I test a 4K dei giochi diventano quindi test ordinari, mentre prima erano solo test riservati alle sole configurazioni multi GPU e singole prove delle possibilità delle schede mono GPU in 4K.
La nuova scheda di AMD ha creato parecchia attesa, visto i bench non ufficiali che circolavano e che la vedevano con prestazioni leggermente superiori alla Titan X. I test condotti dai vari siti di tecnologia però raccontano una storia diversa. I numeri che la Fury X riesce a macinare non sono superiori a quelli della GTX980Ti. In alcuni test a 4K è leggermente sopra, in altri è leggermente sotto, portando le schede ad essere in media equivalenti. La sorpresa viene dai test effettuati a risoluzioni inferiori: qui la Fury X accusa più divario con la 980Ti man mano che la risoluzione scende, tanto che in Full HD la nuova scheda di AMD è quasi alla pari con la soluzione di fascia inferiore, la 390X (che monta un Hawaii leggermente overcloccato di fabbrica rispetto alla vecchia 290X).
Nonostante l’uso delle più sofisticate tecnologie a disposizione e l’uso di raffreddamento a liquido la scheda non ottiene in nessun campo dei valori migliori di quello che ha presentato la concorrenza giusto qualche mese prima, né in prestazioni né in efficienza (calcolata come prestazioni rispetto ai W consumati). La scheda è quanto di meglio AMD abbia realizzato con GCN (ultima versione 1.2 dell’architettura con HBM, la cui adozione aumenta lo spazio interno alla GPU poiché il nuovo memory controller è molto più piccolo), ma è evidente che non basta. Da notare che il confronto è fatto con le versioni base delle due schede, ma la GTX980Ti è una scheda che è facilmente overcloccabile a valori ben più alti di quelli di fabbrica, mentre la Fury X si è dimostrata incapace di raggiungere valori di overclock sostenuti nonostante il raffreddamento a liquido. Il divario quindi aumenta se si considerano le 980Ti custom o per qualunque utente in grado di spostare lo slider del clock.
La delusione è grande. Dopo l’hype generato da AMD che prima della presentazione la descriveva come una rivoluzione per il gaming a cui nessun altra soluzione sarebbe potuta arrivare, la realtà è ben diversa. La mossa di nVidia di aver piazzato la 980Ti ad un prezzo non eccessivo (anche se non economico) è un mattone che pesa sui margini di AMD. Fiji ha un costo di produzione che è certamente superiore a quello del GM200 visto l’uso della HBM e dell’interposer e nVidia con il prezzo della 980Ti limita il margine di guadagno (o minima perdita) che AMD può realizzare. Ad aggravare la cosa si aggiunge l’uso del raffreddamento a liquido All-In-One (AIO) che AMD mette di default sulla scheda che aumentando i costi di produzione riduce ulteriormente il margine.
Non c’è altro da aggiungere alla diatriba. nVidia, sia che fosse consapevole del valore della sua 980Ti o avesse messo un prezzo per tentare di renderla appetibile nonostante i numeri superiori circolanti dei test della Fury X vs Titan X, ha messo AMD in grave difficoltà con la sua ultima creazione. Il prezzo massimo dunque “schiaccia” il tetto cui AMD può ardire con la sua top, e obbliga a mettere la versione Fury (senza X), la versione con chip castrato, leggermente downcloccato e senza raffreddamento a liquido ad un prezzo inferiore che a sua volta va a interferire con la fascia inferiore, quella coperta dalla 390X. Inevitabile che il prezzo di quest’ultima cali ancora e a catena tutte le altre.
La nuova line up delle due case costruttrici è così (quasi) definita e i prezzi ridotti di AMD le permettono delle vendite che finalmente arrestano quello che fino a quel momento era un salasso di utenza e quindi perdita di market share. Non c’è però molto da gioire in casa AMD, dato che i risultati finanziari non sono certo brillanti con numeri di vendita così ridotti e margini molto bassi.
La line up dei prodotti viene conclusa a Dicembre 2015 quando AMD presenta (finalmente) una versione di Tonga quasi totalmente sbloccata che viene montata sulla scheda 380X, prima non presente in listino. Il perché Tonga completo non sia stato presentato prima rimane un mistero (forse dovuto a qualche accordo di esclusiva con Apple), ma ancora più misteriose rimangono le affermazioni di AMD che dicono che Tonga ha in verità un bus di memoria di 384bit che però non verrà mai sbloccato totalmente per questioni legate al mercato. Evidentemente qualcosa con la progettazione rispetto alla situazione di mercato è andato storto con questa GPU che ha avuto sfortunate vicende.
Per concludere una piccola precisazione riguardo al valore delle prestazioni delle schede grafiche.
Le prestazioni assolute, calcolate come la capacità di generare frame per secondo nei vari test, sono solo una parte della valutazione che bisogna condurre per valutare la bontà o meno di una soluzione in tutti i suoi aspetti. Le GPU infatti sono dispositivi che fanno uso di computazione altamente parallela che scala quasi linearmente con la quantità di unità di elaborazione messe a disposizione. Quindi in teoria un valore qualsiasi di performance è ottenibile incrementando il numero di queste unità. I fattori limitanti sono principalmente due: la dimensione del die (area di silicio usata) che influisce in maniera diretta sul costo del chip e i consumi massimi – limitati dai parametri del bus PCI-e, dalla fisica e dal buon senso.
Dati questi paletti da rispettare (con i consumi che rappresentano un limite più flessibile, producendo un costo che è a carico dell’utente) la potenza assoluta di una GPU è dunque determinata dall’efficienza della sua architettura tramite il doppio rapporto tra prestazioni su consumi e prestazioni su area di silicio necessaria.
La valutazione che si può fare alla fine del ciclo del processo produttivo a 28nm è che l’architettura GCN di AMD perde nettamente su entrambi i fronti con quelle realizzate da nVidia (sia Kepler che Maxwell). A parità di prestazioni nVidia ha un chip più piccolo e meno energivoro di quanto non possa fare AMD. E il divario già presente con Kepler è aumentato ulteriormente con Maxwell, dove nVidia ha realizzato qualcosa che andava oltre le aspettative (e delle previsioni stesse di AMD, molto probabilmente).
Tenendo conto di questi fattori, il fatto che AMD competa in prestazioni assolute con una soluzione di nVidia non va giudicata esclusivamente sui frame generati, ma anche sulle risorse necessarie per ottenere quei numeri. Essendo sistemi che scalano linearmente, come abbiamo detto, escludendo le schede top limitate dai massimi consumi, le prestazioni degli altri chip della concorrenza possono essere raggiunte usando soluzioni più grandi ed energivore. Ed è proprio quello che AMD è stata costretta a fare per tutti questi 4 anni con GCN. Escludendo il confronto tra Hawaii e GK110, dove quest’ultimo era in difetto nel rapporto prestazioni/area (ma non prestazioni/consumi) dovendo nVidia includere le unità di calcolo a 64 bit necessarie per realizzare le versioni professionali Quadro e Tesla – AMD non è mai riuscita a presentare una scheda con le stesse prestazioni della relativa soluzione nVidia con consumi e silicio usato inferiori (come invece faceva con la vecchia architettura Terascale). Si può quindi azzardare che AMD abbia potuto competere in termini di prestazioni assolute usando chip destinati alle fasce superiori ma declassati. Il declassamento comporta la riduzione dei prezzi relativi a quelle soluzioni e quindi ai margini di guadagno, che sono proprio quelli che sono mancati alla divisione grafica di AMD alla fine di tutti i trimestri a partire da Gennaio 2012.
A rafforzare questa idea è il fatto che nVidia abbia creato schede considerate di fascia alta usando GPU di precedente generazione, che andavano a concorrere con la fascia top di AMD. A partire dal GK104 vs Tahiti – con l’inedita accoppiata Gx104 su scheda x80 ovvero il GM204 sulla 980, quando prima era G200 sulla GTX280, GF100 sulla GTX480, GF110 sulla GTX580 – è comprensibile che le versioni enthusiast siano state destinate a versioni “over the top”, che hanno a loro volta lasciato spazio ad una nuova serie prosumer, le Titan; e che le soluzioni enthusiast da gaming abbiano trovato posto in schede con la nuova denominazione x80Ti.
Per vedere le differenti risorse messe in gioco per ottenere prestazioni simili basta dare uno sguardo a quello che sono le GTX960 vs la R9-380. La differenza tra dimensioni, bus e consumi delle due GPU (sebbene c’è da dire che la soluzione AMD ottenga prestazioni leggermente superiori, ma non certo della proporzione delle risorse messe in gioco) esemplifica il quadro competitivo definitosinegli ultimi 4 anni. I numeri grezzi di confronto sono questi. La GTX960 monta il GM206 che è un chip che è esattamente la metà del GM204, ovvero ha 1024 shader, 64 TMU, 32 ROP e un bus di 128bit il tutto all’interno di una superficie di 227mm^2 con TDP di 120W. La R9-380 monta Tonga castrato il cui numeri sono 1792 shader, 112 TMU e 32 ROP e un bus da 256bit racchiusi in un’area di 359mm^2 e dal TDP di 190W. Le differenze di area e consumi sono di oltre il 60%. Tenendo conto delle differenze di prestazioni (circa il 10% a favore di Tonga) è facile vedere che AMD ha una efficienza che è circa il 25-30% inferiore alle soluzioni nVidia. Il GM206 è una GPU che con i suoi 128bit di bus nelle precedenti generazioni era destinata alla serie x50 e inferiore, mentre la GPU di AMD con il bus da 256bit era una GPU che avrebbe dovuto competere con il GM204, le cui prestazioni sono invece notevolmente lontane da quelle ottenibili da Tonga.
Per tutti questi 4 anni AMD è stata messa sotto pressione dalle soluzioni nVidia che hanno ribaltato la situazione che vi era prima dell’introduzione di GCN. I dati di vendita sono impietosi e sicuramente più penalizzanti di quanto le soluzioni di questo produttore non meritino. Ma è evidente che le difficoltà sono state tante e AMD ha dovuto difendersi come meglio ha potuto limitando i danni il più possibile. nVidia dal canto suo ha avuto gioco facile e il fatto che tutte le sue schede siano sempre state vendute ai prezzi di lancio è la cosa più rappresentativa che indica quanto poco affanno ha avuto dalla strategia e dalle soluzioni della concorrenza.
È di questi giorni la presentazione di qualche slide di AMD relativa alla sua nuova architettura destinata al nuovo processo produttivo a 16nm o 14nm, a seconda della fabbrica che andrà ad usare (rispettivamente TMSC o GlobalFoundry). Anche questa è una novità per AMD, azienda sempre molto parca di indiscrezioni e dettagli, finanche sulle architetture appena lanciate. Di certo il periodo non è fra i migliori per tenere secretate informazioni che possono riportare interesse verso il proprio lavoro e possibilmente qualche investitore in più.
Le premesse che si sono potute vedere (non molte in verità) sono promettenti, così come il test di efficienza mostrato. La speranza è che le novità che verranno introdotte siano sufficienti a colmare il divario con la nuova architettura Pascal (che parte dalla già ottima architettura Maxwell) che nVidia per ora tiene segreta. Entrambe si apprestano a utilizzare le nuove HBM di seconda generazione, che abbattono molti dei limiti della prima versione, sulle proprie schede enthusiast/professionali. Probabilmente non quest’anno, visto che le HBM v2 non sono ancora in produzione.
Si spera comunque che con il nuovo processo produttivo il gap di efficienza fra le soluzioni delle due case si comprima, a vantaggio della competizione sulla tecnologia e sul prezzo. Diversamente si tornerebbe a un mercato in cui un concorrente prevale nettamente e per questo può mantenere i prezzi di lancio dei propri prodotti indefinitamente.
Con questo si conclude il riassunto della lotta per la conquista del mercato delle schede video discrete di questi ultimi 4 anni. La storia è basata sui fatti cronologici successi e sui numeri delle specifiche e dei test che sono apparsi in rete in questo arco di tempo. La speranza è di non aver commesso clamorosi errori: nel caso sono gradite le segnalazioni.