Raramente prima di questi giorni, il futuro dei computer Apple è sembrato così aperto a qualunque esito. Il CFO Peter Oppenheimer accende la miccia annunciando una transizione di prodotto – concetto, come ricorda Bob Cringely, ben distinto da un refresh o dal lancio di una nuova linea – e inevitabilmente tornano alla mente episodi come l’acquisizione di PA-Semi, il rumor sull’integrazione dei chip di codifica/decodifica H.264, addirittura l’ipotesi di un passaggio repentino a CPU e chipset di altri produttori.
Il tutto condito dal prossimo avvento di OpenCL, un linguaggio pensato per facilitare l’impiego del sottosistema grafico a fini general purpose, e dall’ormai vicino debutto della “rivoluzionaria” architettura Larrabee di Intel.
Iniziamo col fare piazza pulita delle ipotesi più peregrine:
1) Apple non rinuncerà a CPU x86, né ora, né nel prossimo futuro;
2) malgrado l’acquisizione di PA Semi, Apple non tornerà a prodursi in casa i chipset;
3) VIA non è della partita.
Sono poi convinto del fatto che AMD non rimpiazzerà Intel, né sul fronte CPU né su quello chipset.
L’architettura Puma mostra spunti interessanti, con performance equilibrate in tutti i comparti, da cui potrebbe trarre beneficio per esempio la linea Macbook, ancora penalizzata dall’impiego di grafica integrata.
Ma anche AMD, che si dirige, dopo i tanti slideshow seguiti all’acquisizione di ATI, in modo fattivo verso l’idea di piattaforma integrata, potrebbe non essere esattamente ciò che Apple cerca in questo momento.
L’ipotesi più quotata in questi giorni è che Apple, pur mantenendo processori Intel, li accompagni con chipset nVidia – l’azienda californiana possiede con Intel un accordo di licenza per la produzione di chipset compatibili.
Una simile mossa suggerirebbe la volontà di Apple di svincolarsi, almeno in parte, dal colosso di Santa Clara. Perché? Innanzitutto per mantenere la distintività e l’unicità del Mac: CPU e chipset di Intel sono più o meno uguali per tutti – tra l’altro la maggioranza di essi finisce in PC Wintel – ed Apple non è certo entusiasta di vedersi relegata al ruolo di assemblatore di componenti quasi standard.
Poi per preservare il potere contrattuale di Jobs sul tavolo delle trattative: più una partnership si consolida, maggiori sono le difficoltà nell’ipotizzare inversioni di rotta. Apple non è certo nuova a transizioni hardware anche brusche, ma se l’ingresso nel mondo x86 qualche vantaggio lo concede in termini di flessibilità, perché non sfruttarlo?
Le parole di Oppenheimer sembrano indicare la correttezza di questa spiegazione: we’re going to be delivering state of the art new products that our competitors just aren’t going to be able to match. Emerge chiaramente un ribadito bisogno di unicità che Intel potrebbe non garantire ad Apple in misura sufficiente.
Svincolarsi quindi da Intel e, per quel che è dato oggi di capire, senza penalizzazioni dal punto di vista del prodotto, anzi. Divenire l’architetto di una piattaforma integrata unica, realizzata con componenti di terze parti appositamente personalizzate, invece che acquistare piattaforme preconfezionate a cui qualunque OEM può accedere: un obiettivo ambizioso e duro da raggiungere, ma capace di rappresentare un vero salto di qualità.
nVidia ha il know-how necessario per soddisfare richieste di design personalizzati, che contribuiranno ad aumentare la distintività del Mac – e a rendere più difficile il lavoro dei produttori di cloni.
Ad OpenCL il ruolo di rendere disponibile agli sviluppatori tutte le risorse hardware in maniera trasparente consentendo, quando possibile, l’impiego della GPU per l’accelerazione delle applicazioni.
Questa ipotesi sembra dunque avere senso, ma alcune pedine del puzzle complessivo non combaciano. In particolare il rumor sull’integrazione di un chip per la codifica/decodifica H.264, che dopo una previsione di Bob Cringely risalente addirittura al 2007, è tornato alla ribalta sulle colonne di ArsTechnica come ormai quasi certo.
Non sarebbe – malgrado un poco confortante test apparso su AnandTech – un campo di applicazione ideale di OpenCL/GPGPU? A che scopo integrare un chip dedicato, con tutte le complicazioni e i costi connessi, per fare ciò che d’altro canto si cerca di rendere la GPU capace di fare?
Poi Larrabee: avrebbe senso abbandonare una partership esclusiva con il colosso di Santa Clara alla vigilia di questa piccola rivoluzione?
Per la risposta dovremo attendere almeno settembre: abbiamo quindi ancora qualche settimana per goderci il gusto sottile dell’incertezza.
UPDATE, 2 Settembre: I problemi di affidabilità che nVidia da tempo incontra sulle ultime generazioni di GPU (qui un articolo di approfondimento di Charlie Demerjian su The Inquirer) potrebbero avere un impatto nelle strategie di Apple.