Nella mia quotidiana rassegna di notizie, mi sono imbattuto ieri in un pezzo di Techcrunch su una questione controversa che più volte abbiamo discusso su queste pagine. L’autore dell’articolo reputa finita l’epoca in cui era fondamentale interessarsi delle specifiche hardware di un prodotto tecnologico.
In soldoni l’ipotesi è la seguente: basta misurare megahertz, megabyte e megapixel. Aveva senso quando il software era uguale per tutti (Windows) ma nell’epoca del mobile, mentre ci avviciniamo al tramonto del duopolio Wintel, l’integrazione HW-SW è troppo stretta perché le specifiche abbiano ancora una proporzionalità diretta con le prestazioni e l’esperienza d’uso di un portatile, smartphone, tablet etc.
L’argomento è caldissimo: rappresenta il perno di una importante “rivoluzione culturale” del mondo IT, che ha i suoi sostenitori e i suoi altrettanto agguerriti oppositori.
Posto che anche prima che l’informatica si unisse sotto il segno di Windows l’hardware si misurava (e passare da un 6502 a un 68000 faceva una gran bella differenza) vengo subito a quello che reputo l’argomento più solido – con ciò intendendo soprattutto duro a morire – contro la progressiva opacizzazione delle feature hardware: il “ferro” è il parametro più concreto a disposizione dell’utente per misurare il rapporto qualità/prezzo di un oggetto.
Ne consegue che i produttori che non pongono al centro della loro comunicazione le caratteristiche hardware dei propri prodotti lo fanno con l’intento di incrementare le proprie marginalità?
O forse misurare parametri “oggettivi” è sempre stata la maniera migliore per non capire – pensiamo alle sterili battaglie del megahertz o del megapixel – le potenzialità e i limiti di un dispositivo?
In un mondo tecnologico passato in trent’anni dalla riga di comando al tablet, dalle migliaia di utenti ai miliardi, simili diatribe sono strutturali (ne abbiamo parlato qui a proposito di semplificazione vs controllo assoluto).
Comunque la si pensi è difficile negare che l’integrazione fra hardware e software, resa indispensabile dall’avvento in massa del mobile, stia rendendo sempre più difficile stabilire una proporzionalità fra mhz, megabyte e performance. È un trend iniziato sul fronte mobile, che con Windows 8 si estenderà al mondo PC. Oggetti sempre più integrati e chiusi alla personalizzazione nella misura in cui necessitano di essere sempre più compatti e parchi nel consumo energetico.
A questo si somma l’avvento del cloud computing che sposta storage e calcolo in remoto segnando in qualche misura il ritorno dei thin client – dispositivi per i quali la nuda potenza di calcolo non è mai stata determinante.
Questo non implica che l’incremento delle marginalità sia estraneo agli interessi degli operatori, tutt’altro. Semplicemente c’è un valore intangibile – l’integrazione fra hardware e software, il fatto che il SW riesca a utilizzare efficacemente tutte le risorse dell’hardware, batteria compresa – che oggi pregiudica l’esperienza d’uso di un dispositivo mobile più di ogni singolo componente hardware.