In quella che mi piace definire la multicolore primavera delle piattaforme chiuse, un’epoca in cui la parola “standard” faticava ancora ad entrare nel gergo informatico, numerose aziende ed ancor più numerose piattaforme hardware, si contendevano il mercato, ciascuna con l’ambizione di dominarlo.
Quello che nella stragrande maggioranza delle aziende mancava, oltre alla naturale volontà di avere una fetta di mercato la più ampia possibile, era un management che puntasse dritto al concetto di standard, al fine di togliere l’accento sull’anarchica rincorsa all’innovazione tecnologica nella progettazione hardware – che avveniva per l’appunto a discapito di compatibilità ed interoperabilità – come vettore di vendite.
Per inciso, per un produttore hardware confluire in uno standard avrebbe significato un harakiri: la standardizzazione dell’hardware ha infatti l’effetto “collaterale” (più avanti sarà chiaro il perché di queste virgolette), divenuto chiaro negli anni successivi, di spostare l’innovazione ma soprattutto i guadagni più lauti, sul mercato software. Ne abbiamo parlato spesso durante i nostri venerdì di nostalgia informatica; per chi si fosse perso le puntate precedenti, i motivi sono molto semplici:
– la standardizzazione HW omologa i computer, privandoli di unicità e di distintività (immaginiamo un Amiga con hardware identico all’Atari ST e a quell’dell’Archimedes) ma soprattutto, circoscrivendone la libertà d’innovazione architetturale, li porta fondamentalmente a non poter competere su altro che il prezzo;
– la standardizzazione rende la vita molto più facile a chi sviluppa software poiché gli consegna delle prospettive potenzialmente globali con un solo lavoro di sviluppo;
– un HW standard mette chi produce software nella condizione di avvantaggiarsi dell’allargamento della base installata, conseguenza diretta dell’abbassamento di prezzi – una lotta sanguinosa le cui conseguenze sono interamente a carico dei produttori HW;
– una volta che l’ecosistema SW diventa dominante, l’evoluzione degli standard diventa lenta e difficile, sempre all’insegna della parola d’ordine “retrocompatibilità”.
Non è dunque un caso che, sulla scorta di IBM – divenuta madre dello standard PC almeno in parte contro la sua volontà – sia stata proprio Microsoft, e nella fattispecie Bill Gates, che poco dopo sarebbe divenuto tifoso del Macintosh come standard da cavalcare, a promuovere presso una serie di produttori giapponesi (coinvolti con l’intermediazione della ASCII corporation, che si occupava delle vendite di MS in Giappone), la creazione di uno standard con cui aggredire, oltre a quello interno, il mercato Europeo ed USA, presso i quali le corporation del sol levante stentavano a decollare.
Il progetto che ne discese fu battezzato MSX: un’architettura hardware 8bit basata sullo Z80 di Zilog ed altri componenti estremamente economici a presiedere i vari sottosistemi, sviluppata con lo scopo di dominare il segmento degli home computer a basso costo.
Fra le fila dei sostenitori di MSX – annunciato alla stampa nel 1983 – troviamo i colossi dell’elettronica giapponese, fra cui Sony, Sanyo, Sharp, Hitachi, Mitsubishi, Panasonic e Toshiba per nominarne solo qualcuno, più Philips, partner per l’aggressione del mercato europeo: insomma una corazzata apparentemente invincibile, che non pochi sudori freddi provocò fra le fila della concorrenza.
Il comparto OS, manco a dirlo, era in carico dell’MSX-DOS di Microsoft. L’architettura MSX ebbe vari step evolutivi MSX2, MSX2+ fino alla versione MSX TurboR del 1995, equipaggiata col decisamente sottopotenziato processore R800 di ASCII, evoluzione retrocompatibile dello Z80, operante a una frequenza di 7,16Mhz.
Dato l’impegno e il peso di molti dei produttori di MSX nel mercato A/V, il progetto MSX prevedeva esplicitamente nelle parole del suo promotore Bill Gates, l’integrazione del computer in apparati televisivi e stereo evoluti, una potenziale killer application che non vide mai la luce.
Malgrado un prezzo di partenza competitivo (dai 200 ai 400 dollari USA al lancio), MSX fu infatti un colossale flop, attribuibile tanto a motivi tecnici quanto alla situazione di mercato. Sul fronte tecnico l’assenza di un’interfaccia per lettori floppy ed alcune inconsistenze progettuali delle prime versioni minarono la credibilità del sistema, che andava d’altro canto incontro a una concorrenza agguerritissima su entrambe le sponde dell’oceano (PC e PCjr di IBM, Commodore, Atari, Sinclair, con cui si scatenò una vera guerra di religione, una Apple già protagonista con l’Apple II e in procinto di lanciare il Macintosh) e a un mercato complessivamente turbolento.
In conseguenza di questo i produttori giapponesi, inizialmente entusiasti supporter della piattaforma, si defilarono uno dopo l’altro, e ripresero a concentrarsi sullo sviluppo di più potenti piattaforme proprietarie come quei capolavori di computer (di cui ci siamo occupati) che sono X68000 e FM-Towns, ma anche mostri incompresi nel campo del gaming come 3DO.
Microsoft dal canto suo, dopo il – provvidenziale diremmo a posteriori – rifiuto di Sculley di aprire la piattaforma Mac, ebbe la strada spianata dallo sviluppo del mercato dei cloni PC, senza neppure doversi impelagare nel mondo hardware. Se l’innovazione abbia guadagnato o meno dalla standardizzazione che seguì, è materia di accese – quanto ormai sterili – speculazioni.
Vi lascio con un video imperdibile dell’epoca, che descrive la nascita di MSX e raccoglie commenti di Sir Clive Sinclair e lo stesso Bill Gates.