Si tratta di una domanda decisamente ambigua, perché è naturale chiedersi quale sia il contesto in cui si inquadra. Efficaci rispetto a cosa? Chi ha seguito la lunga carrellata di articoli dedicati a DRM e TCPA, che hanno generato lunghi e interessanti dibattiti, può intuirne già il senso.
I DRM nascono per tutelare la proprietà intellettuale e il diritto di copia dell’azienda che ha commercializzato un prodotto, impedendone la duplicazione non autorizzata e/o la fruizione senza aver corrisposto il riscontro economico richiesto.
L’efficacia per un’azienda che opera nella produzione di contenuti multimediali e/o software è, quindi, ben definita. L’obiettivo rimane quello di massimizzare i benefici derivanti da protezioni di questo tipo, per cui più glielo permettono e migliore sarà, appunto, l’efficacia.
Un DRM “forte” fa uso di meccanismi di protezione robusti / complicati atti a migliorare gli effetti del DRM, quindi il controllo che l’azienda ha sul prodotto e, di conseguenza, sugli incassi derivanti dalla vendita.
Questo, però, si può realizzare anche senza l’ausilio di un DRM forte. Pensiamo all’introduzione dei CD-ROM, ad esempio: all’epoca copiarne uno era praticamente impossibile per due motivi: inizialmente non esistevano masterizzatori e supporti vergini per farlo, e in seguito, pur essendo disponibili, entrambi avevano costi elevatissimi che rendevano, di fatto, preferibile l’acquisto dell’originale.
Potremmo dire che la stessa tecnologia sia stata la migliore protezione alle copie non autorizzate. Ciò spesso è vero, perché generalmente nuove tecnologie necessitano di un certo periodo di tempo affinché si abbattano i costi di produzione a esse legati, divenendo maggiormente fruibili per la massa.
Si tratta, pertanto, di una “protezione” che è destinata ad essere abbattuta col tempo, il che non è necessariamente un male, come vedremo più avanti, esaminando alcuni casi recenti e passati.
Oltre a questa naturale barriera alla copia, i dati (mi riferisco all’audio in particolare) presenti dei CD-ROM non erano dotati di nessun altro meccanismo di protezione: erano (e sono), infatti, “in chiaro”. Quindi accessibili da chiunque, e se ne poteva fare una copia.
Nemmeno questo era un problema, poiché mancava il supporto dove piazzarli: i CD-R, come già detto, erano assenti o estremamente costosi, mentre gli hard disk nel 1985 (anno di presentazione del CD-ROM) erano appannaggio di pochi, e si misuravano in decine di MB.
Per farla breve, soltanto verso la metà degli anni ’90 il nuovo mezzo mostrò i fianchi, per la diffusione di hard disk sempre più capienti (e in grado, quindi, di contenerne integralmente i dati), ma soprattutto per l’introduzione del nemico numero uno: l’MP3.
Con questo formato la dimensione dei brani veniva ridotta anche di un ordine di grandezza, permettendo non soltanto di riversare un intero CD negli hard disk, ma addirittura di poterne copiare diversi altri, portando via via alla situazione di diffusa copia della musica che ben conosciamo.
Una situazione analoga s’è verifica coi film, ma anche col software. E’ chiaro che il mezzo di per sé non è più sufficiente e le aziende hanno cominciato a elaborare il concetto di DRM, rafforzandolo col tempo sia per impedire la semplice copia, sia per ottenere un controllo più fine sul prodotto.
La ricerca di protezioni sempre migliori è diventata una necessità tangibile, perché i progressi della tecnologia e il maggior numero di hacker / cracker ha portato a tempi di sprotezione e, quindi, di fruizione “a sbafo”, sempre più ridotti. Infatti con l’introduzione dei DVD, che era una nuova tecnologia, non è passato lo stesso arco di tempo dei CD-ROM per renderli facilmente copiabili.
Coi Blu-Ray è andata pure peggio, perché poco dopo la loro introduzione circolavano già copie in DivX o Matroska/H.264, vanificandone la tanto osannata protezione. Col software non ne parliamo nemmeno, perché la situazione è endemica e cronica da parecchio ormai.
All’orizzonte si sono, quindi, affacciati DRM basati su tecnologie più robuste, come il Trusted Computing (di cui abbiamo parlato nell’articolo sul TCPA), con lo scopo, quindi, di rendere estremamente difficile la vita ai cracker, e possibilmente ridurre vicino allo zero le loro probabilità di successo. L’obiettivo, ovviamente, è quello di ottenere un DRM estremamente “forte”.
I primi frutti di questa strategia sembrano arrivare con le nuove console che fanno uso di TC (a parte il Wii di Nintendo). XBox 360 è stata crackata dopo qualche tempo a causa di una leggerezza nel firmware del lettore DVD, per cui è possibile copiarne i dischi, sebbene integralmente (non si possono effettuare modifiche a file firmati digitalmente).
A parte questo, il digital delivery sembra funzionare bene. Ad esempio, si possono noleggiare video che rimangono fruibili per un determinato periodo di tempo, senza quindi la possibilità di copiarli all’esterno ad altre persone.
Con la Playstation 3 la situazione è anche migliore, visto che al momento non sembra sia stato trovato il modo di copiarne i giochi (per i film e i contenuti multimediali la situazione è analoga alla XBox 360), complice anche la presenza del Blu-Ray i cui costi elevati, trattandosi di nuova tecnologia, non permetterebbero in ogni caso di rendere l’operazione economicamente conveniente.
Rimane in ogni caso il fatto che non sia possibile copiare i giochi, in quanto la protezione di questa console non è stata ancora scardinata. In verità dei tentativi sono stati fatti, e uno in particolare sembrerebbe promettente, ma a tutt’oggi non è nemmeno possibile far girare homebrew (quindi senza firma digitale).
Anzi, la situazione non è certamente delle migliori: l’hardware è talmente blindato da aver scoraggiato parecchi hacker (l’ultima notizia la trovate qui).
Sony ovviamente ha provveduto a eliminare quella falla nei successivi firmware, e ha pensato bene di eliminare il supporto a Linux anche alle vecchie console, che probabilmente sarà stata la “porta aperta” che è poi stata sfruttata.
Possiamo parlare di DRM forti efficaci? Fra alti e bassi, tutto sommato possiamo dire di sì. Il basso è rappresentato dalla copia dei giochi della XBox 360. L’alto, invece, dall’impossibilità di farlo per la PS3, e in generale dal sistema di gestione dei contenuti distribuiti tramite i rispetti store online.
Ma anche se a breve arrivasse la possibilità di poter copiare i giochi della PS3, la situazione rimarrebbe sostanzialmente invariata. Vuoi per i Blu-Ray costosi da duplicare, vuoi perché, a conti fatti, una protezione che dura 4 anni e, quindi, permette sia a Sony che agli sviluppatori di giochi di poter capitalizzare il frutto del loro lavoro, non si può che considerare un successo.
D’altra parte lo scopo di una protezione non è necessariamente quello di rimanere inviolata in eterno. Per un’azienda rimane quello di poter disporre di un periodo di tempo sufficientemente lungo (il cosiddetto ciclo di vita) da garantirle di poter ottenere un consistente ritorno economico.
Ne sa qualcosa la Capcom, che in questo è stata maestra. Basti pensare che il famigerato sistema arcade CPS3 (Capcom System 3) è rimasto inviolato per quasi una dozzina d’anni. Soltanto nel 2007, infatti, è stato finalmente smantellato l’algoritmo di crittazione dei dati, dando il via al reverse engineering delle macchine e alla loro emulazione.
Si tratta, quindi, di segnali molto incoraggianti che lasciano intravedere sempre più DRM forti utilizzati dai produttori, che spingono chiaramente in questa direzione e nell’adozione di tecnologie come il TCPA che possono essere utili ai loro scopo.
Dal punto di vista degli utenti finali, possiamo parlare ugualmente di “efficacia” in relazione ai DRM forti? A primo acchito sicuramente no. Basti pensare all’eliminazione del supporto a Linux anche nelle vecchie PS3, che venivano vendute presentando questa funzionalità.
E’, a mio avviso, un abuso che ha portato ad aprire delle class action nei confronti di Sony. D’altra parte rimaniamo ancora in uno stato di diritto, e un’azienda, forte della sua posizione, non può e non deve permettersi di infrangere la legge e i diritti dei consumatori (questo lo specifico perché in passato il mio pensiero in materia è stato frainteso).
A parte questo non risultano altri “abusi”, e il modello sembra funzionare, con gli utenti che diventano più consapevoli del fatto che alcuni contenuti li potranno scaricare gratuitamente, per altri dovranno pagare per poterli noleggiare o acquisire a titolo definitivo (c’è anche questa possibilità).
Con maggiori garanzie alle aziende il mercato dovrebbe risultare vantaggioso anche ai consumatori, cioè agli utenti onesti che pagano, perché con l’allargamento delle vendite i prezzi dovrebbero col tempo abbassarsi (complice anche la concorrenza fra i diversi store online).
E’ una strada che personalmente spero venga intrapresa anche in ambito PC, dove il mercato del software è a rischio (alcune software house hanno dichiarato di volersi spostare sulle console se la situazione non cambia), come pure la diffusione di prodotti multimediali.