Sfogliando i libri di storia ci sono nomi Italiani che hanno brillato per il loro genio. Senza scomodare i nomi dei nostri illustri antenati a volte ci sono storie singolari, più recenti, ma non meno affascinanti.
Vorrei partire dal Progetto ARGO, un’impresa che nel 1996 ha stupito il mondo accademico e ancora oggi rappresenta una pietra miliare quando si parla di guida robotizzata di automobili.
In quell’anno Alberto Broggi, presso l’università di Parma, allestì una Lancia Thema con un sofisticato ma (relativamente) economico sistema di guida senza conducente. Tramite due telecamere in bianco e nero e algoritmi di visione stereoscopica ARGO riusciva a seguire la strada automaticamente, con un’affidabilità sufficiente a coprire (nel 1998) circa 2000km di strade e autostrade italiane. Il tutto richiedendo l’intervento umano meno del 6% del tempo, pur mantenendo una velocità media di circa 90 chilometri orari.
Il Progetto ARGO è stato il primo esempio di guida con apparati a basso costo (telecamere in luogo di sensori laser), e uno dei primi esempi di guida autonoma su tracciati non artificiali, ovvero le strade aperte al traffico.
Questa iniziativa è l’inizio di un percorso che ha portato alla nascita del VisLab, acronimo di Artificial Vision and Intelligent Systems Laboratory, un laboratorio di ricerca che applica al settore automotive discipline di robotica e intelligenza artificiale in real time.
Il VisLab ha partecipato nel 2004 al DARPA Challenge con il veicolo Terramax e si posiziona tra i leader mondiali nell’utilizzo di telecamere in sistemi di guida senza conducente.
L’articolo si divide in due segmenti per altrettanti motivi: la lunghezza sarebbe eccessiva, ma soprattutto sabato 20 p.v. a San Diego verrà presentato dal VisLab “The Intercontinental Challenge”, evento dopo il quale potrò divulgare alcune importanti novità.
Seguono le risposte, riportate pressoché integralmente, dell’intervista al Prof. Broggi. Ho deciso di lasciarle così come sono, per condividere con voi il sense of wonder del suo lavoro:
La guida robotizzata è una realtà già da molti anni. Qual è secondo lei il principale ostacolo alla sua diffusione su larga scala?
La guida robotizzata è una realtà in ambienti controllati e semplici. Si deve ancora lavorare parecchio per avere un funzionamento affidabile in tutte le condizioni possibili. Il principale ostacolo della guida *completamente* automatica è sicuramente la necessità di raggiungere comportamenti affidabili; per la guida semi-automatica (cioè guida assistita) forse occorre migliorare non tanto la tecnologia, ma gli aspetti legali che la regolamentano.
Da cosa è composto il “cervello” di BRAiVE e delle altre vetture del VisLab?
Quello che stiamo sviluppando ora è un’architettura aperta da rendere disponibile ai vari costruttori di autoveicoli, in modo che i sistemi/sottosistemi possano interfacciarsi tra loro. In altre parole vorremmo che i sistemi di percezione che oggi sono stand-alone possano interagire per produrre una descrizione più completa dell’ambiente circostante.
Sul sito www.braive.vislab.it abbiamo anche l’indicazione delle varie funzionalità disponibili finora su BRAiVE con descrizione delle sensor-suite utilizzate. Andiamo a 10Hz con tutte le elaborazioni, le risoluzioni sono mediamente di 720 pixel x 576. Usiamo chiaramente Linux e hardware generico (PC).
Quando arriviamo ad un sistema che ci soddisfa, portiamo il codice su sistemi embedded (DSP) per farlo diventare un prodotto. Per ora abbiamo generato già 2 prodotti e stiamo realizzando il terzo.
Per le piattaforme PC usiamo sempre macchine di alto livello, tipo quad core x86. Per le piattaforme embedded abbiamo scelto il Texas DM642 che è sufficiente.
Che tipo d’interfaccia utilizzate con le periferiche di guida e con i sistemi visivi?
Di tutto: per i sistemi di guida ci interfacciamo direttamente con il CAN bus e mandiamo (e leggiamo) direttamente su CAN tutti i messaggi per l’attuazione.
Per le telecamere generalmente usiamo Firewire, ma stiamo sperimentando l’USB. Abbiamo anche provato gigabit ethernet analogico, ma per ora rimaniamo sul Firewire.
La parte “open” del progetto è orientata ai “driver” o pensate di rilasciare anche una versione del software che “legge” la strada tramite le telecamere? Renderete pubblico il software che nel ’96 animava ARGO? Potremmo “farci in casa” un sistema simile?
Farsi in casa un sistema che si interfaccia al bus CAN della macchina provocherebbe qualche problema legale in caso di incidente: non ci si può collegare, c’è il rischio di modificare i dati al bus del veicolo. E poi la parte di calibrazione è ancora abbastanza complessa. La stiamo rendendo semplice, almeno per chi lavora con noi, in questo modo: una volta installate le camere a bordo, si acquisisce l’immagine di una scena nota, la si uploada sul nostro sito, che la elabora e rilascia i parametri di calibrazione da inserire nel sistema. Per ora è macchinoso, ma contiamo di renderlo più immediato a breve.
Ad ogni modo, gli algoritmi che abbiamo usato su ARGO (ma che stiamo usando anche adesso) sono stati pubblicati. Anche se non rilasciamo il codice sono sicuramente ricostruibili dalle pubblicazioni che abbiamo fatto. Anche tutto ciò che abbiamo fatto per US Army è pubblico sul nostro sito…
…Per motivi di spazio l’articolo si ferma qui, proseguiremo la settimana prossima parlando dell’Intercontinental Challenge e di come il VisLab porterà in Cina i suoi veicoli senza nessuno al volante, nel frattempo è possibile trovare alcune informazioni sul sito vislab.it.