Riguardando la presentazione di Xbox One, una parte della quale era dedicata proprio alla capacità del dispositivo di reagire ai comandi vocali, mi sono messo a riflettere sul tema dell’interfacciamento vocale nella mia lingua madre, l’italiano.
È un tema che mi è caro fin dal tempo in cui, armato di interesse “scientifico” e dal pretesto di essere più produttivo nella redazione dei miei appunti di studio, acquistai Dragon Dictation per PC IBM VoiceType per Windows 9X – era la metà degli anni ’90 – e lo testai per una mezz’ora, tempo che mi bastò per capire che avevo buttato via centomila lire.
Uno dei motivi per cui sto sperimentando Android è la liberazione da Siri, uno strumento che allo stato attuale, per accuratezza e “intelligenza” basta a malapena a farsi una risata scoprendo le risposte che i programmatori Apple hanno pensato per variopinte sequenze d’insulti.
In questo merito anche Android mi ha piuttosto deluso: riconoscimento vocale più accurato ma risposte comunque poco pertinenti ed evidenti lacune quando si vada fuori dalla ricerca web (l’attivazione di applicazioni o di funzioni base del telefono). Problemi superabili, certo, ma che comunque sono sopravvissuti alla più recente release dell’OS mobile di Google (4.2.2) e che prevedibilmente resisteranno anche alla prossima.
Se oggi i problemi menzionati sono fastidiosi, cosa accadrà domani sui cd. “wearable device”, dispositivi indossabili il cui unico mezzo di input è, per l’appunto, vocale?
Cosa accadrà quando dirò al mio Google Glass “chiama Pasquale Trombetta” e come risposta otterrò una ricerca web avente come oggetto il citato contatto? O quando il fidato iWatch, alla domanda “chi è il regista di Iron Man” mi risponderà “purtroppo non capisco che registra di Cairo on me, ma potrei cercarlo su Internet” (cito un esempio documentato su Internet ma centro altri potrei trovarne se avessi il mio iPhone sottomano)?