Di Federica Vazquez
Washington (nostro servizio particolare). L’Esercito statunitense (US Army) di oggi ha bisogno di interpreti e di linguisti.
Ma il loro addestramento è moto caro e si è a corto di personale.
Per sopperire a questo è stato inventato il Machine Foreign Language Translation System (MFLTS).

Un militare americano in Afghanistan parla con un gruppo di persone
Questa macchina è formata da due applicazioni, una per la traduzione bidirezionale in tempo reale, da voce a voce e l’altra per la traduzione da testo a testo di documenti elettronici, pagine Web e social media.
Ogni applicazione ha due parti principali. Una è l’applicazione principale che gestisce tutta l’interazione tra l’utente e gli strumenti sottostanti.
Si potrebbe definirla il “gestore del lavoro”, perché aiuta le altre parti del sistema di traduzione a “parlare” tra loro.
La seconda parte importante è il language pack che contiene modelli e dizionari specifici per la lingua, addestrati dalla macchina e necessari per fare le traduzioni.
I language pack sono plug-in modulari che gli utenti possono installare e rimuovere per fare il lavoro di traduzione necessario nell’ambiente dell’utente.
APPRENDIMENTO AUTOMATICO 101
L’apprendimento automatico che supporta gli sviluppi nella tecnologia del linguaggio umano alla base di MFLTS attinge alla ricerca e alla teoria dell’informatica, delle neuroscienze e dell’intelligenza artificiale sui modi per permettere a un computer di imparare o fare qualcosa da solo, senza una programmazione esplicita da parte di un umano.
Le reti neurali artificiali, basate vagamente sulla struttura del cervello umano, sono ciò che rende possibile l’apprendimento automatico e offrono il potenziale per creare un’intelligenza veramente artificiale in futuro.
Le reti che l’alimentano imparano in un modo molto simile a quello umano.
Come ha scritto Gideon Lewis-Kraus, in un articolo pubblicato sul New York Times Magazine del 14 dicembre 2016, sul lavoro di Google sull’apprendimento automatico, essi “conoscono il mondo per tentativi ed errori, come fanno i bambini piccoli”.
Nel modo in cui MFLTS è messo insieme, queste due parti sono ugualmente coinvolte nella traduzione.
Quando un soldato inizia una sessione di traduzione, la parte manager dell’applicazione avvia una sessione tra il militare e gli strumenti di traduzione del pacchetto linguistico di cui egli avrà bisogno per svolgere il lavoro.
Durante la traduzione, l’App cattura l’input, gestisce i processi e fornisce la traduzione all’utente.
FARE LA “MAGIA”
La vera magia di MFLTS vive nel profondo dei pacchetti linguistici, dove scienza e arte si uniscono per permettere al software di sentire, capire e interpretare il più possibile come un linguista umano.
All’interno dei language pack ci sono due o più componenti linguistici che contengono quelli che vengono chiamati “modelli probabilistici”, sviluppati da scienziati e ingegneri del software utilizzando tecniche avanzate di apprendimento automatico.

Una fase di addestramento all’uso dell’MFLTS
Un esempio di modello probabilistico è il modo in cui uno smartphone “indovina” quello che stai digitando prima che tu abbia finito.
Naturalmente, la traduzione è molto più complessa, quindi queste tecniche di apprendimento automatico includono l’elaborazione di grandi volumi di dati linguistici altamente strutturati e annotati per sviluppare modelli che riconoscono le relazioni tra gli elementi del discorso.
Per l’applicazione vocale, questi componenti linguistici sono il riconoscitore automatico del discorso, il motore di traduzione automatica e il sintetizzatore vocale text-to-speech.
Un microfono cattura il discorso, e il riconoscitore automatico lo trasforma in dati di testo usando un modello probabilistico che trova la corrispondenza tra il discorso che è stato convertito in testo e ciò che la macchina ha imparato.
Dopo che il discorso è stato convertito in testo, esso viene visualizzato sul display in modo che l’utente possa decidere se sia corretto.
Questo è il modo in cui l’Assistente Google, Siri di Apple e altri ti “capiscono” quando chiedi loro di trovare la prossima stazione di servizio più vicina, o quando chiedi ad Alexa di Amazon di suonare una canzone specifica dalla tua libreria musicale.
Il riconoscitore vocale automatico non completa tutto il compito di traduzione richiesto; il suo lavoro è finito quando passa il discorso riconosciuto nel testo al processo successivo, la traduzione automatica.
PROCESSI CORE
All’interno di un pacchetto linguistico, il motore di traduzione automatica è il componente che esegue la “magia” della traduzione effettiva.
Come il riconoscitore vocale automatico, un motore di traduzione automatica usa modelli probabilistici che sono addestrati usando insiemi di dati in due lingue sviluppati con l’esperienza di persone che le parlano correntemente in una coppia, come ad esempio l’inglese e l’arabo.
Non sorprende che lo sviluppo di motori di traduzione automatica per coppie di lingue insolite sia spesso molto laborioso e costoso a causa della scarsità di dati e di linguisti competenti in entrambe.
Come hanno fatto gli sviluppatori del modello del riconoscitore vocale automatico, gli ingegneri e gli scienziati che stanno creando modelli di traduzione automatica si affidano a tecniche di addestramento dei modelli che sono una combinazione di scienza e arte.
I modelli probabilistici di traduzione automatica trovano la migliore corrispondenza tra la lingua di partenza e quella di arrivo e, come il riconoscitore vocale automatico, forniscono poi l’output di testo nella lingua di arrivo a un sintetizzatore vocale e a un display, utilizzando il set di caratteri della lingua di arrivo.
Infine, per l’applicazione vocale, la parte di lingua text-to-speech è un programma di sintesi che produce un discorso udibile nella lingua di destinazione.
Come il riconoscitore automatico del parlato e la traduzione automatica, la componente text-to-speech si basa su modelli di sintesi vocale ampiamente addestrati che forniscono la conversione da testo a voce.
Dopo aver ricevuto il testo dal motore di traduzione automatica, la funzione text-to-speech converte il testo in lingua parlata, mettendo insieme parole o frasi dal parlato registrato della lingua di destinazione.
MFLTS riproduce quindi il contenuto text-to-speech sull’altoparlante interno o esterno, tipicamente, uno smartphone.
Lavorando insieme, queste componenti linguistiche sono il “cervello” del MFLTS, che sembra sentire, capire e tradurre l’inglese in un’altra lingua.
Diciamo che un soldato ha appena tradotto un discorso da un locale di lingua araba.
Ora deve invertire il processo, traducendo dall’inglese all’arabo. Questo non è un problema.
E’ il motivo per cui i pacchetti linguistici MFLTS viaggiano sempre in coppia.
DA TESTO A TESTO
Con l’App di traduzione del testo MFLTS, i soldati possono tradurre media basati sul testo, come le pagine Web e i post su Twitter e altri social media.
Come i motori di traduzione automatica dell’App vocale, il motore da testo a testo è addestrato su un gran numero di dati linguistici.
La traduzione del testo è tipicamente veloce e molto accurata. Poiché non deve riconoscere il parlato, che può variare molto tra gli individui, o sintetizzarlo, ci sono meno fonti di errori nella traduzione finale.
CONCLUSIONE
Per molti soldati, l’applicazione vocale MFLTS può essere la migliore alternativa a un linguista umano, soprattutto se non ce n’è uno in giro.
Il programma MFLTS dell’Esercito USA intende sfruttare i maggiori progressi nella tecnologia di traduzione delle lingue e nell’apprendimento automatico per fornire una capacità conveniente che permetterà ai soldati di rompere le barriere linguistiche che la Forza Armata continuerà ad incontrare.
L’MFLTS è in servizio dal dicembre 2016, quando è stato messo in campo per la prima volta sui dispositivi Nett Warrior, simili a smartphone, utilizzati dalla 1^ Brigata, 82^ Divisione Aviotrasportata.
Il sistema viene utilizzato anche a sostegno dell’Operazione “Inherent Resolve” in Iraq.
© RIPRODUZIONE RISERVATA