Pronto, el hablar inglés, francés o español será sencillo con el traductor de voz de Skype en varios idiomas, aunque algunos cuestionan si será tan bueno.
«Puedo hablar en español.» Cuando esas palabras salieron de los labios de un antiguo colega, mi cabeza se volvió y la ceja derecha se levantó automáticamente, sabiendo que nunca lo habló.
Es cierto que él había visitado España un par de veces, pero seguramente no lo suficiente como para que él sea capaz de afirmar que él podía hablar el idioma. Cualquiera puede decir «quiero un café», pero eso no se lo va a equiparar con hablar un idioma.
Él no había oído la conversación anterior. Aquella en la que un reportero había estado discutiendo un caso complejo que involucraría una llamada a la policía española. Por otra parte, tal vez él había escondido su fluidez en otro idioma y desde luego parecía lo suficientemente seguro.
«Tengo algunas preguntas», dijo el periodista. «Por favor, ¿puedes llamar a este número y hablar con la policía en Madrid?, quiero saber lo que dicen.» No es frecuente que la sangre de alguien visiblemente drene en su cara, pero yo la vi ese día. Como se sospechaba, él no era más fluido en español que Andrew Sachs. Dio algunas excusas, dijo con valentía que lo haría, pero preguntó si podía hacer la llamada en otra habitación.
Y he aquí, la entrevista nunca tuvo los resultados esperados. Algo sobre que la policía no contestó el teléfono. Pero si un conjunto de servicios que se lanzarán a finales de este año habría estado disponible en ese momento, él se habría ahorrado la vergüenza.
Skype Traductor promete traducir automáticamente las llamadas de voz en varios idiomas y tiene el potencial de revolucionar la forma en que hablamos con la gente cuya lengua no compartimos. Si bien ya existen programas de traducción, la gran mayoría de ellos dependen de las dos personas que conversan y están en la misma habitación al mismo tiempo.
Una persona que va a hablar en un idioma, lo indica a través de un botón o hace una pausa que ha terminado de hablar y luego tiene una traducción que la otra persona pueda entender. El Skype Traductor va a permitir que la gente tenga conversaciones remotas fluidas a través del teléfono, con cada audiencia de cada lado con las palabras pronunciadas en el idioma que ellos entienden.
Ya un número de empresas trabajan en esta tecnología – la red de telefonía móvil dominante en Japón NTT DoCoMo ya tiene un sistema similar en funcionamiento y Google tiene la esperanza de perfeccionar en tiempo real las llamadas en los próximos años. Skype está listo para hacer un masivo impacto dado que tiene más de una tercera parte del mercado de las llamadas internacionales y 300 millones de usuarios en todo el mundo.
El próximo servicio de Skype no es un concepto totalmente nuevo. Por unos 10 dólares la hora, Call Interpreter de Lexifone, se lanzó el año pasado y le permite llamar a un número de acceso, marcar a la persona con la que quieres hablar y conversar fluidamente en su propio idioma y su conversión en el otro.
Pero la acogida inicial de Lexifone no fue muy grande, los críticos han dicho que era frustrante y no siempre tan sencillo como debería ser. Cuando Skype lance su Traductor será en una versión beta limitada para los que pudiéramos quizá esperar algunos problemas también.
«Es muy pronto para esta tecnología, pero la visión de Star Trek para un traductor universal no es una galaxia de distancia y su potencial es tan emocionante», dice Gurdeep Pall, vicepresidente corporativo de Skype. Aun así, este tipo de tecnologías recorre un largo camino hacia la solución de una necesidad creciente.
Las empresas compiten en un mercado global y las ideas se comparten entre los países. La migración crea sociedades multilingües que traen sus propias necesidades. Las fuerzas policiales en Inglaterra y Gales gastaron 40 millones de libras en los traductores humanos en tres años.
Las municipalidades también gastan dinero en efectivo en el empleo de intérpretes para las líneas telefónicas. El consejo de Bolton, que se ocupa de un buen número de Urdu, gujarati y los residentes del este de Europa, gasta 34,000 dólares al año hablando con ellos a través de intérpretes por teléfono. El consejo está mirando al Skype traductor «con interés».
Gran parte de la demanda de traducción también ha resultado de las guerras de Irak y Afganistán. En ambos países hay una falta de personal militar, diplomáticos y de inteligencia versados en idiomas como el árabe, dari, pashto y urdu. En 2007, el software de traducción de voz a voz de IBM fue introducido por las fuerzas estadounidenses en Irak para ayudar a comunicarse más eficazmente con la policía iraquí, las fuerzas militares y civiles.
A la demanda de este tipo sólo se ha intensificado la cantidad de tiempo de investigación y el dinero que se gasta en la traducción automática. Ciertamente, el Skype Traductor está basado en años de costosos estudios por Microsoft Research (Microsoft compró Skype por US $ 8,5 mil millones de mayo 2011).
Pero aquellos que han visto en acción el Traductor dicen que valdrá la pena el esfuerzo. «Vi una demostración temprana de la tecnología en el año 2010», dice el Dr. Jeff Allen, un consejero en la traducción generada por computadora para SAP, la compañía de software empresarial. «Incluso en ese momento, los investigadores fueron capaces de conseguir que el sistema maneje el habla bastante rápido.»
Skype Traductor utiliza un proceso llamado «aprendizaje profundo» que se basa en redes neuronales computarizadas en lugar de sólo la escritura de reglas explícitas (la manera de traducción computarizada se llevó a cabo antes de la década de 1990).
Juntas actúan como un cerebro artificial, capaz de aprender las características complejas del discurso. Tiene una gran volumen de datos, por lo que, a mayor conocimiento de una lengua que se recoja, más precisa será esta.
Lo que es más, en el aprendizaje de español, por ejemplo, va a ser mejor en alemán. E incluso Skype no sabe por qué sucede esto. Pero entonces tales sistemas serán siempre muy complejos. El habla es gobernada por reglas, pero hay más que solo apenas encadenar palabras juntas.
El lingüista y autor David Crystal dice que un traductor automático perfecto tiene que entender el ritmo, el acento y la entonación del habla y considerar los modismos, la expresión metafórica y las características del discurso. Tiene que ser consciente de la cultura y el estilo apropiado.
«Si nos fijamos en una frase como ‘Era como Clapham Junction allí hoy, se puede manejar en principio, una vez hecho el análisis lingüístico relevante», dice. «Pero estamos muy lejos de alcanzar ese nivel de sofisticación, incluso para los idiomas más bien estudiados.» En otras palabras, una máquina tendría que ser muy inteligente para comprender que Clapham Junction es una muy concurrida estación de ferrocarril y traducirla como tal.
También hay dos procesos en juego. Una aplicación de traducción necesita el reconocimiento de voz preciso – para saber exactamente lo que está diciendo sin cometer un error. Y necesita la traducción avanzada de una máquina que toma esas palabras y las calcula a otro idioma.
De acuerdo con Alexander Marktl, el CEO de Sonico Mobile, fabricante del programa iTranslate Mac, se ha producido un desequilibrio de las dos tecnologías. «La precisión del reconocimiento de voz está mejorando mucho más rápido que la exactitud de la traducción automática», dice. «El mayor problema con la traducción de voz a voz es tener no uno, sino dos áreas con problemas de precisión.
Es por eso que a veces se ve resultados divertidos, no importa que tan sofisticada sea la tecnología». Por esta razón, el Dr. Allen sigue siendo cauteloso. «El lenguaje no es binario y está inventando siempre nuevas formas de decir las cosas», dice. «Esta tecnología no sustituirá a los humanos por el momento.
Todavía habrá una necesidad de intérpretes profesionales para trabajar en las profesiones jurídicas y médicas, para la diplomacia y las conferencias. Vemos cuán difícil es traducir los chistes políticos de un idioma a otro con los seres humanos.
Imagine las tomas falsas que podrían ser causadas por un ordenador». Aun así, la nueva tecnología debería hacernos conversar como nunca antes. Crystal dice que el software abordará la necesidad de inteligibilidad e insiste en que la gente todavía quiere aprender un idioma.
«La necesidad de expresar la identidad es por lo que tenemos diferentes idiomas, dialectos y acentos», dice. Las máquinas, al parecer, le ayudarán a hablar, pero nunca van a tener nuestra personalidad.

¿Qué te parece?