Los
ordenadores no son como los humanos. Su lenguaje es estrictamente formal,
matemático, de ceros y unos. No entienden de matices, de entonación o de
contexto. Pero cada vez más personas –y empresas– trabajan para romper la
brecha lingüística que las separa de las máquinas. Se dedican al 'procesamiento
de lenguaje natural'. Es decir, a conseguir que los ordenadores no solo lean o
escuchen sino que, además, comprendan.
Las
tecnologías de 'procesamiento de lenguaje natural' están detrás del diccionario
que corrige las palabras mal escritas en el móvil, o de que un buscador sepa
que también tiene que buscar 'nueces' cuando se le consulta 'nuez'.
«Nuestro
objetivo es analizar lo mejor posible toda la información que se encuentra
dentro de un documento», explica Eduardo Basterrechea, fundador de Molino de
Ideas (http ://www.molinodeideas.com), una 'start-up' dedicada a esta clase de
tecnologías. Además de las palabras que lo forman, dentro de un texto hay
temas, relaciones, personas, conceptos o sentimientos, y estas empresas
intentan extraerlos de manera automática mediante programas informáticos. «Nos
ocupamos de convertir el lenguaje coloquial en información estructurada»,
aclara Josu Gómez, de Bitext, una compañía fundada en el 2008.
Más
información
«Una
tecnología así te permite analizar un volumen de información mayor, mucho más
rápido y, sobre todo, de forma más homogénea», asegura Antonio Matarranz,
responsable comercial de Daedalus, una de las empresas decanas del sector. Los
humanos, explica, lo hacen mejor –la precisión de una personas puede ser de un
90%, y la de una máquina del 75%– pero más despacio y de una manera menos
previsible.
Una
de las aplicaciones más novedosas de estas tecnologías es el 'análisis de
sentimiento'. Un conjunto de herramientas que pueden leer textos y determinar
si estos ofrecen una opinión positiva, neutral o negativa. «Cada vez más
empresas quieren saber lo que se dice de ellos», afirma Basterrechea. El
'análisis de sentimiento' permite rastrear cada tuit, cada comentario en un
blog, cada reseña de un producto u opinión sobre una compañía, y clasificarlos.
«Lo interesante son la agregación de estos datos, y las tendencias que
aparecen», asegura Gómez, de Bitext. Todas esas expresiones individuales
permite conocer los puntos fuertes y débiles de una estrategia comercial, o la
evolución de la imagen de una marca.
Lingüística
El
procesamiento automático de textos también es la tecnología tras la interacción
natural entre humanos y ordenadores. Que una persona pueda plantear su pregunta
directamente en un buscador, o que le pida a su teléfono –hablando– que le
busque la mejor pizzería de la zona, o dictarle un mensaje. Comprender lo que
se dice, en el contexto adecuado, no es tan sencillo. «'Madrid' puede referirse
a la ciudad o al equipo de fútbol», aclara Matarranz.
Detrás
de las herramientas de procesamiento de lenguaje natural no solo hay
informática, sino un conocimiento profundo del lenguaje. «Originalmente esta
disciplina se conocía como lingüística computacional», afirma Antonio
Valderrábanos, CEO de Bitext. Tienen que enseñar a los ordenadores a conjugar
verbos, a encontrar la raíz de las palabras, a determinar qué función cumple
cada una de las palabras de una oración, o a deducir en qué idioma está escrito
el texto, explica Elena Álvarez, lingüista en Molino de Ideas. Y sobre todos
estos conceptos desarrollar las tecnologías específicas.
APIs
Una
manera habitual de presentar –y comercializar– estas tecnologías es a través de
APIs. Piezas de 'software' con una función muy concreta –encontrar sinónimos,
determinar el tema principal de un texto, o la definición de una palabra– que
reciben una consulta, y devuelven una respuesta. Son, por así decirlo,
ladrillos que se pueden utilizar para construir cualquier tipo de casa. El
cliente elige cuáles necesita, y si los usará para mejorar el sistema de
búsqueda de los documentos de su empresa, para analizar su imagen de marca en
Internet, para rastrear y organizar datos, o para crear un juego.
Usos
prácticos
Las
tecnologías de 'procesamiento de lenguaje natural' forman parte, sin que se
sepa, de muchas herramientas comunes para el usuario común. Su capacidad de
realizar el análisis semántico de un texto –es decir, de entender su temática y
el significado de las palabras que lo componen– permite mejorar el funcionamiento
de toda clase de servicios.
Los
buscadores las aprovechan para devolver resultados más certeros –«que si buscas
'fusiones de empresas' no solo busque esas dos palabras, sino también las
posibles variantes», explica Josu Gómez– y, también, para identificar faltas de
ortografía cometidas por los usuarios. Los teclados de los teléfonos móviles
pueden corregir automáticamente los errores de escritura porque saben, no solo
qué letras están más cerca de otras, sino qué palabras son más probables cuando
se construye una frase.
Incluso
forman parte fundamental de los sistemas de reconocimiento de voz –que cada vez
son más precisos– y en las tecnologías que convierten el texto en voz hablada.