Aunque motores de búsqueda como el de Google representaron un salto exponencial en la forma en que se localiza información en la red, varias décadas después los resultados siguen apareciendo más como una lista de mercado que como una respuesta adecuada a las necesidades del usuario.
Tecnologías emergentes basadas en modelos de “Procesamiento de Lenguajes Naturales – PLN”, prometen revolucionar las búsquedas de información en la web, intentando que los resultados brinden un mayor contexto.
¿Será el “Lenguaje Natural” el futuro de las búsquedas en Internet?
El concepto de: “Procesamiento de Lenguaje Natural PLN” (NLP), es un concepto perteneciente a los campos académicos de: Las Ciencias de la Computación, de la Inteligencia Artificial y la Lingüística, que tiene por objeto estudiar las interacciones entre las computadoras y el lenguaje humano.
El PLN promueve mecanismos eficaces para la comunicación entre personas y máquinas, mediante bits de datos del lado de la maquina y una simulación eficiente del lenguaje natural del lado de las personas, es decir termina siendo en la práctica un sistema de traducción entre dos lenguajes, la primera en el campo de la ingeniería y la otra de las humanidades.
El propósito principal del PLN es diseñar mecanismos para que las comunicaciones sean eficaces en términos computacionales, comprensibles y funcionales en términos humanos.
Los modelos aplicados promovidos por los creados del PLN, se enfocan no solo a la comprensión del lenguaje, sino a aspectos neurológicos, como la organización adecuada de la memoria y la cognición humana.
Los avances de Google en la materia: el LaMDA
Recientemente durante un evento especializado, el CEO de Google: Sundar Pichai, realizó una demostración de su último avance en la comprensión del lenguaje natural, un chatbot autónomo diseñado por Google, el cual está en capacidad de conversar sobre cualquier tema, se trata de: LaMDA.
LaMDA es un “modelo de lenguaje para aplicaciones de diálogo” que ha sido entrenado por los ingenieros de Google para crear conversaciones realistas y brindar respuestas adecuadas en contextos humanos, buscando que tenga la capacidad de reconocer matices y adaptaciones idiomáticas.
Las habilidades conversacionales detrás de LaMDA llevaron años de investigación y desarrollo, algo que finalmente fue posible gracias a un tipo de Inteligencia Artificial llamada: Transformer, la cual es en esencia una arquitectura de red neuronal con capacidad para aprender de las conversaciones humanas.
Durante la demostración realizada por el CEO de Google, LaMDA respondió una serie de preguntas sobre Plutón, todo en lenguaje natural, mostrando esa sencilla forma de obtener información como una alternativa al buscador.
La tecnología en vez de enumerar resultados después de escribir las preguntas en un cuadro de búsqueda, es decir aportar una lista de mercado, LaMDA desarrolló una conversación bastante funcional sobre este cuerpo celeste:
En etapa de Desarrollo
El modelo lingüístico de inteligencia artificial (IA) sobre el cual está construido LaMDA, se encuentra aún en una etapa muy incipiente de desarrollo, razón por la cual frente a toda la expectativa generada, Google aseguró que de momento no tiene planes de usar esta tecnología en algunos sus productos, dado que los resultados en muchos aspectos serían muy impredecibles, sin embargo la compañía aseguró que en la actualidad el equipo de desarrolladores la está utilizando para explorar nuevas formas de interactuar con los ordenadores y de buscar información.
No es la primera experiencia
Si bien LaMDA ha descrestado a los científicos de todo el mundo por la calidad con la que aborda temas cotidianos y su desempeño para comunicarse de forma eficiente con los humanos, es importante resaltar que esta no es la primera experiencia y que incluso en el mercado es posible encontrar productos a la venta que cumplen esta tarea, como es el caso de ALEXA el asistente de Amazon, SIRI el de Apple o el mismo OYE GOOGLE.
La principalmente diferencia entre estos desarrollos previos y la nueva propuesta de LaMDA es la calidad y profundidad de las interacciones, algo nunca visto en el dialogo entre las máquinas y los humanos.
Falta mucho camino por recorrer y muchas dudas por aclarar
Si bien la expectativa por los sistemas LDA de Procesamiento de Lenguaje Natural crece alrededor del mundo, las críticas también crecen como espuma, especialmente en ciertos sectores académicos que han venido trabajando el tema del impacto negativo de las TIC en la vida de las personas.
Emily M. Bender, profesora de la Universidad de Washington especializada en lingüística computacional y cuestiones éticas relativas al procesamiento del lenguaje natural, publicó un artículo en el cual afirma que existe demasiada prisa por adoptar los chatbots para tareas para las que no están diseñados. En particular, teme que el uso de modelos basados en lenguaje natural para la búsqueda pueda generar desinformación y un debate polarizado.
El Modelo Multitareas MUM propuesto por Google:
El año pasado, el investigador de Google Don Metzler propuso reinventar el motor de búsqueda que utiliza la compañía, convirtiéndolo en un aplicativo de conversación bidireccional entre el usuario y la máquina, con ordenadores respondiendo a las preguntas como lo haría un experto humano a través de un modelo unificado multitarea (MUM), construido sobre un modelo de lenguaje natural y diseñado para responder las consultas de los usuarios recopilando información de diferentes fuentes.
Imitaciones irracionales
Un análisis realizado por el MIT Technology Review, el medio especializado del Instituto Tecnológico de Massachusetts, encontró que los chatbots y la IA pueden imitar el lenguaje natural con un realismo impresionante, gracias a que son entrenados con cientos de libros y una enorme cantidad de páginas web, absorbiendo enormes cantidades de información, sin embargo concluyen que no pueden aún ser utilizados como moteres de búsqueda, pues en esencia todos los modelos actuales de procesamiento de lenguaje, son básicamente imitadores irracionales, es decir que si bien pueden llegar a ser sorprendentemente precisos al predecir las palabras o expresiones con más probabilidades de aparecer en una frase o conversación, finalmente no entienden o comprenden una sola palabra de que lo dicen, es decir les falta contexto o marcos de referencia[6].
Este es el dilema. Las respuestas directas pueden ser convenientes, pero también suelen ser incorrectas, irrelevantes u ofensivas. Pueden ocultar la complejidad del mundo real, advierte Benno Stein, profesor de la Universidad Bauhaus en Weimar (Alemania[7]).
En Conclusión, si bien la humanidad ha logrado impresionantes avances en el campo del procesamiento natural del lenguaje PLN, la realidad es que esta tecnología aún se encuentra en etapa de desarrollo y aunque en apariencia los sistemas son capaces de sostener conversaciones, la realidad es que las máquinas aún no comprenden el significado de lo que dicen, es decir carecen de contexto o marcos de referencia, razón por la cual y ante la complejidad de los temas que abordamos como especie, no es posible confiarle aún a esta tecnología nuestra búsquedas en línea.