En los últimos años, el buscador de Google ha ido avanzando en tres direcciones: 1) disimular la publicidad entre los resultados de búsqueda, 2) responder a nuestras preguntas sin que tengamos que salir de Google y 3) mostrar contenido más relevante personalizando los resultados.

Una forma que tiene Google de mostrar resultados más relevantes es consultar nuestra ubicación. Cuando buscamos “Córdoba” en Google, los resultados cambian dependiendo de si nos encontramos en Argentina, en España o en México. Pero saberlo todo sobre nosotros no es suficiente para entender lo que estamos buscando.

Aquí es donde entra en juego la nueva herramienta de Google, conocida como BERT (Bidirectional Encoder Representations from Transformers). BERT es una red neuronal de código abierto entrenada por Google para procesar de forma más efectiva el lenguaje natural, es decir, la manera en que nos expresamos.

“Con los últimos avances de nuestro equipo de investigadores en la ciencia de la comprensión del lenguaje, que ha sido posible gracias al aprendizaje automático, estamos mejorando significativamente la forma en que entendemos las consultas”, escribió Pandu Nayak, vicepresidente de Google Search, en un comunicado. “Esto representa nuestro mayor avance en los últimos cinco años, y uno de los mayores avances en la historia del buscador”.

Un ejemplo real. Antes de BERT, la búsqueda “2019 viajar de Brasil a Estados Unidos hace falta visado” devolvía un artículo del Washington Post sobre viajar a Brasil desde Estados Unidos; el buscador no entendía la importancia de la preposición “a” en la frase. Con BERT, el buscador devuelve como primer resultado la web de la embajada estadounidense en Brasil; en concreto, una página sobre visados para turistas brasileños.

Ocurre lo mismo con los adverbios. Antes de BERT, la búsqueda “aparcar en una cuesta si no hay bordillo” obviaba la importancia de la palabra “no” y devolvía un resultado sobre aparcar en una cuesta con bordillo. Con BERT, el algoritmo comprende mejor la frase y cambia el resultado a un tutorial más relevante para el usuario.

BERT nos anima a dejar de pensar en “palabras clave” y formular preguntas a Google como las que haríamos a una persona. Por ejemplo: antes de BERT, la búsqueda “¿puedes comprar un medicamento para otra persona en la farmacia?” no entendía la importancia de “para otra persona” en la frase, así que devolvía resultados generales sobre medicamentos y farmacias. Con BERT, la pregunta queda contestada en el primer resultado.

La compañía lleva años mejorando sus algoritmos de comprensión del lenguaje a través de Google Assistant (el asistente de Android y dispositivos como el Google Nest Hub). Por ahora, BERT solo se aplica a las búsquedas en inglés dentro de Estados Unidos, pero Google promete extenderlo a otros idiomas en el futuro, empezando por el coreano, el hindi y el portugués.

Pero ¿Cómo funciona BERT, la mayor actualización del algoritmo del motor de búsqueda más usado en el mundo?

“Así que estamos construyendo una mecanismo para responder a consultas que no podemos anticipar”, explicó.

Como señala el propio Nayak, BERT funciona como un sistema que ha sido diseñado para entender mejor el lenguaje en el que hablamos todos los días.

“En su esencia, Google Search se basa en entender el lenguaje. Nuestro trabajo es descifrar qué es lo que quieres buscar en la red, sin importar cómo lo escribas o cómo combines la palabras en el teclado”, anotó.

De acuerdo a Google, BERT es una red neuronal de código abierto que ha sido entrenada para procesar el lenguaje natural.

“Esta tecnología permite entrenar a su propio sistema para mejorar y aumentar la capacidad de responder a las preguntas en Google”, explicó Nayak.

En síntesis, lo que hace distinto a BERT de lo que actualmente ofrece Google es que procesa las palabras en el contexto de una oración, en lugar de palabra por palabra. “BERT puede considerar el contexto completo de una palabra al observar las que vienen antes y después, y esto es útil para comprender la intención que tienen las consultas que se hacen en el buscador”, aclaró Nayak.

Hasta ahora, de acuerdo a medios como The Verge y Wired, las búsquedas en Google después de BERT han mejorado hasta en un 10%, según los resultados presentados por los usuarios.

“Todos los que hacen dinero en el tráfico web deben tomar nota de este avance”, señaló Dieter Bohn de la revista The Verge.

Y reseñó una frase del propio Payak: “Este es el cambio más grande, más positivo que hemos tenido en los últimos cinco años y quizás uno de los más grandes desde el principio”.

GIZMODO / BBC MUNDO