Ahora Google sabe lo que necesitas aunque no sepas cómo pedirlo

841

La IA puede comprender lo que estamos buscando y mostrar información relacionada.

Google ha presentado hoy una renovación de su producto primigenio, la búsqueda, implementando sus avances en Inteligencia Artificial.

Por supuesto, Google ya usa IA en muchos de sus productos, pero la implementación anunciada hoy es diferente, y se basa en el Modelo Unificado Multitarea, o MUM, para favorecer la comprensión de la información.

En otras palabras, no es sólo que el buscador nos presente resultados relacionados con lo que estamos buscando; es que sea capaz de entender qué es lo que necesitamos y nos lo presente, sin necesidad siquiera de que lo describamos con nuestras palabras.

A lo largo de los próximos meses, Google va a implementar MUM en la búsqueda visual. Google Lens ya es capaz de reconocer objetos con mucha precisión gracias a estos avances, pero próximamente será incluso capaz de saber qué parte del objeto es la que estamos buscando.

Apple contrató al ex jefe de desarrollo de la inteligencia artificial y de  la búsqueda de Google | Apple Noticias

Es una diferencia difícil de comprender, y por eso Google ha puesto varios ejemplos interesantes. Por ejemplo, pongamos que encontramos una camiseta cuyo patrón nos gusta, pero no necesariamente en esa prenda; preferiríamos tenerlo en unos calcetines, por ejemplo. Con pulsar el icono de Lens cuando estemos mirando la imagen, podremos pedirle a Google que nos encuentre el mismo patrón, pero en otros productos.

El objetivo es que Google sea capaz de reconocer nuestras peticiones, incluso si no tenemos palabras para describirlas; el caso del patrón es un buen ejemplo, pero también funcionará cuando realmente no sepamos qué es lo que necesitamos buscar.

Por ejemplo, si se nos ha roto un ‘chisme’ de la bicicleta, y no sabemos ni cómo se llama, ni mucho menos cómo arreglarlo. Podríamos dedicar horas y horas a revisar catálogos y a buscar información sobre bicicletas para entender qué es lo que es, o bien podremos apuntar con la cámara de Lens y el modo «apuntar y preguntar», para recibir inmediatamente la ayuda que necesitamos.

Las 45 preguntas y respuestas principales de las entrevistas sobre inteligencia  artificial (IA)

El propio buscador de Google también será rediseñado para presentar estas novedades de Inteligencia Artificial y MUM con nuevas funciones. El rediseño, según Google, es «más navegable», y será más fácil obtener inspiración visual; en otras palabras, las fotografías e imágenes ganarán más importancia en los resultados, y Google será más multimedia, con vídeos e imágenes.

Ya hace tiempo que Google dejó de ser un mero buscador, mostrando información relacionada en recuadros y paneles laterales. Ese camino continúa con «Things to Know» (cosas que saber), que intentará ayudarnos a comprender mejor los temas que estamos buscando.

El panel de Things to Know mostrará contenido relacionado con el tema que hemos buscado, interpretando su diferentes aspectos más allá de lo que hemos preguntado. Por ejemplo, si buscamos «pintura acrílica», la IA de Google comprenderá ese «tema», y nos mostrará otros relacionados; en este caso, puede identificar más de 350 aspectos relacionados con «pintura acrílica», como «Usar pintura acrílica paso a paso», «Estilos de pintura», «Trucos» y «Cómo limpiar».

Más adelante, MUM será capaz de mostrarnos temas que tal vez no se nos hubieran ocurrido, como por ejemplo, «cómo hacer pinturas acrílicas con artículos del hogar». Puede que si buscamos «pinturas acrílicas», eso sea de interés o útil, o puede que descubramos aspectos que no conocíamos, como nuevas técnicas o acceso a clases de pintura.

Tal vez el uso más impresionante de IA lo vemos en la búsqueda dentro de los vídeos. Y con esto, no queremos decir que Google sea capaz de transcribir el vídeo y hacer una búsqueda en lo que se ha dicho; eso ya lo hace.

La inteligencia artificial de Google te ahorrará búsquedas innecesarias

MUM permite dar un paso más allá, permitiendo que la IA comprenda el contenido del vídeo y pueda obtener temas relacionados que no se mencionan de manera explícita. Por lo tanto, incluso si el narrador del vídeo no dice las palabras exactas que estamos buscando, Google nos lo puede recomendar si puede responder nuestra búsqueda. En el ejemplo de Google, si buscamos «cómo es la vida del pingüino macarrón», nos puede mostrar un vídeo que detalle aspectos sobre cómo encuentra a su familia o cómo evita a los depredadores.

Con todas y otras funciones, como una mayor variedad de comercios online disponibles en Google Shopping, Google quiere que su buscador sea más útil y práctico. Al mismo tiempo, no quiere dejarse llevar en esta era de ‘fake news’, y muchas de las novedades presentadas se centran en explicar por qué elige los resultados, y cómo lo hace.

Podremos ver detalles sobre los medios que muestran información en nuestras búsquedas, incluyendo cuándo fue la primera vez que fueron indexados por Google, e incluso resultados de búsqueda relacionados con los medios que puedan indicar que no son fiables. Donde más proliferan las ‘fake news’ es en temas nuevos y noticias de última hora; si Google detecta que los resultados de una búsqueda están cambiando rápidamente, nos avisará de ello.

El Economista