Google lleva una semana intensa en cuanto a novedades e inteligencia artificial se refiere. Ayer sorprendía a todos presentando Bard, su propia IA conversacional, y hoy anunciaba el Live from Paris, un evento virtual que se celebró hoy mismo y en el que presentó diversas novedades destinadas a mejorar la experiencia de búsqueda de sus usuarios que, como no, también están impulsadas por inteligencia artificial.
Aunque debemos señalar que, el gigante tecnológico ya había adelantado algunas de estas novedades en el evento Search On 2022 llevado a cabo el pasado mes de septiembre. Aún así, continúa siendo interesante recordarlas y conocer el resto de nuevas funciones que las acompañan y que harán que «la exploración de la información en la búsqueda sea aún más natural e intuitiva«.
Multibúsqueda: texto e imagen a tu servicio
Esta fue, sin duda alguna, la novedad estrella presentada por Google en el Search On 2022. En esta ocasión, el gigante tecnológico ha vuelto a mencionarla, recordando que ya puede hacerse uso de ella en todos los países e idiomas en los que Google Lens está disponible.
La multibúsqueda, combina la IA y la visión por computadora de Google Lens con la búsqueda mediante texto. De este modo, Google suma la información y contexto que ambos métodos aportan para ofrecer resultados mucho más completos y acertados. Su mecánica de uso es de lo más sencilla e intuitiva, tan solo debes acceder a Google Lens y sacar o subir una foto para luego deslizar hacia arriba la barra de resultados y pulsar en «agregar a tu búsqueda» para escribir lo que desees para completar tu búsqueda.
Encuentra lo que necesites cerca de ti gracias a la búsqueda local
Sumado a esto, la multibúsqueda también permite determinar si deseamos encontrar resultados locales. Para ello tan solo hay que escribir «cerca de mí» tras sacar o subir la imagen de nuestra búsqueda. Esta es una forma de apoyar a los comercios locales y fomentar el consumo en los mismos. Por el momento esta función solamente está disponible en inglés en EE.UU., pero Google ya ha avanzado que en los próximos meses pasará a estarlo en el resto del mundo.
Google Lens: «Si puedes verlo, puedes buscarlo»
Con esta frase, Google ha presentado la última evolución en Lens, su tecnología de búsqueda visual, que hasta ahora permitía identificar y buscar información sobre los elementos que aparecían en cualquier fotografía o, directamente, en la pantalla del usuario de un móvil cuando utilizaba su cámara. Google Lens nació como app en 2017 y desde entonces ha ido mejorando sus capacidades en base a desarrollos relacionados con la IA. Actualmente, según datos de la propia Google, Lens se utiliza más de 10.000 millones de veces al mes
Ahora, los usuarios podrán utilizar Lens para «buscar lo que aparece en tu pantalla» en cualquier entorno Android. Esta tecnología te permitirá buscar lo que ves en fotos o vídeos en toda clase de sitios web y aplicaciones (como las aplicaciones de mensajería y de vídeo), sin necesidad de salir de la aplicación o de interrumpir la experiencia. Es decir, a partir de ahora, los usuarios de Whatsapp podrán acceder a las funcionalidades de Lens para identificar los elementos que aparecen en un vídeo enviado a través de la app de Meta, sin tener que salir de ella.
«Supongamos que unos amigos te envían un mensaje con un vídeo en el que aparecen dándose una vuelta por París. De pronto, aparece un monumento al fondo. ¿Quieres saber qué es? Haz una pulsación larga del botón de encendido o de inicio de tu teléfono Android (el que abre el Asistente de Google). A continuación, toca en «buscar pantalla». ¡Y entonces Lens lo identifica como el Palais du Luxembourg! Si tocas otra vez, obtendrás más información», explica Google en su comunicado.
Google Live View: street view + realidad aumentada + IA
Live View es «una forma radicalmente nueva de explorar sitios», explica Google sobre esta actualización de su forma de visualizar lugares en su popular herramienta Maps. Una nueva evolución de su conocida Street View que «te hace sentirte como si ya estuvieras allí… aunque no hayas estado nunca. Gracias a los avances en IA y en visión artificial, esta función fusiona miles de millones de imágenes aéreas y de Street View para crear un modelo digital del mundo, rebosante de detalles. Además, le superpone información de utilidad, como el tiempo, el estado del tráfico y lo concurrido que está un lugar».
La nueva Live View de Google utiliza las capacidades de la inteligencia artificial y la realidad aumentada para mejorar la experiencia de búsqueda de lugares de los usuarios. Esta nueva función, que ya está activa en Londres, Los Ángeles, Nueva York, París, San Francisco y Tokio, llegará «en los próximos meses» a Madrid, Barcelona y Dublín y permitirá incluso añadir funcionalidades de realidad aumentada a los interiores de espacios públicos. Así, como explica Google en un ejemplo, «superpone flechas de realidad aumentada que te marcan la dirección en la que debes caminar para encontrar con rapidez y seguridad lo que buscas. En los próximos meses, esta función te ayudará a moverte por más de mil nuevos aeropuertos, estaciones de tren y centros comerciales».
Además, estas novedades se aplicarán a los desplazamientos de los usuarios, sea cual sea el medio de transporte utilizado, incluyendo la bicicleta o el transporte público, mostrando información útil como el tiempo de llegada a destino e indicaciones de cuál es la dirección que debes tomar. Estas indicaciones a la vista empezarán a desplegarse en todo el mundo en dispositivos Android e iOS en los próximos meses.
Google Inmersive View, representaciones 3D de la realidad en Maps
Dentro del entorno Maps, Google anunció también la llegada de Immersive View, que se lanzará a partir de hoy en Londres, Los Ángeles, Nueva York, San Francisco y Tokio. Una novedad que utiliza la ingente cantidad de imágenes de Street View y fotografías aéreas de las que dispone Google para generar recreaciones tridimensionales de la realidad.
«Digamos que está planeando una visita al Rijksmuseum de Ámsterdam. Puede volar virtualmente sobre el edificio y ver dónde están las entradas. Con el control deslizante de tiempo, puede ver cómo se ve el área en diferentes momentos del día y cómo será el clima. También puede detectar dónde tiende a estar más concurrido para que pueda tener toda la información que necesita para decidir dónde y cuándo ir. Si tiene hambre, deslícese hasta el nivel de la calle para explorar los restaurantes cercanos, e incluso eche un vistazo al interior para comprender rápidamente el ambiente de un lugar antes de reservar.
Para crear estas escenas realistas, utilizamos campos de radiación neuronal (NeRF), una técnica avanzada de inteligencia artificial que transforma imágenes ordinarias en representaciones 3D. Con NeRF, podemos recrear con precisión el contexto completo de un lugar, incluida su iluminación, la textura de los materiales y lo que hay en el fondo. Todo esto le permite ver si la iluminación cambiante de un bar es el ambiente adecuado para una cita nocturna o si las vistas en un café lo convierten en el lugar ideal para almorzar con amigos».
Traductor contextual: obtén una mayor precisión en tus traducciones
El gigante tecnológico también ha hecho grandes anuncios relativos a su traductor y a las nuevas capacidades que integra y que han sido impulsadas gracias a la inteligencia artificial. La primera de la que te vamos a hablar permite mejorar la traducción gracias a la comprensión del contexto que envuelve a la frase.
Imagina poder obtener una traducción que sea precisa, que emplee los giros adecuados en el lenguaje, modismos locales o palabras más apropiadas para abordar el tema del que quieres hablar. Ahora será posible ya que el traductor de Google te ofrecerá traducciones con más contexto, descripciones y ejemplos en el idioma escogido. Adiós a las palabras y frases con múltiples significados y a no saber cuál es el correcto en cada caso.
Esta novedad llegará a nuestros dispositivos en las próximas semanas y estará disponible en inglés, español, francés, alemán y japonés, entre otros idiomas.
Por otra parte, cabe destacar y celebrar la incorporación de 33 nuevos idiomas al traductor de Google. Entre ellos podemos encontrar el euskera, el corso, el hawaiano, el hmong, el kurdo, el latín, el luxemburgués, el sudanés, el yiddish o el zulú.
Traductor de imágenes: traduce respetando la imagen original
Por último, nos topamos con otra novedad que ya había sido anunciada en septiembre del año anterior es la mejora del traductor de imágenes integrado en Google Lens. Este ya permitía traducir textos presentes en imágenes con tan solo enfocarlos con nuestra cámara, pero el resultado no se integraba de forma natural en la imagen, sino que aparecía resaltado por barras que ocultaban parte de la imagen.
Sin embargo, esto se acabó, puesto que gracias a la inteligencia artificial, Google Lens es capaz de traducir los textos de las imágenes y recrear con exactitud el fondo completo de cada palabra.