Google Multitasking: busca fotos y videos

A todos aquellos que se preguntan para qué sirve la Inteligencia Artificial (IA) en el día a día (por si Chat GPT o el nuevo Google Bard no fueran suficientes) la compañía de Mountain View ha respondido hoy anunciando algunas mejoras importantes en nuestra forma de investigando todos los días, superando, gracias a la IA, todas las barreras lingüísticas y logísticas.

Al grito de “Tu cámara es el próximo teclado” o “Si puedes verla, puedes buscarla”, gracias a Google Lens, las cámaras de los celulares Android ahora se convierten en verdaderas herramientas de búsqueda (los usuarios de iPhone tienen para abrir la aplicación de Google y haga clic en la cámara en la cadena de búsqueda).Básicamente, cualquier cosa que enmarquemos con el teléfono celular se puede buscar y encontrar. Además de estar traducido, en el caso de los textos, a 133 idiomas.

Por ejemplo, si veo unas gafas que me gustan, las enmarco y hago clic en la foto para acceder a la búsqueda de Google, que devuelve información y opciones de compra. O bien, veo una planta cuyo nombre no sé, la marco e inmediatamente tengo acceso a sitios especializados que me explican qué planta es.

Claramente esta investigación abre multitud de posibilidades, desde ir de compras hasta comprender algo desconocido, por ejemplo si estamos en el extranjero, hasta saber sin siquiera tener que preguntar cuál es el nombre del delicioso postre que estamos observando desde las ventanas de una pastelería, por ejemplo.

En los próximos meses también será posible usar Lens para las cosas que vemos en la pantalla del móvil. Gracias a la función "Buscar en tu pantalla" de los dispositivos Android de todo el mundo, será posible iniciar una búsqueda a partir de lo que vemos en una foto o vídeo en la web y en nuestras apps favoritas, como las de mensajería y vídeo, sin tener que salir de la aplicación o experiencia específica.

Imagina que alguien te envió un video de WhatsApp de sus vacaciones en Londres. Tal vez haya visto un monumento en el fondo que lo intrigó, para obtener más información, simplemente toque y mantenga presionado el botón de encendido o el botón de Inicio en su teléfono Android, para invocar al Asistente de Google y luego toque "pantalla de búsqueda" . Lens identificará el edificio y devolverá toda la información sobre ese lugar.

No solo en línea, encuentre cerca de mí

Si queremos buscar a tu alrededor lo que hemos visto, la búsqueda multitarea también te permite hacer una foto con la opción "cerca de mí" , para identificar, por ejemplo, un negocio de barrio donde comprar lo que nosotros buscamos. Esta opción está actualmente disponible en inglés en los Estados Unidos, pero se implementará globalmente en los próximos meses.

Por fin, pronto será posible introducir variables en la búsqueda multitarea.Por ejemplo, veo una mesa cuadrada que me gusta, pero me gustaría que fuera redonda. Tomo la foto, inicio la búsqueda y agrego otra opción (diferente forma, color, tamaño, etc). El objetivo de todas estas innovaciones, tal y como explica Prabhakar Raghavan, vicepresidente sénior de Google, es hacer que la experiencia de búsqueda sea lo más fácil y completa posible cumpliendo con el lema del gigante tecnológico: "Mejorar la vida de tantas personas como sea posible" . ".

Y Google Maps se vuelve inmersivo

Olvidémonos de los mapas tradicionales – a los que ya estamos infinitamente agradecidos por habernos guiado hasta hoy – porque hoy Chris Phillips, VP & General Manager de Geo (la división Maps de Google) anunció una innovación que lo cambiará todo. Mapas inmersivos (Live View).

¿Cuántas veces siguiendo indicaciones, aunque sean precisas, hemos tomado el lado equivocado o hemos salido? Es normal y le pasa a todo el mundo, pero no pasaría si hubiera una correspondencia entre la carretera marcada en el mapa y lo que ven nuestros ojos.Así, además de lanzar en breve la Realidad Aumentada para los mapas de Florencia y Venecia, pronto podremos planificar nuestros movimientos al milímetro sabiendo exactamente cómo es la calle, el lugar al que queremos llegar y todos los lugares, incluso interiores. , que implica nuestro camino.

Básicamente, al combinar todas las imágenes existentes de los diferentes lugares de la Tierra, Google Maps podrá brindarnos una visión 3D de las ciudades, completa con la reconstrucción de los espacios internos (por ejemplo, museos, restaurantes, centros comerciales, Aeropuertos y Estaciones).

El viaje antes del viaje

Usando avances en inteligencia artificial y visión por computadora, la visualización inmersiva combina miles de millones de imágenes de Street View e imágenes aéreas para crear un modelo digital increíblemente rico del mundo. Pero no se detiene allí. Maps sigue siendo un elemento secundario de Google, por lo que la visualización en 3Dtambién podrá brindar información útil, como el clima, el tráfico y qué tan concurrido está un lugar.

Por ejemplo, si estamos planeando una visita al Rijksmuseum de Amsterdam, podemos sobrevolar virtualmente el edificio y ver dónde están, por ejemplo, las entradas del museo. Con el control deslizante de tiempo, podemos ver cómo se ve el área en diferentes momentos del día y preguntar cómo será el clima. También podemos identificar los lugares más concurridos, para que tengas toda la información que necesitas para decidir dónde y cuándo ir. Y si sabemos que iremos a la hora del almuerzo, podemos explorar los restaurantes cercanos e incluso echar un vistazo al interior para tener una idea rápida de un lugar antes de reservar.

El mundo en 3D

Parece ciencia ficción pero es solo ciencia. Como explica Google: “Para crear estas escenas realistas, utilizamos Neural Radiance Fields (NeRF), una técnica avanzada de IA que transforma imágenes ordinarias en representaciones 3D.Con NeRF, podemos recrear con precisión todo el contexto de un lugar, incluida la iluminación, la textura de los materiales y el fondo. Todo esto nos permite comprender si la iluminación cambiante de un bar es el ambiente adecuado para una velada galante o si la vista de un café lo convierte en el lugar ideal para un almuerzo con amigos“.

Dile adiós a las malas sorpresas en el lugar equivocado.

Este tipo de búsqueda está disponible actualmente en Londres, Los Ángeles, Nueva York, San Francisco, París y Tokio (para Android y iPhone). Las próximas ciudades serán Barcelona, Dublín y Madrid. Y luego Live View se expandirá a 1.000 nuevos aeropuertos, estaciones de tren y centros comerciales (los lugares donde es más fácil perderse o buscar baños) en Barcelona, Berlín, Frankfurt, Londres, Madrid, Melbourne, París, Praga, Sao Paulo, Singapur, Sydney, Taipei y Tokio. De momento ya cubre aeropuertos de Estados Unidos, Zúrich y Tokio.

Más noticias de Maps

Como hemos mencionado, la posibilidad de explorar ciudades y calles en tiempo real, identificando lugares y negocios con Realidad Aumentada afectará primero a las ciudades de Venecia y Florencia en Italia. Permitiendo a quienes los visitan acceder instantáneamente a mucha información útil como dónde está una farmacia, si hay un restaurante cerca, qué tan popular es, qué calificación tiene, etc. todo simplemente enmarcando una calle.

Pero entre los nuevos desarrollos, se da un enfoque importante a la sostenibilidad de los viajes. Si Google Maps ya es capaz de recomendar la ruta más sostenible a nivel ecológico, pronto ampliará su oferta específica para coches eléctricos -con itinerarios y estaciones de recarga ad hoc, a bicicletas- con itinerarios anti-smog, para peatones y para quienes utilizar el transporte público. Mejorando también la indicación de la ruta en tiempo real en el mapa y añadiendo fotos útiles cuando necesites dar un giro o encontrar un edificio.

Direcciones de un vistazo

Con indicaciones de un vistazo, puede seguir su viaje directamente desde la descripción general de la ruta o desde la pantalla de bloqueo. Puede ver los tiempos estimados de llegada y el próximo turno, información que antes solo era visible al desbloquear el teléfono, abrir la aplicación y usar el modo de navegación completo. Y si decidimos tomar otra ruta, nuestro viaje se actualizará automáticamente. Las indicaciones rápidas comenzarán a implementarse en todo el mundo en Android e iOS en los próximos meses, y también serán compatibles con Live Activities en iOS 16.1.

Los amantes de perderse serenamente o seguir las estrellas pueden seguir haciéndolo sin problemas.

Articulos interesantes...