Usar Google no será como antes: estos son los detalles de la “multibúsqueda”
La empresa tecnológica reveló las nuevas funciones que tendrá su buscador, así como la aplicación Google Lens.
El motor de búsquedas más importante del mundo, Google, reveló hoy el listado de novedades que trae para sus usuarios en los próximos meses. Gran parte de estos desarrollos se apoyan en tecnologías como el aprendizaje automático y la inteligencia artificial, por lo que la forma de hacer búsquedas no solo sería diferente, sino más intuitiva y sorprendente.
Google Lens es una de las herramientas que, por su propia naturaleza, refleja a la perfección lo anterior. Para quienes aún no conocen esta función, esta permite hacer búsqueda utilizando fotografías o capturas de pantalla. Si, por ejemplo, no sé para qué sirve un objeto, podría tomarle una foto, cargarla a lens y encontrar en internet artículos web que dirán cómo se llama, para qué sirve y cuánto vale.
Lea también: Ofertas de empleo en Google para colombianos: vacantes, requisitos y cómo aplicar
La novedad que anunció Google hoy es que Lens incorporará la función de “multibúsqueda cerca de mí”, la cual permitirá al usuario tomar la foto de un objeto y encontrarlo (u otros similares) en lugares cercanos. La tecnológica señala que esta función tiene el potencial de beneficiar al comercio local en las ciudades.
“La ‘multibúsqueda cerca de mi’ comenzará a implementarse en inglés en los EE.UU. a finales de este otoño”, precisó Google.
Parte de los adelantos que ha mostrado Google es un ejemplo en el que una persona le toma una foto al patrón que tiene estampado una camisa, luego esta persona busca (en la barra de búsqueda) palabras con las que podría relacionarse esa foto, como medias y platos, entre otros objetos. La Inteligencia Artificial del buscador reconoce esos términos y arroja productos con el mismo patrón, o patrones similares.
Le puede interesar: Google Maps crea rutas ecológicas para reducir la contaminación de los vehículos
Las mejoras de Lens también se verán en su función de traducción que, por si no lo sabe, con tan solo apuntar la cámara del teléfono a un letrero, o sacar el texto de una captura de pantalla, es capaz de traducirlo al idioma del usuario.
“Con los grandes avances en el aprendizaje automático, ahora podemos combinar texto traducido en imágenes complejas, con lo que se ve y se siente mucho más natural. Incluso hemos optimizado nuestros modelos de aprendizaje automático para poder hacer todo esto en sólo 100 milisegundos, más rápido que un abrir y cerrar de ojos. Esto utiliza redes adversarias generativas (también conocidas como modelos GAN), que es lo que ayuda a habilitar la tecnología detrás del Magic Eraser en Pixel. Esta experiencia mejorada se lanzará a finales de este año”, detalló Google.
Búsquedas predictivas y más detalladas
Con la intención de facilitar aún más la tarea de realizar búsquedas, en los próximos meses Google actualizará su buscador para que, en la medida en que una persona comienza a escribir en su barra de búsqueda, la IA comience a arrojar sugerencias de lo que probablemente quiere buscar el usuario.
Esto se verá como pequeñas cajas con palabras o frases debajo de la barra de búsqueda. “A medida que comiences a escribir en el cuadro de búsqueda, te proporcionaremos opciones de palabras clave o temas para ayudarte a formular tu pregunta. Digamos que estás buscando un destino en México. Te ayudaremos a hacer más específica tu pregunta, por ejemplo, “las mejores ciudades de México para familias”, para que puedas navegar hacia resultados más relevantes para ti”, explicó Google.
Lea también: Ronca o tose cuando duerme: ahora Google podría detectarlo con la ‘app’ Bienestar
En aspectos como lugares, el buscador también anunció que brindará información más detallada. Por ejemplo, al buscar una ciudad, los resultados mostrarán fotos, una breve descripción, videos, clima local, mapa y lugares para visitar. Todo organizado en una especie de cuadrícula que le permitirá al usuario consumir toda esta información en un solo vistazo.
“Verás el contenido más relevante, desde una variedad de fuentes, sin importar el formato en que esté la información, ya sea texto, imágenes o video. Y a medida que continúes desplazándote, verás una nueva forma de inspirarte mediante temas relacionados con tu búsqueda. Por ejemplo, es posible que nunca hayas pensado visitar los sitios históricos aztecas en Oaxaca o encontrar música en vivo mientras estás allí”, precisó Google.
El motor de búsqueda señaló que todas estas funciones estarán disponibles en los próximos meses.
💰📈💱 ¿Ya te enteraste de las últimas noticias económicas? Te invitamos a verlas en El Espectador.
El motor de búsquedas más importante del mundo, Google, reveló hoy el listado de novedades que trae para sus usuarios en los próximos meses. Gran parte de estos desarrollos se apoyan en tecnologías como el aprendizaje automático y la inteligencia artificial, por lo que la forma de hacer búsquedas no solo sería diferente, sino más intuitiva y sorprendente.
Google Lens es una de las herramientas que, por su propia naturaleza, refleja a la perfección lo anterior. Para quienes aún no conocen esta función, esta permite hacer búsqueda utilizando fotografías o capturas de pantalla. Si, por ejemplo, no sé para qué sirve un objeto, podría tomarle una foto, cargarla a lens y encontrar en internet artículos web que dirán cómo se llama, para qué sirve y cuánto vale.
Lea también: Ofertas de empleo en Google para colombianos: vacantes, requisitos y cómo aplicar
La novedad que anunció Google hoy es que Lens incorporará la función de “multibúsqueda cerca de mí”, la cual permitirá al usuario tomar la foto de un objeto y encontrarlo (u otros similares) en lugares cercanos. La tecnológica señala que esta función tiene el potencial de beneficiar al comercio local en las ciudades.
“La ‘multibúsqueda cerca de mi’ comenzará a implementarse en inglés en los EE.UU. a finales de este otoño”, precisó Google.
Parte de los adelantos que ha mostrado Google es un ejemplo en el que una persona le toma una foto al patrón que tiene estampado una camisa, luego esta persona busca (en la barra de búsqueda) palabras con las que podría relacionarse esa foto, como medias y platos, entre otros objetos. La Inteligencia Artificial del buscador reconoce esos términos y arroja productos con el mismo patrón, o patrones similares.
Le puede interesar: Google Maps crea rutas ecológicas para reducir la contaminación de los vehículos
Las mejoras de Lens también se verán en su función de traducción que, por si no lo sabe, con tan solo apuntar la cámara del teléfono a un letrero, o sacar el texto de una captura de pantalla, es capaz de traducirlo al idioma del usuario.
“Con los grandes avances en el aprendizaje automático, ahora podemos combinar texto traducido en imágenes complejas, con lo que se ve y se siente mucho más natural. Incluso hemos optimizado nuestros modelos de aprendizaje automático para poder hacer todo esto en sólo 100 milisegundos, más rápido que un abrir y cerrar de ojos. Esto utiliza redes adversarias generativas (también conocidas como modelos GAN), que es lo que ayuda a habilitar la tecnología detrás del Magic Eraser en Pixel. Esta experiencia mejorada se lanzará a finales de este año”, detalló Google.
Búsquedas predictivas y más detalladas
Con la intención de facilitar aún más la tarea de realizar búsquedas, en los próximos meses Google actualizará su buscador para que, en la medida en que una persona comienza a escribir en su barra de búsqueda, la IA comience a arrojar sugerencias de lo que probablemente quiere buscar el usuario.
Esto se verá como pequeñas cajas con palabras o frases debajo de la barra de búsqueda. “A medida que comiences a escribir en el cuadro de búsqueda, te proporcionaremos opciones de palabras clave o temas para ayudarte a formular tu pregunta. Digamos que estás buscando un destino en México. Te ayudaremos a hacer más específica tu pregunta, por ejemplo, “las mejores ciudades de México para familias”, para que puedas navegar hacia resultados más relevantes para ti”, explicó Google.
Lea también: Ronca o tose cuando duerme: ahora Google podría detectarlo con la ‘app’ Bienestar
En aspectos como lugares, el buscador también anunció que brindará información más detallada. Por ejemplo, al buscar una ciudad, los resultados mostrarán fotos, una breve descripción, videos, clima local, mapa y lugares para visitar. Todo organizado en una especie de cuadrícula que le permitirá al usuario consumir toda esta información en un solo vistazo.
“Verás el contenido más relevante, desde una variedad de fuentes, sin importar el formato en que esté la información, ya sea texto, imágenes o video. Y a medida que continúes desplazándote, verás una nueva forma de inspirarte mediante temas relacionados con tu búsqueda. Por ejemplo, es posible que nunca hayas pensado visitar los sitios históricos aztecas en Oaxaca o encontrar música en vivo mientras estás allí”, precisó Google.
El motor de búsqueda señaló que todas estas funciones estarán disponibles en los próximos meses.
💰📈💱 ¿Ya te enteraste de las últimas noticias económicas? Te invitamos a verlas en El Espectador.