Publicidad

Estas son las novedades de IA que Google anunció durante la conferencia I/O 2024

La compañía tecnológica presentó una serie de innovaciones alrededor en inteligencia artificial que impactarán su amplio catálogo de servicios digitales.

14 de mayo de 2024 - 10:07 p. m.
Vista del logo del evento anual de desarrolladores de Google.
Vista del logo del evento anual de desarrolladores de Google.
Foto: EFE - Sarah Yáñez-Richards

Google realizó su conferencia de desarrolladores anual centrándose en el tema tecnológico del año: la inteligencia artificial. Sundar Pichai, CEO de la compañía, presentó las novedades de Gemini y sus servicios digitales con base en una premisa: “Hacer útil la inteligencia artificial para todos”.

Pichai afirmó que un millón y medio de desarrolladores han utilizado los modelos de Gemini a través de las herramientas de la compañía. Las expectativas estaban enfocadas en los avances alrededor de la IA y Google cumplió, con creces.

Gemini, la familia de modelos de IA generativa de Google, ahora puede analizar documentos, bases de código, videos y grabaciones de audio más largos que antes. La nueva actualización de Gemini puede leer hasta dos millones de tókens. Más allá de una ventana contextual más grande, Google afirmó que Gemini 1.5 Pro ha sido “mejorado” en los últimos meses a través de avances algorítmicos.

Es mejor en la generación de código, el razonamiento lógico y la planificación, la conversación ida/vuelta y la comprensión de audio e imágenes, de acuerdo con Google.

Para aplicaciones menos exigentes, Google presentó Gemini 1.5 Flash, una versión “destilada” de Gemini 1.5 Pro. un modelo pequeño y eficiente creado para cargas de trabajo de IA generativa “limitadas” y de “alta frecuencia”.

Ambos modelos estarán disponibles a través de Google AI Studio y la API Gemini en más de 200 países.

AI Overviews

Google comenzó a desplegar los “Resúmenes de IA”, antes conocidos como “Experiencia Generativa de Búsqueda” a los usuarios de Estados Unidos y pronto en todo el mundo. De acuerdo con la compañía, pronto miles de millones de usuarios verán un resumen generado por IA en la parte superior de sus resultados de búsqueda. Y agregaron, que eso es solo el principio de cómo la IA está cambiando las búsquedas en internet.

“Lo que vemos con la IA generativa es que Google puede hacer más que la simple búsqueda por usted”, afirmó Liz Reid, jefe de Búsqueda de Google. Y agregó: “Puede quitarte un montón de trabajo duro de la búsqueda para que puedas centrarte en las partes que quieres hacer para conseguir cosas o en las partes de la exploración que encuentras emocionantes”.

La idea es que la nueva función permita brindar una respuesta a la consulta simplificada y con enlaces o recursos que le permitan al usuario obtener más información. De igual forma, tiene una función de planificación diseñada para generar automáticamente un itinerario de viaje o un plan de comidas basado en una sola consulta. Asimismo, mediante Google Lens podrá brindarte mayor información sobre datos recolectados a través de registros visuales.

Gemini en el Workspace de Google

La compañía anunció en su conferencia de desarrolladores I/O que, a partir del próximo mes, los suscriptores de Workspace y Google One AI Premium podrán utilizar Gemini para que resumir los correos electrónicos dentro de la aplicación de Gmail para teléfonos inteligentes. La empresa afirmó que, más adelante, los usuarios podrán acceder a Gemini desde Gmail, tanto en la aplicación como en la web, para hacer preguntas sobre sus correos electrónicos o pedirle que redacte respuestas basadas en el contexto del mensaje.

Además de entender el contexto y la información del mensaje del correo, Gemini también podrá analizar los archivos adjuntos, como los PDF, y generará un resumen con los puntos claves o elementos de acción. De igual forma, se lo puede solicitar un resumen de un conjunto de correos enviados por una persona o institución.

La respuesta inteligente contextual y las preguntas respuestas de Gmail llegarán como funciones experimentales de Workspace Labs en julio. Sin embargo, Google no precisó en una fecha específica para su lanzamiento oficial.

Le recomendamos leer: La larga tradición de Nintendo de hacer consolas domésticas y portátiles exitosas

En Meet, Gemini estará disponible con un apartado a la derecha, donde podrá ofrecer los puntos claves de la conferencia en texto.

Para la aplicación de Google Maps, Gemini podrá ofrecer resúmenes de los lugares de mejor calificación de acuerdo a la búsqueda. Los resúmenes se crean a partir del análisis que hace la IA de las opiniones de la comunidad de más de 300 millones de colaboradores de Google Maps. Con esta nueva función, los desarrolladores ya no tendrán que escribir sus propias descripciones personalizadas de los lugares.

Project Astra

Sin lugar a dudas, el proyecto más ambicioso de Google. Demis Hassabis, director de Google DeepMind y líder de los esfuerzos de Google en IA, presentó las primeras versiones del proyecto Astra. Hassabis afirmó que el video es solo los primeros pasos para llegar al asistente universal. El proyecto es la creación de un asistente multimodal de IA en tiempo real que puede interpretar la realidad y puede responder preguntas o ayudar a hacer cualquier cosa.

En el video se muestra una mujer grabando su oficina y preguntándole cosas a Astra, desde revisar los códigos en una pantalla, identificar objetos y señalar dónde están las pertenencias del usuario, sin mencionarlo anteriormente. Hassabis juró que no el video no fue falsificado o alterado de alguna forma.

Astra se encuentra aún en una fase temprana de prototipo y solo representa una de las formas en que se podría interactuar con un sistema como Gemini.

VEO

Google se enfrenta a Sora, de OpenAI, con Veo, un modelo de IA capaz de crear videoclips a 1080p de aproximadamente un minuto de duración a partir de un texto. La generadora de imágenes de Google puede capturar diferentes estilos visuales y cinematográficos, incluidos paisajes y timelapses. De igual forma, puede realizar ediciones y ajustes en secuencias ya generadas.

“Estamos explorando funciones como la creación de guiones gráficos y la generación de escenas más largas para ver qué puede hacer Veo”, explicó Demis Hassabis. Agregó que los videos generados son “más consistentes y coherentes” y muestran un movimiento más realista de personas, animales y objetos a lo largo de las tomas.

Le puede interesar: Aparatos de rastreo: herramientas versátiles que plantean desafíos de privacidad

Los usuarios tendrán que esperar un poco más para poder probarlo. Hassabis explicó que Google está reuniendo cineastas y creadores para que experimenten con el modelo para entender cómo puede ayudarlos. Con esta colaboración se busca garantizar que “los creadores tengan voz” en el desarrollo de las tecnologías de IA de Google.

Preguntar a fotos con Gemini

Google Fotos recibe una dosis de inteligencia artificial con el lanzamiento de una función experimental, Ask Photos, basada en el modelo de inteligencia artificial de la empresa. La nueva función, que se pondrá en marcha a finales del próximo verano estadounidense, permitirá a los usuarios buscar en sus colecciones de Google Fotos mediante consultas en lenguaje natural. Es decir, se le puede requerir una selección de fotos más complejas que simples palabras claves; por ejemplo, una persona podrá requerir “fotos de las mejores playas que visité en Colombia”.

La IA utiliza una serie de señales para determinar qué hace que la foto sea la “mejor” de un conjunto dado, incluyendo cosas como la iluminación, el desenfoque, la falta de distorsión del fondo y más, según explicó la compañía.

👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.

Temas recomendados:

 

Sin comentarios aún. Suscribete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
Aceptar