La visión de Google para redefinir la forma como interactuamos con las máquinas
En su conferencia I/O la empresa introdujo varios productos y aplicaciones que giran alrededor de su dominio de cosas como inteligencia artificial y procesamiento del lenguaje.
Santiago La Rotta
Inteligencia artificial y aprendizaje de máquinas fueron dos de las palabras más usadas durante la conferencia inaugural de Google I/O, el evento anual para desarrolladores en el que la compañía muestra sus nuevos desarrollos, y que comenzó este miércoles.
Sin mayores sorpresas, quien más pronunció estos términos fue Sundar Pichai, CEO de la empresa y una de las personas que más habla de cómo estas tecnologías pueden redefinir la forma de interacción de los usuarios con la computación y, en general, con los servicios digitales. (Lea "¿Quién es el nuevo presidente de Google?")
Para todo lo futurista y complejo que suena algo como aprendizaje de máquinas o inteligencia artificial, estas dos técnicas llevan un buen tiempo ofreciendo el soporte a las búsquedas de Google, más específicamente a cómo el buscador logra entender las preguntas de las personas. Y esto, naturalmente, pasa a través de cómo una máquina entiende el lenguaje. (Lea "Cómo la inteligencia artificial puede redefinir el futuro de cosas como el trabajo y la salud")
Sin entrar en mayores detalles, esta tarea implica entender el contexto de las palabras, identificar acentos y matices en las expresiones; todos elementos presentes en la forma como un niño aprende a hablar, por ejemplo.
Buena parte de los servicios y desarrollos que Google introdujo este miércoles tienen que ver justamente con eso: cómo una máquina entiende e interactúa con un usuario que se comunica hablando, no dando comandos predeterminados o produciendo código, sino de la misma forma como lo haría con otra persona.
Assistant, la nueva encarnación del asistente digital de la compañía y competencia de cosas como Siri, es quizá la mejor forma de entender esto. “Estamos en el momento en el que la inteligencia artificial puede dar un gran salto hacia el futuro y redefinir la tecnología de los próximos 10 años”, dijo Pichai poco antes de hacer una demostración de lo que esto significa.
Un usuario puede preguntarle a Google quién dirigió la película “El renacido”. El buscador entrega la respuesta y la persona responde con una frase: “Quiero saber más de él”. “Manejar contra preguntas de los usuarios es algo muy complicado para un computador, especialmente cuando se hacen informalmente, como lo haría uno en una conversación. Lo que queremos es que Assistant sea capaz de interactuar con la gente hablando, que tenga la capacidad de conversar con los usuarios. Y esto no es fácil”, dijo Pichai.
Este nuevo producto estará incrustado en toda la experiencia de asistencia al usuario de Google, lo que significa que su alcance no se limitará sólo a teléfonos celulares, sino que también podrá ser incluido, por ejemplo, en Android Auto, la adaptación de este sistema operativo para carros.
Y también estará presente en Google Home, un nuevo dispositivo que introdujo la compañía este miércoles y que, en últimas, es una expresión más de lo que Pichai dijo: hacer más natural la interacción de un humano con la máquina.
La máquina en este caso es un pequeño cilindro que, instalado en varias partes de la casa, puede responder preguntas del buscador, organizar el calendario de las personas, enviar mensajes, manejar dispositivos conectados (como termostatos y luces inteligentes) o hacer reservas para un restaurante. Todo, valga la pena aclararlo, sin necesidad de interactuar con el teléfono del usuario.
Claro, Google Home no es el primer aparato de su clase, pues Amazon lleva un par de años vendiendo Echo, un dispositivo que, en esencia, hace lo mismo que el de Google, sólo que sin la integración del buscador y de sus vastas capacidades para manejar información.
Hablar de vastas capacidades acá no resulta ser un exceso de entusiasmo. Por poner un ejemplo: los sistemas de reconocimiento de imagen de Google han generado más de dos billones de etiquetas para identificar fotos que pasan a través de sus redes (bien sea en Google Photos o en el buscador como tal) y 24 mil millones de estos tags corresponden exclusivamente a selfis.
¿Esto qué quiere decir? Que vivimos obsesionados con las selfis, por un lado y que cuando un usuario recibe un mensaje con la foto de un perro, Assistant puede sugerir una respuesta diciendo “lindo perro” o incluso hablando acerca de la raza del animal.
Esta fue una de las demostraciones de Allo, una nueva aplicación de mensajería instantánea que, según la empresa, pretende volver más productivas las conversaciones de los usuarios. Esto, en el lenguaje del mundo de la tecnología, es que la persona tenga que hacer menos y la máquina cada vez haga más. Lo difícil acá es aplicar este razonamiento a un producto de comunicación humana.
Allo, de nuevo, se conecta con las técnicas de reconocimiento de lenguaje y aprendizaje de máquinas que corren por debajo de Google para lograr, por ejemplo, hacer sugerencias de restaurantes cuando las personas hablan de ir por comida italiana o incluso proponer una respuesta automática a una foto de pasta con camarones diciendo algo como “los camarones se ven muy bien”.
Esta aplicación de mensajería funciona en alianza con Duo, un nuevo producto de la empresa para videollamadas que, entre otros trucos útiles, permite acceder a una previsualización de quien está llamando: el receptor de la llamada puede ver qué está haciendo quien lo llama antes de aceptar contestar. Estas dos aplicaciones estarán disponibles para Android y para iOS. En la presentación no quedó claro qué pasará con Hangouts.
El mundo de Android
Google I/O, que ya va por su décima edición, no sería lo que es si no incluyera una buena porción de anuncios relacionados con Android. Y esta vez tampoco fue la excepción, pues la compañía mostró algunos de los desarrollos para el sistema operativo móvil más popular del mundo.
Por cierto, la empresa asegura que, sólo este año, fueron lanzados 600 teléfonos que funcionan con Android; Google Play, la tienda de aplicaciones de este ecosistema, ha registrado más de 65.000 millones de aplicaciones instaladas.
Android es, a su vez, un sinónimo de aplicaciones y la puerta de entrada más fuerte de Google a la experiencia móvil de internet, un asunto que cada vez gana más terreno: 50% de las preguntas que actualmente se le hacen al buscador vienen de un dispositivo móvil.
Una de las cosas futuras más interesantes en el mundo de Android es una función que, aunque no estará activa prontamente, permitirá que un usuario acceda a una aplicación sin necesidad de descargarla, algo así como streaming de aplicaciones.
Esta herramienta opera de la misma forma que lo hacen los links y la web: una persona hace clic en un hipervínculo y este lo lleva a una página en línea. Se trata de lograr lo mismo, sólo que el destino final sea una aplicación.
La idea es que las aplicaciones sean construidas en una especie de módulos para que, cuando un usuario solicite información, se pueda acceder a la parte de la aplicación que necesita y no a todo el producto, lo que le puede ahorrar a la persona una descarga innecesaria, pero que, a la vez, también podría estimular el consumo de un producto que quizá no hubiera conocido en primer lugar.
La conferencia del miércoles, en su mayoría, estaba poblada por desarrolladores, lo que explica el gran aplauso que esta herramienta recibió del público pues, en últimas, promete cambiar la forma como los usuarios descargan y acceden a las aplicaciones y esto beneficia primordialmente a los mismos desarrolladores.
Además de esta función, que no tiene fecha de introducción fija, Google anunció la inclusión de realidad virtual en Android. Esto significa ir un paso más allá de Cardboard y diseñar toda una plataforma para este tipo de tecnología, que se llamará Day Dream.
La idea de la empresa es establecer una especie de parámetros de diseño para dispositivos móviles de realidad virtual, así como de características de los teléfonos que se usarán en ellos. Es una iniciativa de largo alcance y que no comenzará a dar sus primeros frutos sino hasta después de mitad de este año, según Clay Bavor, quien dirige la parte de realidad virtual de Google.
Inteligencia artificial y aprendizaje de máquinas fueron dos de las palabras más usadas durante la conferencia inaugural de Google I/O, el evento anual para desarrolladores en el que la compañía muestra sus nuevos desarrollos, y que comenzó este miércoles.
Sin mayores sorpresas, quien más pronunció estos términos fue Sundar Pichai, CEO de la empresa y una de las personas que más habla de cómo estas tecnologías pueden redefinir la forma de interacción de los usuarios con la computación y, en general, con los servicios digitales. (Lea "¿Quién es el nuevo presidente de Google?")
Para todo lo futurista y complejo que suena algo como aprendizaje de máquinas o inteligencia artificial, estas dos técnicas llevan un buen tiempo ofreciendo el soporte a las búsquedas de Google, más específicamente a cómo el buscador logra entender las preguntas de las personas. Y esto, naturalmente, pasa a través de cómo una máquina entiende el lenguaje. (Lea "Cómo la inteligencia artificial puede redefinir el futuro de cosas como el trabajo y la salud")
Sin entrar en mayores detalles, esta tarea implica entender el contexto de las palabras, identificar acentos y matices en las expresiones; todos elementos presentes en la forma como un niño aprende a hablar, por ejemplo.
Buena parte de los servicios y desarrollos que Google introdujo este miércoles tienen que ver justamente con eso: cómo una máquina entiende e interactúa con un usuario que se comunica hablando, no dando comandos predeterminados o produciendo código, sino de la misma forma como lo haría con otra persona.
Assistant, la nueva encarnación del asistente digital de la compañía y competencia de cosas como Siri, es quizá la mejor forma de entender esto. “Estamos en el momento en el que la inteligencia artificial puede dar un gran salto hacia el futuro y redefinir la tecnología de los próximos 10 años”, dijo Pichai poco antes de hacer una demostración de lo que esto significa.
Un usuario puede preguntarle a Google quién dirigió la película “El renacido”. El buscador entrega la respuesta y la persona responde con una frase: “Quiero saber más de él”. “Manejar contra preguntas de los usuarios es algo muy complicado para un computador, especialmente cuando se hacen informalmente, como lo haría uno en una conversación. Lo que queremos es que Assistant sea capaz de interactuar con la gente hablando, que tenga la capacidad de conversar con los usuarios. Y esto no es fácil”, dijo Pichai.
Este nuevo producto estará incrustado en toda la experiencia de asistencia al usuario de Google, lo que significa que su alcance no se limitará sólo a teléfonos celulares, sino que también podrá ser incluido, por ejemplo, en Android Auto, la adaptación de este sistema operativo para carros.
Y también estará presente en Google Home, un nuevo dispositivo que introdujo la compañía este miércoles y que, en últimas, es una expresión más de lo que Pichai dijo: hacer más natural la interacción de un humano con la máquina.
La máquina en este caso es un pequeño cilindro que, instalado en varias partes de la casa, puede responder preguntas del buscador, organizar el calendario de las personas, enviar mensajes, manejar dispositivos conectados (como termostatos y luces inteligentes) o hacer reservas para un restaurante. Todo, valga la pena aclararlo, sin necesidad de interactuar con el teléfono del usuario.
Claro, Google Home no es el primer aparato de su clase, pues Amazon lleva un par de años vendiendo Echo, un dispositivo que, en esencia, hace lo mismo que el de Google, sólo que sin la integración del buscador y de sus vastas capacidades para manejar información.
Hablar de vastas capacidades acá no resulta ser un exceso de entusiasmo. Por poner un ejemplo: los sistemas de reconocimiento de imagen de Google han generado más de dos billones de etiquetas para identificar fotos que pasan a través de sus redes (bien sea en Google Photos o en el buscador como tal) y 24 mil millones de estos tags corresponden exclusivamente a selfis.
¿Esto qué quiere decir? Que vivimos obsesionados con las selfis, por un lado y que cuando un usuario recibe un mensaje con la foto de un perro, Assistant puede sugerir una respuesta diciendo “lindo perro” o incluso hablando acerca de la raza del animal.
Esta fue una de las demostraciones de Allo, una nueva aplicación de mensajería instantánea que, según la empresa, pretende volver más productivas las conversaciones de los usuarios. Esto, en el lenguaje del mundo de la tecnología, es que la persona tenga que hacer menos y la máquina cada vez haga más. Lo difícil acá es aplicar este razonamiento a un producto de comunicación humana.
Allo, de nuevo, se conecta con las técnicas de reconocimiento de lenguaje y aprendizaje de máquinas que corren por debajo de Google para lograr, por ejemplo, hacer sugerencias de restaurantes cuando las personas hablan de ir por comida italiana o incluso proponer una respuesta automática a una foto de pasta con camarones diciendo algo como “los camarones se ven muy bien”.
Esta aplicación de mensajería funciona en alianza con Duo, un nuevo producto de la empresa para videollamadas que, entre otros trucos útiles, permite acceder a una previsualización de quien está llamando: el receptor de la llamada puede ver qué está haciendo quien lo llama antes de aceptar contestar. Estas dos aplicaciones estarán disponibles para Android y para iOS. En la presentación no quedó claro qué pasará con Hangouts.
El mundo de Android
Google I/O, que ya va por su décima edición, no sería lo que es si no incluyera una buena porción de anuncios relacionados con Android. Y esta vez tampoco fue la excepción, pues la compañía mostró algunos de los desarrollos para el sistema operativo móvil más popular del mundo.
Por cierto, la empresa asegura que, sólo este año, fueron lanzados 600 teléfonos que funcionan con Android; Google Play, la tienda de aplicaciones de este ecosistema, ha registrado más de 65.000 millones de aplicaciones instaladas.
Android es, a su vez, un sinónimo de aplicaciones y la puerta de entrada más fuerte de Google a la experiencia móvil de internet, un asunto que cada vez gana más terreno: 50% de las preguntas que actualmente se le hacen al buscador vienen de un dispositivo móvil.
Una de las cosas futuras más interesantes en el mundo de Android es una función que, aunque no estará activa prontamente, permitirá que un usuario acceda a una aplicación sin necesidad de descargarla, algo así como streaming de aplicaciones.
Esta herramienta opera de la misma forma que lo hacen los links y la web: una persona hace clic en un hipervínculo y este lo lleva a una página en línea. Se trata de lograr lo mismo, sólo que el destino final sea una aplicación.
La idea es que las aplicaciones sean construidas en una especie de módulos para que, cuando un usuario solicite información, se pueda acceder a la parte de la aplicación que necesita y no a todo el producto, lo que le puede ahorrar a la persona una descarga innecesaria, pero que, a la vez, también podría estimular el consumo de un producto que quizá no hubiera conocido en primer lugar.
La conferencia del miércoles, en su mayoría, estaba poblada por desarrolladores, lo que explica el gran aplauso que esta herramienta recibió del público pues, en últimas, promete cambiar la forma como los usuarios descargan y acceden a las aplicaciones y esto beneficia primordialmente a los mismos desarrolladores.
Además de esta función, que no tiene fecha de introducción fija, Google anunció la inclusión de realidad virtual en Android. Esto significa ir un paso más allá de Cardboard y diseñar toda una plataforma para este tipo de tecnología, que se llamará Day Dream.
La idea de la empresa es establecer una especie de parámetros de diseño para dispositivos móviles de realidad virtual, así como de características de los teléfonos que se usarán en ellos. Es una iniciativa de largo alcance y que no comenzará a dar sus primeros frutos sino hasta después de mitad de este año, según Clay Bavor, quien dirige la parte de realidad virtual de Google.