¿Controlar el iPhone con los ojos? estas son las nuevas funciones que tendrá Apple
El 15 de mayo, los de Cupertino anunciaron una serie de nuevas presentaciones de accesibilidad para sus dispositivos móviles.
En una semana llena de anuncios significativos en tecnología de las grandes compañías protagonistas como OpenAI y Google, Apple decidió sumarse a la ola de presentaciones. El 15 de mayo anunció nuevas características de accesibilidad, principalmente pensadas a personas con discapacidad, se espera que llegue para iPhone y iPad, según manifestó la compañía.
Apple no especificó en que modelos estarán disponibles estas funcionalidades y aunque no es oficial, se espera que lleguen junto a la siguiente generación de su sistema operativo, el iOS 18.
Entre las nuevas características presentadas, se destacan el Eye tracking, una función que permitiría a los usuarios con discapacidades físicas que controlen el iPad o iPhone con los ojos. De igual forma, presentaron Music Haptics, que brindará una nueva forma de experimentar la música para los usuarios sordos o con problemas auditivos.
“Por eso, durante casi 40 años, Apple ha defendido el diseño inclusivo integrando la accesibilidad en el núcleo de nuestro hardware y software. Estamos continuamente ampliando los límites de la tecnología, y estas nuevas prestaciones reflejan nuestro compromiso de siempre de ofrecer la mejor experiencia posible a todos nuestros usuarios”, afirmó el CEO de la compañía, Tim Cook.
Navegación con los ojos
Por medio de la inteligencia artificial, la función de navegación con los ojos le permitirá a los usuarios navegar por el iPad o iPhone solo con los ojos. Con la intención enfocada en las personas con discapacidades físicas, la herramienta utiliza la cámara frontal para encontrar un patrón en el recorrido visual de la persona para de esa forma configurar y recolectar los datos necesarios para controlar esta función en segundos. De acuerdo con la compañía, los datos recogidos por el sistema de aprendizaje automático se guardan en el dispositivo de forma segura y no se comparten con Apple.
La navegación con ojos funcionará con iPadOS y aplicaciones de iOS y no requerirá accesorios adicionales. Con esta función los usuarios podrán navegar por las aplicaciones y activar cada elemento dentro de ellas, y por medio del Dwell Control, se podrán utilizar los botones físicos con los ojos.
De momento no han dado más detalles de su funcionamiento y se esperan que en la próxima conferencia anual de desarrolladores de la compañía, que se celebrara el próximo 10 de junio, profundicen sobre estas nuevas características de accesibilidad.
Dwell Control es el asistente de iOS que permite utilizar los botones físicos desde la pantalla. Cuando se activa aparece en la pantalla todo el tiempo y puede realizar varias tareas para el usuario.
Música Háptica
La función de la música háptica brindará a los usuarios sordos o con problemas de audición la oportunidad de que experimenten la música en el iPhone. Con esta función de accesibilidad activada, el Taptic Engine del dispositivo reproducirá toques, texturas, y vibraciones de acuerdo con el audio de la música, según expresó Apple. Esta función llegará para el catálogo de streaming de música de Apple Music y estará disponible como API, para que los desarrolladores hagan más accesibles la música en sus plataformas.
Taptic Engine es el motor de vibraciones hápticas y se encarga de regular las vibraciones del dispositivo según la respuesta táctil que recibe.
Nuevas funciones para atajos vocales
Con los atajos vocales, los usuarios de iPhone e iPad podrán asignar expresiones personalizadas que Siri puede entender para ejecutar atajos y completar tareas complejas.
Otra nueva función, Escucha Voz Atípica, ofrecerá a los usuarios la opción de mejorar el reconocimiento de voz para una gama más amplia de expresiones. Esta herramienta utilizará el aprendizaje automático en el dispositivo para reconocer los patrones del habla del usuario.
Le recomendamos leer: Así son los nuevos modelos de iPad: las claves del lanzamiento de Apple
La función está diseñada para personas con enfermedades adquiridas o progresivas que afectan el habla, como parálisis cerebral o esclerosis lateral amiotrófica. estas prestaciones facilitarán un nuevo nivel de personalización y control. “La inteligencia artificial tiene el potencial de mejorar el reconocimiento del habla para millones de personas con habla atípica, por lo que estamos encantados de que Apple ofrezca estas nuevas funciones de accesibilidad a los consumidores”, dijo Mark Hasegawa-Johnson, investigador principal del proyecto.
Señales de movimiento del vehículo para a reducir el mareo
Apple presentó la herramienta para iPad y iPhone que buscará reducir el mareo de los pasajeros de los vehículos en movimiento. De acuerdo con Apple, se realizaron investigaciones que demostraron que el mareo suele estar causado por un conflicto sensorial entre lo que una persona ve y lo que siente, lo que puede llevar a que los usuarios de dispositivos móviles no los utilicen de manera cómoda mientras viajan en un vehículo.
Le puede interesar: Conozca la aplicación de iPhone para emular juegos clásicos de Nintendo
La nueva herramienta creará unos puntos animados en los bordes la pantalla que representarán los cambios en el movimiento del automóvil que ayudarán a reducir el conflicto sensorial sin interferir en el contenido principal. A través de los sensores integrados de los dispositivos de Apple, la función reconoce cuando un usuario está en movimiento y responderá en consecuencia
Se podrá configurar para que se active de forma automática en el iPhone o el usuario la podrá activar o desactivar en el centro de control.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.
En una semana llena de anuncios significativos en tecnología de las grandes compañías protagonistas como OpenAI y Google, Apple decidió sumarse a la ola de presentaciones. El 15 de mayo anunció nuevas características de accesibilidad, principalmente pensadas a personas con discapacidad, se espera que llegue para iPhone y iPad, según manifestó la compañía.
Apple no especificó en que modelos estarán disponibles estas funcionalidades y aunque no es oficial, se espera que lleguen junto a la siguiente generación de su sistema operativo, el iOS 18.
Entre las nuevas características presentadas, se destacan el Eye tracking, una función que permitiría a los usuarios con discapacidades físicas que controlen el iPad o iPhone con los ojos. De igual forma, presentaron Music Haptics, que brindará una nueva forma de experimentar la música para los usuarios sordos o con problemas auditivos.
“Por eso, durante casi 40 años, Apple ha defendido el diseño inclusivo integrando la accesibilidad en el núcleo de nuestro hardware y software. Estamos continuamente ampliando los límites de la tecnología, y estas nuevas prestaciones reflejan nuestro compromiso de siempre de ofrecer la mejor experiencia posible a todos nuestros usuarios”, afirmó el CEO de la compañía, Tim Cook.
Navegación con los ojos
Por medio de la inteligencia artificial, la función de navegación con los ojos le permitirá a los usuarios navegar por el iPad o iPhone solo con los ojos. Con la intención enfocada en las personas con discapacidades físicas, la herramienta utiliza la cámara frontal para encontrar un patrón en el recorrido visual de la persona para de esa forma configurar y recolectar los datos necesarios para controlar esta función en segundos. De acuerdo con la compañía, los datos recogidos por el sistema de aprendizaje automático se guardan en el dispositivo de forma segura y no se comparten con Apple.
La navegación con ojos funcionará con iPadOS y aplicaciones de iOS y no requerirá accesorios adicionales. Con esta función los usuarios podrán navegar por las aplicaciones y activar cada elemento dentro de ellas, y por medio del Dwell Control, se podrán utilizar los botones físicos con los ojos.
De momento no han dado más detalles de su funcionamiento y se esperan que en la próxima conferencia anual de desarrolladores de la compañía, que se celebrara el próximo 10 de junio, profundicen sobre estas nuevas características de accesibilidad.
Dwell Control es el asistente de iOS que permite utilizar los botones físicos desde la pantalla. Cuando se activa aparece en la pantalla todo el tiempo y puede realizar varias tareas para el usuario.
Música Háptica
La función de la música háptica brindará a los usuarios sordos o con problemas de audición la oportunidad de que experimenten la música en el iPhone. Con esta función de accesibilidad activada, el Taptic Engine del dispositivo reproducirá toques, texturas, y vibraciones de acuerdo con el audio de la música, según expresó Apple. Esta función llegará para el catálogo de streaming de música de Apple Music y estará disponible como API, para que los desarrolladores hagan más accesibles la música en sus plataformas.
Taptic Engine es el motor de vibraciones hápticas y se encarga de regular las vibraciones del dispositivo según la respuesta táctil que recibe.
Nuevas funciones para atajos vocales
Con los atajos vocales, los usuarios de iPhone e iPad podrán asignar expresiones personalizadas que Siri puede entender para ejecutar atajos y completar tareas complejas.
Otra nueva función, Escucha Voz Atípica, ofrecerá a los usuarios la opción de mejorar el reconocimiento de voz para una gama más amplia de expresiones. Esta herramienta utilizará el aprendizaje automático en el dispositivo para reconocer los patrones del habla del usuario.
Le recomendamos leer: Así son los nuevos modelos de iPad: las claves del lanzamiento de Apple
La función está diseñada para personas con enfermedades adquiridas o progresivas que afectan el habla, como parálisis cerebral o esclerosis lateral amiotrófica. estas prestaciones facilitarán un nuevo nivel de personalización y control. “La inteligencia artificial tiene el potencial de mejorar el reconocimiento del habla para millones de personas con habla atípica, por lo que estamos encantados de que Apple ofrezca estas nuevas funciones de accesibilidad a los consumidores”, dijo Mark Hasegawa-Johnson, investigador principal del proyecto.
Señales de movimiento del vehículo para a reducir el mareo
Apple presentó la herramienta para iPad y iPhone que buscará reducir el mareo de los pasajeros de los vehículos en movimiento. De acuerdo con Apple, se realizaron investigaciones que demostraron que el mareo suele estar causado por un conflicto sensorial entre lo que una persona ve y lo que siente, lo que puede llevar a que los usuarios de dispositivos móviles no los utilicen de manera cómoda mientras viajan en un vehículo.
Le puede interesar: Conozca la aplicación de iPhone para emular juegos clásicos de Nintendo
La nueva herramienta creará unos puntos animados en los bordes la pantalla que representarán los cambios en el movimiento del automóvil que ayudarán a reducir el conflicto sensorial sin interferir en el contenido principal. A través de los sensores integrados de los dispositivos de Apple, la función reconoce cuando un usuario está en movimiento y responderá en consecuencia
Se podrá configurar para que se active de forma automática en el iPhone o el usuario la podrá activar o desactivar en el centro de control.
👽👽👽 ¿Ya está enterado de las últimas noticias de tecnología? Lo invitamos a visitar nuestra sección en El Espectador.