Android se prepara para permitir a sus usuarios interactuar con sus smartphones utilizando únicamente su cara
![imagen de una persona con un movil](https://www.adslzone.net/app/uploads-adslzone.net/2024/05/project-gameface-pcpal-1-compressed.jpg)
Google aprovechó la Google I / O celebrada durante el día de ayer para anunciar a través de una publicación en su blog el aterrizaje del Project Gameface a Android. Con él, vamos a poder controlar nuestro smartphone a través de gestos realizados con nuestro rostro. Sin interactuar físicamente con él. Te contamos todos los detalles.
Google anunció en la Google I/O de 2023 el Project Gameface. Con él, podíamos utilizar el cursor de nuestro ordenador haciendo uso únicamente del movimiento de nuestra cabeza y de diferentes gestos faciales. Inicialmente, este proyecto se enfocaba únicamente en el ámbito de los videojuegos y estaba desarrollado para funcionar en el entorno de escritorio. Sin embargo, durante el día de ayer Google anunció su aterrizaje también en Android.
Gameface llega a los dispositivos con Android como un sistema de código abierto que nos permite poder interactuar con nuestro teléfono móvil con Android sin necesidad de tener que tocarlo. Para ello, únicamente debemos utilizar una serie de movimientos con nuestra cabeza, o realizar diferentes expresiones, para poder llevar a cabo todo tipo de acciones, como muestra el siguiente vídeo.
Cómo funciona
Para hacerlo compatible en Android, Google ha hecho uso de una API de detección de puntos de referencia faciales. Con ella, nuestro smartphone puede identificar todo tipo de gestos y movimientos haciendo uso de la cámara delantera que incorpora nuestro smartphone. Una vez queda registrado cada uno de nuestros movimientos, el propio sistema traduce las mismas a una serie de acciones que se pueden realizar en nuestro dispositivo.
Una de las particularidades con las que cuenta el sistema es que, tal y como anuncia Google, el catálogo de acciones es completamente personalizable. Por lo tanto, cada una de ellas estará adaptada al 100% a las necesidades específicas de cada usuario en concreto. Cubriendo un amplio abanico de posibilidades al respecto.
La API contempla un total de 52 valores diferentes que reflejan la expresividad de 52 gestos faciales. Algunos de los ejemplos que cita Google son, por ejemplo, levantar una de las dos cejas para hacer clic y arrastrar o abrir la boca para mover el cursor del ratón y desplazarlo hacia el otro lado.
En manos de los desarrolladores
Google ha tomado la decisión de liberar el código de Project Gameface para que los desarrolladores puedan comenzar a trabajar con él y ofrecer nuevos recursos a los usuarios, tal y como afirma en la nota publicada: “Los desarrolladores ahora pueden crear aplicaciones donde sus usuarios pueden configurar su experiencia personalizando las expresiones faciales, el tamaño de los gestos, la velocidad del cursor y más”.
Inicialmente, como ya hemos anticipado, Gameface estaba dedicado en su totalidad al ámbito de los videojuegos. Sin embargo, Google se ha replanteado su decisión y su objetivo es impactar en todo tipo de contextos. Por este motivo, se ha asociado con Incluzza, una organización de carácter social en India, que está centrada en aspectos relacionados con la accesibilidad. La idea es poder expandir sus posibilidades a todo tipo de entornos que puedan simplificar el día a día de las personas con problemas de movilidad, extendiendo la solución al trabajo, la escuela o cualquier otro entorno social.