Levantando una ceja o con una sonrisa, personas con discapacidades físicas o del habla ahora pueden operar sus teléfonos inteligentes Android sin usar las manos, dijo Google el jueves.

 

Dos nuevas herramientas usan el aprendizaje automático y las cámaras frontales de los teléfonos inteligentes para detectar movimientos faciales y oculares.

 

“Para hacer que Android sea más accesible para todos, estamos lanzando nuevas herramientas que facilitan el control de su teléfono y la comunicación mediante gestos faciales”, dijo Google.

Los usuarios pueden escanear la pantalla de su teléfono y seleccionar una tarea sonriendo, levantando las cejas, abriendo la boca o mirando a la izquierda, a la derecha o hacia arriba.

 

“Todos los días, la gente usa comandos de voz como ‘Hey Google’ o sus manos para navegar en sus teléfonos (…), sin embargo, eso no siempre es posible para las personas con discapacidades motoras y del habla graves”, reconoció el gigante tecnológico en una publicación en su blog.

 

Las dos nuevas funciones son “Camera Switches”, que reemplaza los toques y desplazamientos con movimientos del rostro, y “Project Activate”, una nueva aplicación de Android que permite que los gestos desencadenen acciones como enviar mensajes o hacer llamadas.

 

La aplicación gratuita Activate ya está disponible en Australia, Gran Bretaña, Canadá y Estados Unidos en la tienda Google Play.

 

Los Centros para el Control y Prevención de Enfermedades (CDC) de Estados Unidos estiman que hay en el país unos 61 millones de adultos con alguna discapacidad.