4 Control del sistema en aplicaciones
4.3 Gestos para teléfonos inteligentes (y otras aplicaciones)

Muchas aplicaciones en teléfonos móviles han diseñado e implementado el uso de gestos intuitivos que permitirían a los usuarios imaginar qué movimiento deberían realizar para ejecutar un comando específico. Los gestos también permiten a los diseñadores desarrollar interfaces agradables al permitir más posibilidades para las ideas profesionales. Las nuevas interfaces están ahora generalmente diseñadas sin botones para hacer clic y permiten posibilidades para ideas profesionales. Los botones no pueden desaparecer de la aplicación móvil para siempre, ya que juegan un papel crucial en la petición de acciones. Sin embargo, en el caso de que los gestos sean más naturales e intuitivos, y simplifiquen la interacción del usuario, deben implementarse [5].

Un ejemplo de aplicación móvil, controlada con gestos, puede ser Google Maps o cualquier sistema de navegación utilizado en el teléfono móvil. Una aplicación como Google Maps brinda a los usuarios la oportunidad de aplicar varios gestos para controlar determinadas funciones suyas. Por ejemplo, para acercar o alejar el mapa en la pantalla, puede usarse el dedo moviéndolo hacia arriba y hacia abajo respectivamente.

Otra aplicación es Clear, una tarea de iOS que administra la aplicación móvil. El hecho sorprendente de esta aplicación es que no tiene botones, por lo que se basa completamente en el control de gestos. Utiliza toques y desliza para agregar y eliminar tareas de una lista de tareas pendientes.

Definitivamente hay más aplicaciones basadas en la navegación y control por gestos, pero enumeramos solo las más utilizadas.

image
Google maps con navegación por gestos

Otras aplicaciones que utilizan el control gestual

Muchas aplicaciones se desarrollan para aplicaciones de entrenamiento profesional (por ejemplo, golf, béisbol). El usuario no necesita ningún hardware adicional como teclados y joysticks. Las aplicaciones pueden proporcionar capacidades de captura tridimensional del movimiento del cuerpo y la mano en tiempo real. Para este propósito, se utiliza Kinect. Kinect usa una cámara de profundidad para control de movimiento. Mientras que Kinect se centra principalmente en capturar la pose corporal, Leap Motion desarrolló un dispositivo de captura de gestos de corto alcance con una cámara infrarroja estéreo. Leap Motion puede seguir los gestos finos de las dos manos a una alta velocidad de fotogramas por segundo. Permite aplicaciones como dibujar y manipular objetos pequeños en un espacio virtual. Algunos proveedores de PC se asociaron con Leap Motion para proporcionar una interfaz de usuario natural (NUI, del inglés Natural User Interface) en aplicaciones de escritorio como el Diseño Asistido por Computador (CAD, del inglés Computer Aided Design) [3].

Varios proveedores de software también proporcionan un Kit de Desarrollo Software (SDK, del inglés Software Development Kit) o software intermedio (middleware en inglés) para que los desarrolladores de aplicaciones integren fácilmente el reconocimiento de gestos y posturas en sus aplicaciones (por ejemplo, Gestoos, eyeSight).

Para eliminar las distracciones del conductor y aumentar la seguridad del tráfico, los fabricantes de automóviles están creando una interfaz sin contacto basada en los gestos de la mano (por ejemplo, el sistema de control de gestos basado en cámaras de BMW). Esta interfaz reduce la necesidad de que los conductores lleguen al panel de control del tablero. Es una forma más natural de controlar el sistema de información y entretenimiento y ayuda a mantener la atención del conductor en la carretera.

Los gestos con las manos son la forma viable de guiar también las operaciones de aviones no tripulados (drones en inglés) en exteriores, de tal manera que los aviones no tripulados pueden volar de forma autónoma y ser guiados sin utilizar el control remoto (por ejemplo, volver a llamar al avión no tripulado agitando las manos). Un ejemplo puede ser un nuevo dron de DJI llamado Spark. Spark es un dron controlado por gestos de la mano, donde todo lo que necesitas son tus manos para comandarlo. Se puede ordenar que se aleje, que nos tome una foto o que explore libremente los cielos de la forma que se desee, todo con gestos. Spark puede detectar objetos delante de él a una distancia de hasta 5 m, para evitar automáticamente cualquier colisión desagradable [4].

image
Spark