2. Tiempo-Horizonte de implantación: de cuatro a cinco años Gracias en parte a la NintendoWii, el iPhone de Apple y el iPad, muchas personas ahora tienen algunos inmediata experiencia en informática basada en gestos como un medio para interactuar con una computadora. La proliferación de juegos y dispositivos que incorporan la interacción gestual fácil e intuitiva, que seguirá, con lo que con ella una nueva era de diseño de interfaz de usuario que se mueve más allá del teclado y el ratón. Mientras que el total realización del potencial de la computación basada en gestos permanece varios años de distancia, especialmente en la educación, su importancia no puede subestimarse, especialmente para una nueva generación de estudiantes acostumbrados a tocar, la grabación, el deslizar, saltar y moverse como una forma de comprometerse con la información.
3. Información general Es casi un lugar común decirlo, pero la primera exposición a la computación basada en gestos para muchas personas puede se han producido más de una década atrás, cuando vieron Tom Cruise en MinorityReport aplastar la información todo delante de él moviendo los brazos. El hecho de que Juan Underkoffler, quien diseñó la película interfaz de ficción, presenta una versión no-ficción de ella, llamado G-Speak, en una charla TED, en 2010, oportunamente afirma la importancia cada vez mayor y la promesa deinformática basada en gestos. El G-Speak pistas de la mano movimientos y permite a los usuarios manipular objetos en 3D en el espacio. Este dispositivo, así como SixthSense, que fue desarrollado por PranavMistry, mientras que en el MIT Media Lab y utiliza los marcadores visuales y el gesto reconocimiento para permitir la interacción con el tiempo real información, ha encendido la imaginación cultural con respecto a las implicaciones para la computación basada en gestos. Esta imaginación se ve agravada por la Kinectsistema de la Xbox, que continúa explorando la potencial del movimiento humano en el juego. En resumen, informática basada en gestos es pasar de ficción la fantasía a la experiencia vivida.
6. Las tecnologías para la entrada basada en gestos también continúanpara ampliar. Evoluce ha creado una pantalla táctil pantalla que responde a los gestos, y el trabajo es en una manera de permitir que las personas interactúan con Windows 7 a través del sistema de Kinect. Del mismo modo, los estudiantes de el Media Lab del MIT han desarrollado DepthJS, queune a los Kinect con la web, permitiendo a los usuarios interactuar con el navegador web de Google Chrome a través de gestos. También en el MIT, los investigadores están desarrollando económica interfaces basadas en gestos que realizan un seguimiento de la toda la mano. Laboratorios elíptica anunció recientemente un muelle que permitirá a los usuarios interactuar con sus IPAD a través de gestos. Otra dirección de centros de innovación tecnológica el tacto, lo que se refiere a la retroalimentación táctil comunicado a un usuario. Investigadores de la Universidad de McGill están desarrollando un sistema de retroalimentación háptica, que permite las personas con impedimentos visuales para obtener más comentarios con grados multa de tacto, y un investigador . Los medios de comunicación Grupo de Computación en la Universidad RWTH de Aquisgrán, Alemania, ha creado una activa localizada háptica interfaz de comentarios llamado MudPad para las interfaces de contacto fluido que promete ofrecer formas más matizada a interactuar con las pantallas a través del tacto.
9. Otros investigadores están explorando formas de utilizar gestual computación con dispositivos móviles. Momo GestureTek software, por ejemplo, utiliza dos sensores diferentes para detectar el movimiento y la posición de los objetos, y está diseñado para llevar la computación basada en gestos a los teléfonos.IDENT Technology Cerca de Campo Eléctrico de detección Interfaces está diseñado para permitir que los móviles para responder a la adherencia y la proximidad que detecta. Una llamada móvil poner la llamada a través de si se recoge y se mantiene, sino que enviarlo al correo de voz si se toma y rápidamente puso de nuevo. Mientras que la computación basada en gestos ha encontrado un naturalcasa en el juego, así como en los archivos de la navegación, sus usos potenciales son mucho más amplia. La capacidad de moverse a través de visualizaciones en tres dimensiones podría prueba convincente y productiva, por ejemplo, y computación basada en gestos es ideal para la simulacióny la formación. Computación basada en gestos tiene fuertes potenciales estudiantes en la educación, tanto para el aprendizaje, como será capaz de interactuar con ideas e información en nuevas formas, y para la enseñanza, como la facultad de explorar nuevas formas de comunicar ideas. También tiene el potencial para transformar lo que entendemos es académico métodos de intercambio de ideas.
10. Relevancia para la Enseñanza, Aprendizaje, la investigación o la investigación creativa. Computación basada en gestos ya ha demostrado productivas en las simulaciones de entrenamiento que funcionan casi exactamente igual que sus contrapartes del mundo real. Gestual interfaces pueden permitir a los usuarios realizar fácilmente precisa manipulaciones que puede ser difícil con un ratón, como la edición de vídeo del sistema de sabotaje deja en claro que computación basada en gestos también abre posibilidades sin precedentes de la accesibilidad, la interacción y la colaboración de los alumnos. Mientras que una dirección para la computación basada en gestos intenta recrear o mejorar existentes prácticas, una dirección más convincente para computación basada en gesto en el contexto del aprendizaje se moverá más allá de reproducir lo que ya se conoce con el fin de crear formas completamente nuevas de interacción, expresión, y la actividad, junto con las metáforas necesarias para hacerlos comprensibles.
11.
12. Educación. La agenda de investigación para los medios de comunicación, el diseño del programa en el Art Center College de Diseño incluye tecnologías educativas que utilizan computación basada en gestos, y los estudiantes se enfocan en la creación de nuevas interfaces para el aprendizaje.
15. EyeDraw Este proyecto, desarrollado en la Universidad de Oregon, usa movimientos oculares para crear dibujos en una pantalla de ordenador. Los sensores pueden realizar un seguimiento movimiento de los ojos y dar a los usuarios un control preciso sobre el imagen que componen. http://www.cs.uoregon.edu/research/cm-hci/EyeDraw/
16. Morpholuminescence Creado por estudiantes de la Universidad BallState, esta proyecto utiliza los gestos del cuerpo para ajustar la luz en una sala para lograr un resultado óptimo de visión. Diseñado para uso en la industria de la moda, el sistema ofrece una iluminación integrada y sistema de sensores, gran parte de se construyó utilizando el código abierto Arduino prototipos plataforma. http://www.i-m-a-d-e.org/morpholuminescence
18. MudPad (JansenYvonne, RWTH Aachen Medios de Comunicación de la UniversidadGrupo de Computación, 2010.) Investigadores en el Grupo de Medios de Informática en la RWTH Aachen. La Universidad está desarrollando una activa localizada háptica interfaz de comentarios llamado MudPad para el líquidointerfaces de tacto con el fin de ofrecer más matizada formas de interactuar con pantallas a través del tacto. http://hci.rwth-aachen.de/mudpad