con la experiencia en puntos de información multimedia como el Smartpoint y Clip Channel, o SOPAT que habían hecho converger información personalizada, interoperable y accesible para todos.
Multimodalidad: la capacidad de utilizar varios “modos” de comunicación e interacción entre las personas (a través de todas sus capacidades sensoriales) y los servicios presentes en su entorno tecnológico, teniendo en cuenta factores específicos personales, ambientales y situacionales.
VÍDEO 1
El dispositivo de usuario es el sistema portable MyTobii P10 que integra en una única unidad un monitor de 15’’, el dispositivo de eye-tracking y un ordenador dotado con Sistema Operativo Windows XP. Concretamente, se ha implementado en el dispositivo de usuario una aplicación en Visual Studio C# 2005 Professional Edition que se ejecuta en el entorno MyTobii Environment , entorno en el que se ejecutan las aplicaciones desarrolladas utilizando la API facilitada por el fabricante. La comunicación con UCH se lleva a cabo mediante el protocolo URC-HTTP. La aplicación conoce de antemano los targets, la interfaz de usuario está preprogramada, es decir, no se genera de forma dinámica.
El prototipo 4.4 trata de realizar el control del entorno doméstico mediante interacciones por voz, usando lenguaje natural, y considerando como dispositivo de usuario un teléfono móvil. Así, llamando a un número telefónico determinado, se expresa mediante lenguaje natural la acción que se desea realizar sobre el entorno doméstico (por ejemplo: “enciende el aire acondicionado y ponlo a 18 grados”). Esta locución se traslada a un SMS o Blog mediante conversión voz-texto. Ese texto en lenguaje natural se convierte en órdenes al sistema (por ejemplo: TURN_HEAT = ON; TEMPERATURE = 18). Esas órdenes se pasan a la arquitectura de interoperabilidad que sirve de pasarela para el sistema y ejecuta las acciones correspondientes. Como respuesta, el sistema genera un listado de variables que describen el estado del sistema (por ejemplo: HEAT = ON, TEMPERATURE = 18; TV = OFF; LIGHT = OFF, etc). Mediante generación de respuestas con lenguaje natural, el sistema genera un texto (por ejemplo: “Estado del sistema: El aire acondicionado está encendido a 18 grados centígrados. La televisión y las luces del salón están apagadas”.), el cual se envía al usuario mediante un SMS como confirmación del servicio.
Se ha recurrido a la tecnologias de la compañía Immersion que facilitan el desarrollo de prototipos de aplicaciones que incluyan patrones de vibración. Estos efectos se pueden generar partiendo de cero y definiendo intervalos de vibración y pausa, así como valores de intensidad para la vibración; o de forma más sofisticada, importando ficheros de audio MIDI que permiten adaptar la vibración a la melodia en cuestión. Sin embargo, cabe resaltar que esta no es la única alternativa disponible, ya que, actualmente, todas las plataformas destinadas a dispositivos móviles (Android, Symbian, iPhone, etc) incluyen APIs para controlar la vibración en el teminal, proporcionando operaciones métodos que permiten iniciar y detener los actuadores y motores de los terminales para crear patrones de vibración determinados que pueden utilizarse como indicaciones de llamada entrante, alertas y ayudas en la navegación. El sistema cliente para este prototipo esta formado por un dispositivo de usuario movil, Samsung SGH-i718, equipado con puerto Bluetooth, una pasarela Bluetooth/UCH-http para comunicación con la plataforma de interoperatibilidad UCH, y una aplicación SW que se ejecuta en el dispositivo movil y que permite al usuario acceder y controlar elementos objetivos (targets) utilizando las facilidades tactiles que ofrece este dispositivo movil: Interfaz de selección mediante pantalla tactil con emulación grafica de teclado para entrada de datos alfanuméricos Interfaz de salida vibrotactil Para el desarrollo de la aplicación del controlador en el móvil, se ha aprovechado la plataforma Compact FrameWork de Windows (.NET CF) y el uso del lenguaje de programación C# para los siguientes módulos: Módulo de interfaz gráfico y gestión de eventos relacionados con la pantalla táctil. Módulo de gestión de la comunicación con la plataforma de interconexión UCH (a nivel de presentación, y, aplicación, de acuerdo al modelo de 7 niveles OSI). Módulo de gestión del acceso a las facilidades de vibración. Además se han incluido 2 librerías dinámicas desarrolladas en C++: Dll para acceso a comunicaciones Bluetooth. Dll para acceso a las facilidades de vibración de tecnología Immersion a través de la librería API escrita en C.
This work explores how integration Shape Memory Fabrics boosts the interaction of People with Disability (PWD) and environment, via special fabric. In this respect, the transmission of haptic information is performed using different materials, like Nitinol Alloys and Electro Active Polymers; and also, through the design of a vibration system in order to create a communication tool. A key concept in our work is that of the user’s perceptions, since they are aware of their needs better than anyone else. One of the biggest barriers in accessibility in urban environment is the mobility; we try to develop a service in which Geographic Information System can be transmitting by an interface textile. In addition, we develop a singular application to get better the blood circulation to people who use wheelchair, or when make a long travel. The potential users are: • People with deaf-blindness because their natural brain input is via haptic information. • People who use wheelchairs; in this case, we study to prevent or reduce pressure ulcers. • People with cognitive disability; try to create an intuitive communication, and stimulated their perception. • People who work in risky place, like firefighters.