
Tecnologías Accesibles
Tecnologías Accesibles
Una iniciativa conjunta –Indra Group y Fundación Universia– que tiene como objetivo promover el desarrollo de tecnologías innovadoras que mejoren la calidad de vida de las personas con discapacidad, facilitando su inclusión social y laboral
Se premian tres proyectos en la categoría general, que recibirán una ayuda de 25.000 euros cada uno, y un proyecto en la categoría especial, que contará con una dotación adicional de 10.000 euros para continuar su desarrollo y facilitar su llegada al mercado.
10 años de alianza apoyando los proyectos de investigación de universidades españolas para la creación de nuevas tecnologías accesibles
9
convocatorias
>350
proyectos presentados
>150
universidades
29
proyectos ganadores
Convocatorias
Proyectos ganadores por convocatoria
Proyecto EmpowerTasks

Plataforma digital inclusiva diseñada para que personas con discapacidad intelectual puedan acceder a
oportunidades de empleo a través de microtareas digitales y servicios en remoto. Combina formación
accesible con un asistente de inteligencia artificial que guía al usuario desde el aprendizaje hasta la ejecución
de las tareas
Proyecto CONECTA

Desarrollo de un sistema inmersivo de comunicación para personas con graves dificultades de motilidad,
control cefálico o de la mirada, que no pueden usar los Sistemas Aumentativos y Alternativos de Comunicación
(SAAC) convencionales.
Proyecto LARA

Diseño y construcción de un robot manipulador móvil que incrementa la autonomía del usuario en silla de
ruedas en los entornos domésticos o laborales.
Categoría Especial
Proyecto FastBaby 2.0

Proyecto que fomenta la autonomía desde los primeros meses de vida mediante adaptaciones accesibles
como dispositivos 3D, sensores y herramientas digitales. A través de juegos interactivos adaptados, estimula
el desarrollo motor, cognitivo y social.
Proyecto FastBaby

Basado en la importancia del movimiento en el desarrollo infantil, el proyecto explora alternativas como dispositivos robóticos y herramientas de estimulación sensorial para promover la independencia y el aprendizaje. Estas soluciones representan un paso adelante en la inclusión y el desarrollo de niños con discapacidad motora.
Proyecto LSEAVATAR

Recuperación ha sido impulsado por la Universidad de Castilla-La Mancha en su campus de Ciudad Real. Incluye simulador inmersivo de silla de ruedas, interacción adaptada entre mano real-objeto virtual para desarrollar nuevas estrategias de manipulación de objetos, recreación virtual de entornos de entrenamiento domésticos y laborales, y registro de cinemáticas para el análisis objetivo de progreso.
Proyecto Recuperación (VR-ADAPTA)

Recuperación ha sido impulsado por la Universidad de Castilla-La Mancha en su campus de Ciudad Real. Incluye simulador inmersivo de silla de ruedas, interacción adaptada entre mano real-objeto virtual para desarrollar nuevas estrategias de manipulación de objetos, recreación virtual de entornos de entrenamiento domésticos y laborales, y registro de cinemáticas para el análisis objetivo de progreso.
Categoría Especial
Proyecto RoboTEA-CHAT

Tiene como fin utilizar robots sociales para remediar los déficits en el procesamiento emocional. Se centra en la rehabilitación en personas con trastornos del espectro autista, utilizando robots y considerando las tecnologías de neurobiofeedback para ello. Esto permitirá mayor agilidad a los terapeutas, que no deberán seleccionar la respuesta a proporcionar por los robots, sino que lo harán los módulos desarrollados, con una interacción más fluida con los niños.
Proyecto Aiden

Consiste en la creación de un asistente para personas con discapacidad visual basado en inteligencia artificial. Este asistente, que se materializará en una aplicación para Smartphone, usará las más novedosas técnicas de inteligencia artificial para llevar a cabo cuatro tareas que son de utilidad a personas con discapacidades visuales.
Proyecto RoboTEA

Tiene como objetivo utilizar robots sociales para remediar los déficits en el procesamiento emocional. Se centra en la rehabilitación en personas con trastornos del espectro autista, utilizando robots, y considerando las tecnologías de neurobiofeedback para ello.
Proyecto SENLAB-IA

Plantea un sistema de detección y decodificación del lenguaje labiofacial empleando sensores piezorresistivos, basados en polímeros dotados con nanopartículas conductoras de carbono.
Proyecto PredictEpi

Se trata del desarrollo de un dispositivo que permitirá predecir con varios minutos de antelación una crisis epiléptica en pacientes con trastorno del sistema nervioso central, proporcionando tanto a estas personas como al personal de asistencia un tiempo suficiente para prepararse y afrontar la crisis en condiciones seguras. Además, el dispositivo registrará las ondas eléctricas cerebrales con el objetivo de apoyar el seguimiento de la enfermedad y ajustar el tratamiento por parte del equipo médico a cargo.
Proyecto Modelos Tifológicos Virtuales

Más de 36 millones de personas en el mundo son ciegas, 217 millones tienen una discapacidad visual moderada o grave y 188 millones tienen una discapacidad visual leve.
La percepción del entorno, a través de la vista se ve alterada y, el sentido del tacto ha sido tradicionalmente el más utilizado y el encargado de compensar esta limitación. Sin embargo, esta capacidad sensorial se ha visto limitada recientemente debido a la pandemia y a las restricciones de movilidad, especialmente en los espacios públicos, donde la imposibilidad de tocar objetos físicamente impide que las personas con este tipo de discapacidad accedan a la información.
Teniendo en cuenta que las personas ciegas y con discapacidad visual, en cierta forma, "ven con el tacto", el uso de guantes de Realidad Virtual (RV), sensibles al tacto y la presión, les permitiría, mediante retroalimentación háptica, obtener información de espacios y/u objetos virtuales, en cualquier lugar, en cualquier momento y en condiciones de visibilidad cero.
El objetivo de este proyecto es construir e implementar un Modelo Tiflológico Virtual (MTV) que actúe como sustituto de las tradicionales maquetas físicas. La retroalimentación háptica mediante modelos virtuales en 3D, constituye un nuevo enfoque para ayudar a las personas ciegas a realizar un mapeo mental de distintos espacios y recorridos en edificios y entornos arquitectónicos, algo esencial para el desarrollo eficaz de sus habilidades de orientación y movilidad en un entorno real.
Proyecto AspieWork

Plantea una solución tecnológica para facilitar el día a día de personas con síndrome de Asperger y ayudarlas a solventar las dificultades laborales a las que se enfrentan. Para ello, está previsto desarrollar un dispositivo portátil que medirá señales fisiológicas del individuo. Estas señales se digitalizarán y se analizarán mediante algoritmos basados en inteligencia artificial, con el objetivo de detectar patrones que evidencien situaciones incómodas para el usuario o que le sean difíciles de gestionar. Además, se habilitará una aplicación que podrá ser descargada en cualquier dispositivo móvil y que ejercerá de asistente psicológico para ayudarle a gestionar la situación y reducir los niveles de ansiedad.
Proyecto TELEDFO

El proyecto TELEDFO quiere proporcionar un sistema de rehabilitación física y cognitiva a las personas que han sufrido un ictus, de forma lúdica, de bajo coste, y clínicamente relevante. Mediante un sistema de captura basado en una cámara de profundiad y un sistema de aplicaciones computacionales, el usuario puede realizar una serie de ejercicios guiados por un avatar, y jugar a una serie de juegos que implican movimientos de las extremidades. El usuario solo necesita un ordenador convencional y el sistema de captura de bajo coste, lo que conlleva que lo puede utilizar cualquier persona independentiemente de su poder adquisitivo.
Las posiciones de las articulaciones así como los ángulos articulares y datos de análisis dinámicos se exportan en una base de datos remota. De esta forma el fisioterapeuta puede seguir la evolución del paciente remotamente e indicar modificaciones a los ejercicios.
El equipo del proyecto es multidisciplinar. Surgió de la colaboración del Laboratorio de Aplicaciones Multimedia de la Universitat Politècnica de Catalunya (UPC), y la Asociación Diversidad Funcional de Osona (ADFO). Está formado por ingenieros industriales, ingenieros multimedia, terapeutas ocupacionales, fisioterapeutas y clínicos expertos en neurorehabilitación.
Se ha realizado un ensayo de viabiliad con personas usuarias de ADFO, y este proyecto pretende escalar el producto para poder realizar un ensayo clínico con una muestra suficientemente grande de pacientes, y validar la eficacia del tratamiento de telerehabilitación.
Proyecto VISTACTO

El Proyecto VISTACTO quiere demostrar que el tacto puede crear un canal directo con el área del cerebro encargada de la visión, de modo que se puedan “ver” líneas. Estas líneas las dibujaremos en una mano con un estimulador táctil que usará una tecnología novedosa, eficiente energéticamente, y segura.
Ha habido otros proyectos que estimulan la mano y generan un mapa del entorno. Este mapa se interpreta por el usuario a partir del dibujo que se le hace en la mano. Sin embargo, la idea disruptiva es demostrar que se puedan llegar a visualizar de verdad estos dibujos. El recurso es usar la plasticidad cerebral: las neuronas de los niños son capaces de crear esos vínculos nuevos entre el canal del tacto y de la visión. Con su ayuda, es mucho más factible demostrar que se puede llegar a crear ese canal real entre tacto y visión, lo que abriría el camino para intentarlo en un futuro con personas de otras edades.
El estimulador táctil será una cajita con una matriz de puntos. En cada uno habrá unos pequeños imanes que se irán levantando y bajando. El mismo estimulador también empleará una tecnología novedosa y eficiente.
El equipo del Proyecto es multidisciplinar: ingenieros en electrónica, informática, neurocientíficos…, de las Universidades Carlos III de Madrid, Complutense y Oviedo, y el Centro Español de Subtitulado y Audiodescripción. Hasta ahora, este equipo ha desarrollado sistemas similares que han permitido a personas invidentes llegar a mapear su entorno a través del tacto, distinguir señales, gestos, etc. Queremos dar un salto cualitativo: queremos que la información táctil deje de percibirse como tal y pase a ser un estímulo visual real, a efectos cerebrales.
Proyecto Anticipa-TEA

Proyecto Anticipa-TEA se trata de una App móvil individualizada y modificable que ofrecerá apoyo en la adaptación y anticipación ante situaciones nuevas a niños/as con TEA. El colectivo con TEA es especialmente sensible al cambio en sus rutinas, provocándoles estrés que puede desembocar en conductas desadaptativas, como autolesiones. Por ello, la App Anticipa-TEA favorecerá la adaptación progresiva a situaciones que están por venir simulando entornos como parques, ir al médico o fiestas de cumpleaños, en forma de mapas interactivos con diferentes escenarios y sonidos reales, para disminuir el impacto negativo que provocan estas situaciones estresantes tanto en la calidad de vida del niño/a como en la de sus familiares. La App Anticipa-TEA consta de tres modos de uso: “Libre”: en el cuál el niño/a podrá inspeccionar libremente todas las zonas y sonidos del mapa; “Historia”: Consta de varias historias que simulan actividades cotidianas que pueden suponer un reto para niños/as con TEA como ir al cine, zoo, cumpleaños, donde el niño/a deberá superar cada hito de la actividad para conseguir terminar las historias completas; y “Personalizado”: Modo muy estructurado que simulará la rutina real de cada niño/a.
Proyecto SignoEscritura

El proyecto "Visualizando la Signoescritura" consiste en desarrollar una serie de herramientas con el objetivo de poder utilizar efectivamente la SignoEscritura en el mundo digital. La SignoEscritura es un sistema de transcripción de la Lengua de Signos, que permite escribirla de manera icónica en forma de texto.
Se desarrollará un reconocedor automático de SignoEscritura, capaz de entender textos escritos con ella, extrayendo los parámetros de las imágenes que codifican la realización signada. Este proceso es más sencillo que el reconocimiento de vídeo, un proceso complejo e impreciso. La información extraída será en sí de utilidad, siendo una codificación abstracta de la Lengua de Signos, y permitirá utilizar ésta de manera efectiva en el ordenador.
Adicionalmente, otras aplicaciones convertirán esta codificación en representaciones que ayuden a utilizar la SignoEscritura. Por un lado, una descripción en lenguaje sencillo describirá de manera fácil de entender los movimientos y formas a realizar con las manos, tanto para un Sordo no familiarizado con la SignoEscritura, como para un oyente sin conocimientos de LSE.
Por otro lado, un avatar tridimensional animado representará los signos, constituyendo una realización digital de la SignoEscritura que permitirá entenderla y aprenderla mejor, así como comunicar información en Lengua de Signos Española a personas que no conozcan el sistema.
El impacto de los productos desarrollados en este proyecto permitirá una mejor integración de las personas sordo-signantes en el mundo digital, así como en la sociedad y el mundo laboral, facilitando el uso informático de la que a menudo es su lengua materna: la Lengua de Signos Española.
Proyecto SSD-MOVE

El proyecto SSD-MOVE pretende aumentar las habilidades perceptivas y motoras de personas con discapacidad visual y, por ende, su autonomía en espacios de trabajo colaborativos, aplicando la investigación en Sustitución Sensorial VibroTactil (SSVT) llevada a cabo por el grupo de investigación en Percepción y Movimiento (GIPYM) de la UAM. La SSVT emplea la percepción táctil de vibraciones como sustituta de la percepción visual, por lo que es especialmente indicada para personas con discapacidad visual ya que no obstaculiza el funcionamiento normal de las otras modalidades sensoriales tan esenciales como la audición. Se basa en la transformación de la distancia a los objetos circundantes en vibraciones de una matriz de pequeños motores en contacto con distintas superficies corporales.
El trabajo realizado durante los últimos años en SSVT por nuestro grupo de investigación ha tenido como resultado el desarrollo de cuatro modelos distintos de trajes vibrotactiles, cuyos fundamentos técnicos y psicológicos han sido testados y publicados en revistas científicas internacionales del ámbito de la psicología y la ingeniería. Estas investigaciones han demostrado que el tipo de SSVT propuesto permite la detección sistemática de obstáculos tales como escalones, puertas, sillas o paredes, y la orientación para la navegación en entornos complejos estáticos. El último de los dispositivos desarrollados es totalmente portátil y autónomo (además de ser muy barato en comparación con otras propuestas de SSVT), aunque todavía resulta demasiado aparatoso para poder integrarlo en la vida cotidiana de los usuarios.
Nuestro objetivo en este proyecto es miniaturizar el SSVT con el fin de permitir su uso en actividades de la vida cotidiana de los usuarios. Una parte esencial del diseño y análisis de la funcionalidad del sistema consistirá en identificar los parámetros que caracterizan los distintos contextos sociales en los que el dispositivo puede ser útil, y testar los parámetros de funcionamiento del sistema que mejor se adaptan a cada tipo de situación. La idea es permitir al usuario seleccionar fácilmente de entre los distintos modos de funcionamiento el que mejor se adapte a cada contexto. Paralelamente, identificaremos los bloqueadores del aprendizaje que dificultan la adaptación de los usuarios al SSVT, y diseñaremos protocolos de entrenamiento que permitan acelerar el aprendizaje.
Proyecto Detección Precoz de Crisis en Autismo (PETRA)

PETRA, desarrollado por un equipo investigador del Departamento de Teoría de la Señal y Comunicaciones de la UC3M, trata de paliar las dificultades de comunicación que tienen algunas de las personas con Trastorno del Espectro Autista (TEA). Estas personas tienen habilidades de interacción con los demás distintas de las habituales y presentan ciertas alteraciones en la comunicación (verbal y no verbal), así como limitaciones para entender las emociones e intenciones del resto.
Para mejorar sus relaciones con el entorno social, el proyecto PETRA ha desarrollado una aplicación móvil gratuita, denominada cuidaTEA, capaz de estudiar el comportamiento de estas personas, identificar patrones personalizados y detectar cambios que permitan predecir episodios de crisis asociados a trastornos de ansiedad, de conducta o de sueño, entre otros. Para ello, la aplicación móvil cuidaTEA utiliza diversas fuentes de información provenientes del dispositivo móvil (pasos, uso de apps o tiempo de uso), que se procesan mediante algoritmos de inteligencia artificial. “De esta forma, tratamos de paliar las deficiencias en las habilidades de comunicación de estos pacientes mediante un sistema que genere, de forma automática y en tiempo real, una alerta directa a los teléfonos móviles de sus cuidadores, para que sepan cómo se encuentran”, explica Pablo Martínez Olmos, profesor del departamento de Teoría de la Señal y Comunicaciones de la Universidad y responsable científico del proyecto.
La aplicación ya está disponible tanto en iOS como en Android y, actualmente, está en fase experimental dentro de estudios clínicos, en colaboración con el Instituto de Investigación Sanitaria Fundación Jiménez Díaz.
Proyecto EASIER

Información digital más sencilla a través de un sistema de simplificación que favorezca la accesibilidad cognitiva a las personas con discapacidad intelectual.
El proyecto EASIER, del Grupo Human Language and Accessibility Technologies (HULAT), del departamento de Informática de la Universidad Carlos III de Madrid (UC3M), ha desarrollado un sistema open source (código abierto) que busca mejorar la accesibilidad a la información digital favoreciendo el acceso a las personas con discapacidad intelectual.
Las tecnologías de la información y la comunicación (TIC) en la sociedad de la información presentan barreras de accesibilidad, que afectan en mayor grado a las personas que tienen algún tipo de discapacidad. Son más conocidas las necesidades de las personas con discapacidad de tipo sensorial y física, pasando por alto las barreras cognitivas causadas por la difícil comprensión de los textos que afectan principalmente a las personas con discapacidad intelectual y personas mayores.
Con esta motivación se ha querido proporcionar, por un lado, tecnología que dé soporte a los procesos de simplificación automática de contenido textual en español para mejorar la facilidad de lectura y, por otro lado, tecnología que genere interfaces de usuario accesibles que incluyan este contenido textual simplificado a los usuarios.
Para la simplificación léxica del contenido textual en español, se han tenido en cuenta las pautas de accesibilidad (WCAG) relativas al lenguaje siguiendo legislación en España, así como las pautas de Lectura Fácil (UNE 153101: Lectura fácil. Pautas y recomendaciones para la elaboración de documentos) y Pautas de Lenguaje Llano (Plain Language). Como espacio de solución, se han utilizado métodos de disciplinas que puedan dar soporte al cumplimiento sistemático de estos requisitos de accesibilidad cognitiva, tal es el caso de la disciplina de Procesamiento del Lenguaje Natural (PLN) y la Inteligencia Artificial.
Como resultados del proyecto, se ha desarrollado el sistema EASIER que incluye una interfaz intuitiva en la que el usuario puede incluir texto junto con una interfaz optimizada para asegurar accesibilidad cognitiva con el texto simplificado, más sencillo y comprensible. Además, se ha desarrollado también una extensión para navegadores que distinga en una página web las palabras complejas y poco comunes según distintas métricas, ofreciendo al usuario un sinónimo más sencillo.
Proyecto DaVOZ

Del lenguaje de signos a la voz: DaVoz desarrolla un sistema de interpretación automática de lenguaje de signos mediante el uso un sensor volumétrico y de inteligencia artificial.
El proyecto DaVOZ es una aplicación desarrollada en la Universidad de Las Palmas de Gran Canaria. Este proyecto ha creado un sistema de interpretación automática del lenguaje de signos a la señal de voz, para romper barreras de comunicación y facilitar la integración laboral y social del colectivo de sordomudos. Se ha utilizado un sensor volumétrico e inteligencia artificial, para identificar el lenguaje de signos y transformarlo en voz sintetizada. De esta forma, se puede dar voz a este colectivo y facilitar dicha integración. La propuesta es totalmente novedosa debido a la solución tecnológica aplicada y que los componentes tecnológicos son de bajo coste. Cabe destacar que el dispositivo final es de muy fácil uso y portabilidad.
DaVOZ genera una solución eficiente y muy aplicable a personas con limitaciones auditivas que lo pueden usar en su vida diaria. La gran ventaja es romper la dependencia de la figura del intérprete, ganando en autonomía, en dinamismo, y facilitando su inserción al mundo laboral y social. Para implementarlo, se ha analizado la comunicación en un entorno real, como es la visita al médico, eliminando la figura del intérprete y aumentando el grado de confidencialidad de la persona con su médico. Una vez desarrollada esta prueba piloto, se ha abierto un amplio abanico de posibilidades para la integración plena del colectivo con la sociedad actual, y en particular, abriendo opciones al mundo laboral.
Proyecto CicerOn

Indra Group, Fundación Universia y U-tad, Centro Universitario de Tecnología y Arte Digital, han trabajado durante los últimos años en el convenio de colaboración para la creación de una Cátedra de investigación en Tecnologías Accesibles. Como fruto de dicha Cátedra de Investigación, liderada por la Dra. Laura Raya, ha dado fruto el proyecto CicerOn: VR speech coach, una aplicación que, a través de técnicas inmersivas de realidad virtual, ayuda a las personas con síndrome de Asperger a entrenar su interacción con otras personas y la exposición en público de diferentes materias.
Gracias a su capacidad de presencia e inmersión, la realidad virtual es utilizada para la rehabilitación de diferentes tipos de fobias y trastornos, como es el caso del síndrome de Asperger, un trastorno neurobiológico del espectro autista cuyos afectados muestran ciertas dificultades en sus habilidades sociales, de conducta o comunicación.
El proyecto CicerOn, formado por investigadores, doctores y estudiantes de U-tad, facilita la práctica de hablar en público de forma controlada, intentando ayudar a estas personas a disminuir el miedo, ansiedad, fobia o rechazo que les provocan estas situaciones, a adaptarse a ellas y, de esta forma, a mejorar su desempeño tanto educativo como profesional.
La aplicación de Realidad Virtual generada en este proyecto, permite al usuario interactuar con avatares virtuales a través de técnicas de gamificación (dinámicas de juego en entornos no lúdicos). A la vez que se divierte resolviendo el enigma del juego, irá enfrentándose a su fobia. La dificultad de la interacción social va aumentando poco a poco en los diferentes niveles, según se vayan incorporando avatares virtuales, interrupciones, ruidos, etc., logrando que el usuario se adapte incrementalmente a su estímulo fóbico en las exposiciones y el contacto y comunicación con su audiencia. Acompañado de técnicas de relajación, vías de escapa para disminuir la ansiedad y recompensa gamificada, se pretende que el usuario pueda sentirse cómodo realizando el juego de manera gradual y dilatada.
El uso de la aplicación debe llevarse a cabo de forma controlada, bajo la supervisión de un especialista ya que puede generar cuadros de ansiedad al usuario al enfrentarle a su estímulo fóbico. Es una aplicación diseñada para su uso en asociaciones del espectro autista, ya que permite controlar el progreso del usuario de forma segura. Para facilitar el uso de la solución, se recomienda el uso de la misma con Oculus Quest, una de las gafas de Realidad Virtual más completas y accesibles del mercado. Siguiendo los pasos de la instalación de forma detallada, los usuarios podrán transportaste al mundo virtual desde sus casas o centros de apoyo.
Proyecto SICSE

El objetivo del proyecto SICSE es desarrollar un sistema de bajo coste que permita a personas con gran discapacidad motora poder comunicarse a través de su actividad cerebral.
Existen numerosas enfermedades neurológicas que pueden afectar al sistema motor pudiendo acarrear graves discapacidades motoras. Un ejemplo de personas que sufren de esta patología son los enfermos con esclerosis lateral amiotrófica (ELA). Estos pacientes tienen sus funciones cognitivas intactas, sin embargo, no pueden llevar a cabo ningún tipo de movimiento.En mUchos casos estos pacientes pueden llegar a un estado conocido como síndrome de cautiverio (locked-in síndrome, LIS), un estado en el que la persona está alerta y despierta, pero no puede ni moverse ni comunicarse verbalmente debido a una completa parálisis de todos los músculos voluntarios del cuerpo.Para estos casos, y llegados incluso al extremo de tener limitado el control ocular, la única manera en la que estos pacientes puedan llegar a recuperar cierto grado de autonomía es usando los sistemas agrupados bajo la denominación Interfaz Cerebro–Computadora (Brain–Computer Interface, BCI). El objetivo de estos sistemas es dotar a los pacientes de un nuevo canal no muscular que les permita comunicarse con el mundo exterior. Para ello se registra y procesa la actividad eléctrica del cerebro con el fin de controlar un teclado virtual.La gran mayoría de estos teclados son controlados mediante potenciales evocados, que son una respuesta del cerebro ante la presencia de determinados estímulos. De entre estos potenciales, el más usado para el control de un teclado virtual es el P300 visual.El objetivo de este proyecto está motivado por la inexistencia de un sistema de comunicación basado en la detección del potencial P300 que sea flexible, fácil de configurar, adaptable a cada usuario además de ser compacto y de bajo coste. Con una aplicación de estas características, pacientes bajo el síndrome de enclaustramiento dispondrían de una herramienta que les permitiría comunicarse y evitarles el aislamiento.
Proyecto TalkAACtive

Mantener una comunicación efectiva con quienes nos rodean, ya sea en el ámbito personal como laboral.
Estos desafíos plantean la creación de la aplicación TalkAACtive para dispositivos móviles Android, cuyo objetivo es permitir que personas adultas con dificultades de comunicación practiquen y auto-evalúen su habla y escritura mediante pictogramas gracias a un sistema de generación de lenguaje natural (GLN) de concepción y diseño propios, fácilmente adaptable al entorno laboral requerido. Con una secuencia de pictogramas se pueden crear frases, aunque su transcripción no concuerde siempre en género, tiempo verbal, etc. Se requiere un paso para que ésta se asemeje al lenguaje natural. Esta aplicación busca solucionar esta discrepancia mediante un motor de GLN que, partiendo de los pictogramas elegidos, produzca automáticamente una comunicación próxima al habla humana. Tras su reciente salida, el usuario podrá trabajar su pronunciación y/o escritura comparando su voz y/o texto introducido por teclado, con el objetivo de mejorar y potenciar ambos en su trabajo.
Como resultado se pretende dotar a usuarios de una herramienta efectiva que potencie su expresión oral y/o escrita en su entorno laboral, y tras su utilización los usuarios logren abandonar por completo la comunicación mediante pictogramas y sean capaces de adaptar su expresión para integrarse en sus trabajos sin ayuda. TalkAACtive busca servir de apoyo al empleo de estas personas y favorecer su integración laboral, evitando aislamiento social. Con ella el usuario se familiarizará con la comprensión de instrucciones y el mantenimiento de conversaciones, provocando una repercusión positiva en la interacción con sus compañeros o supervisores y estará orientada a satisfacer tanto los requisitos exigidos por profesionales (logopedas, etc.) encargados del seguimiento como de responsables de los puestos que vayan a desenvolver. Debido a la filosofía diseño “para todos” del proyecto, se espera que otros colectivos que requieran práctica en la comunicación también se puedan beneficiar.
Proyecto SmartLazarus

El objetivo del proyecto ha consistido en el desarrollo de una innovadora plataforma unificada de sensorización, geolocalización y guiado en tiempo real, orientada al seguimiento y monitorización de recursos en movilidad, tanto humanos como técnicos.
La parte central del proyecto se ha centrado en el desarrollo de un motor de localización y sensorización único que se alimente, de manera sencilla, de diversas fuentes heterogéneas tales como Bluetooth, GPS, Acelerómetro.... para calcular la posición de los usuarios en un entorno cerrado y sin visión directa con el exterior. El propósito de este proyecto es favorecer la integración laboral y social de personas con discapacidad, pudiendo guiar a las personas para facilitar su trayecto hasta su punto de destino deseado, favoreciendo así su autonomía. SmartLazarus supondrá una plataforma inteligente capaz de alimentarse de múltiples tecnologías para facilitar la toma de decisiones, monitorizar y guiar de manera automática sobre los diversos recursos de un entorno, recursos que sean tanto fijos como móviles. incluyendo la funcionalidad de crear mapas de calor, los cuales podrán ser utilizados en una gran diversidad de escenarios, por ejemplo, en estudios demográficos o análisis de las tendencias de los individuos registrados en la plataforma. Este proyecto ha hecho énfasis en la capacidad para obtener información del entorno y de los recursos de manera sencilla, es decir, percibir el estado real tanto del entorno como de las personas, objetos e incluso procesos que se encuentran en dicho entorno. Además, la actuación sobre el entorno es una pieza fundamental, por ejemplo, para activar alertas o mensajes personalizados en función de la ubicación de los usuarios y la detección de posibles obstáculos.
Proyecto I+D+ i audismart

El objetivo del presente proyecto es crear una app que permita una configuración personalizada para que cada usuario en función de sus necesidades pueda regular las distintas frecuencias que componen el sonido y ajustarlo a sus necesidades.
La característica especial que tendrá AudiSmart es la parametrización de la modificación de las frecuencias, esto es importante porque la pérdida de audición viene asociada a menudo con la intolerancia a sonidos fuertes y ambientes ruidosos.
Los dispositivos de tecnología asistida (DTA) se utilizan ampliamente por las personas con discapacidad en su lugar de trabajo para adaptar su discapacidad y permitir alcanzar la misma productividad que el resto de las personas.
Es en este punto donde incide AudiSmart al utilizar el Smartphone, un dispositivo propiedad de la persona como audífono, es de suponer que el que sea una tecnología con la que habitualmente se enfrenta mejorará las capacidades a la hora de incrementar su capacidad en el puesto de trabajo
Menos del 20% de las personas con pérdida de audición usan audífonos, lo que pone de relieve la necesidad de nuevos enfoques para la prestación de escuchar las tecnologías y servicios con el fin de reducir la brecha entre los que tienen pérdida de la audición y los que son capaces y están dispuestos a acceder a la atención.
Con AudiSmart, la persona que tiene baja audición podrá ponerse unos auriculares, incluso inalámbricos en su Smartphone y la app, previa la personalización que haya realizado el usuario; mediante algoritmos específicamente diseñados, modificará las distintas frecuencias del sonido amplificando unas, reduciendo otras para conseguir el sonido óptimo para la persona, haciendo este un entorno más incluyente.
La experiencia del grupo de investigación SoftLab en procesamiento del sonido, así como la que le ha permitido realizar sistemas tales como UC3Mtitling, WhatsCine o GoAll, han permitido desarrollar y evaluar un algoritmo de pre y procesamiento de estímulos acústicos. Es importante pensar en AudiSmart como la implementación en forma de app de un algoritmo.
Proyecto Smile Work

La aplicación estará basada en la tecnología de los juegos, representará entornos realistas en 3D, similares a entornos laborales reales y situaciones reales que ponen a pueba las capacidades profesionales y personales de los trabajadores. La aplicación se complementa con una herramienta para educadores.
Descripción técnica
Smile @work se puede usar en PC y Tablet. Estará conectada a un servidor en el que se registraran y conectaran los datos de usuarios y sus resultados. Tendrá dos perfiles de usuarios: aprendiz y educador. El usuario con perfil aprendiz podrá jugar un número ilimitado de partidas, a lo largo de las cuales se registrarán los resultados obtenidos de manera que se pueda adoptar de manera automática el contenido y el grado de dificultad en función del grado de consecución de objetivos de la partida anterior.
Se establecerá un sistema de premios virtuales que permitan proporcionar de forma simple y atractiva retroalimentación a los usuarios sobre su proceso de entrenamiento
Los usuarios educadores estarán relacionados con uno o varios aprendices. Dispondrán además de una herramienta de “debriefing” que les permitirá usar el juego de forma de demostración cuando detecten situaciones concretas. En el modo demostración podrán recrear determinadas partes del juego, pararse cuando deseen y realizar acciones correctas e incorrectas para poder demostrar cual es el comportamiento esperado del jugador.
App
Proyecto Graces

Muchas de las actividades que integran el software y los servicios implican la creación y el uso de diagramas. La presentación y el acceso a estos diagramas son realizados por medio de modalidades de interacción visual, de forma que quedan inaccesibles para las personas ciegas. En la práctica, esta restricción sugiere una limitación que impide su acceso a la formación y al empleo de alta calificación.
Graces desarrolla el diseño de una herramienta de software de soporte que facilite la accesibilidad para este tipo de contenido, por personas ciegas, a fin de habilitar su acceso a su formación especializada y mejorar su proyección profesional. La herramienta se orientará hacia la interoperabilidad y la posibilidad de integración con otras personas.
Su objetivo es desarrollar una prueba de concepto de una herramienta de software de soporte al acceso de personas ciegas a gráficos y diagramas utilizados en la ingeniería de software y servicios.
Descargas
Elige la aplicación que quieras descargarte y te llevará a otras página para que selecciones la versión
CrossCursor es un programa que permite controlar el desplazamiento del cursor y realizar diferentes acciones de clic mediante un menú secuencial que se controla con una única acción de clic externa.
Características más destacadas:
- No requiere instalación
- Es un programa ejecutable (1 único fichero .exe) que puede copiarse y ejecutarse en cualquier directorio
- Es compatible des WXP hasta W10
HeadMouse es un mouse virtual diseñado especificamente para personas con problemas de movilidad. Es gratuito y solo requiere una WebCam USB.
VirtualKeyboard es un teclado virtual en pantalla que incorpora un sistema de predicción para facilitar la escritura. Ha sido diseñado específicamente para personas con problemas de movilidad.
Aquí tienes el paquete principal para descargar el juego de Savia. Descárgalo para empezar a jugar con tu PC y Kinect.
Importante: SAVIA es un prototipo experimental. El juego puede acabar en estados de error o lentitud.
Requerimientos técnicos
- Procesador Dual-Core 2.66Ghz
- Tarjeta gráfica de 256MB con soporte para Shader Model 3.0
- Memoria: 2GB RAM
- Espacio en disco: 1 GB
- Monitor con resolución 1280×720 o superior
- Altavoces
- Kinect SDK v1 Beta 2 (Descargar)
Es necesario que dicho ordenador tenga instalado un sistema operativo Windows 7. Además del ordenador en el cual ha de funcionar SAVIA, es necesario disponer del dispositivo Kinect de Microsoft, de venta en tiendas especializadas en informática y videojuegos, así como en grandes superficies.
Para poder utilizar correctamente el videojuego de ‘Comunicación Referencial’ es necesario disponer de un segundo ordenador PC compatible de características similares al primero, siendo opcional contar con un segundo sensor Kinect conectado a este PC. Asimismo, también es necesario contar con micrófono y altavoces en este segundo PC.
Kinect es un dispositivo que cuenta con una serie de cámaras y sensores que posibilitan, junto con el uso de un software específico, el reconocimiento del cuerpo humano en su totalidad. Además de poder detectar a cualquier persona situada delante del dispositivo, proporciona la posición concreta de las distintas partes de su cuerpo en cada momento. Se puede comprar por aprox. 150€.
SAVIA no funciona ni en la videoconsola XBOX ni en ninguna otra de las disponibles en el mercado. Por el momento, se trata de una aplicación exclusivamente para PC.
Las empresas públicas y privadas con un número superior de 50 trabajadores están obligados a que entre ellos, al menos, el 2% sean trabajadores con discapacidad. (Ley general de derechos LGD).
La Calculadora LGD es una herramienta para ayudar a las empresas en materia de discapacidad.
Esta herramienta tiene en cuenta los empleados totales de la empresa y el número de personas con discapacidad que ya forman parte de la plantilla, para calcular el total de empleados con discapacidad que sería necesario tener en plantilla para dar cumplimiento a la ley. Igualmente, para las empresas que no pueden cumplirla por contratación directa, la calculadora nos da la opción de conocer el importe a destinar en donaciones y compras en CEE.
CicerOn VR es una aplicación que ayuda a entrenar a estudiantes con síndrome de Asperger su miedo a hablar y exponer en público. Con este fin, la aplicación ha sido diseñada en Realidad Virtual, fomentando la presencia y la efectividad de la terapia.
CicerOn VR debe ser utilizada junto a un especialista en fobias, bien sea en centros de apoyo o clínicas. Para su utilización, el usuario debe ser paso a paso lo indicado en el Manual de usuario. A través de unas Oculus Quest, una de las gafas más completas y económicas del mercado, el usuario podrá transportarse a un mundo virtual donde, a través de la gamificación y la inmersión, irá exponiéndose incrementalmente a su estímulo fóbico mientras juega.
La novedosa herramienta proporciona una simplificación léxica de los textos en español, ofreciendo distintas ayudas a la comprensión de acuerdo a la aptitud de asimilación de cada individuo. Así mismo, detecta las palabras complejas del texto y ayuda al usuario a mejorar la lectura y comprensión del texto con sinónimos sencillos, una definición y un pictograma para cada palabra compleja detectada.
Para mejorar sus relaciones con el entorno social, el proyecto PETRA ha desarrollado una aplicación móvil gratuita, denominada cuidaTEA, capaz de estudiar el comportamiento de estas personas, identificar patrones personalizados y detectar cambios que permitan predecir episodios de crisis asociados a trastornos de ansiedad, de conducta o de sueño, entre otros.
La aplicación móvil cuidaTEA utiliza diversas fuentes de información provenientes del dispositivo móvil (pasos, uso de apps o tiempo de uso), que se procesan mediante algoritmos de inteligencia artificial. “De esta forma, tratamos de paliar las deficiencias en las habilidades de comunicación de estos pacientes mediante un sistema que genere, de forma automática y en tiempo real, una alerta directa a los teléfonos móviles de sus cuidadores, para que sepan cómo se encuentran”, explica Pablo Martínez Olmos, profesor del departamento de Teoría de la Señal y Comunicaciones de la Universidad y responsable científico del proyecto.
SmartLazarus supondrá una plataforma inteligente capaz de alimentarse de múltiples tecnologías para facilitar la toma de decisiones, monitorizar y guiar de manera automática sobre los diversos recursos de un entorno, recursos que sean tanto fijos como móviles. incluyendo la funcionalidad de crear mapas de calor, los cuales podrán ser utilizados en una gran diversidad de escenarios, por ejemplo, en estudios demográficos o análisis de las tendencias de los individuos registrados en la plataforma.
Para descargarse correctamente la aplicación, debe entrar desde su dispositivo móvil.
La aplicación talkAACtive permite que tanto personas jóvenes como adultas, con dificultades de comunicación (como Trastornos del Espectro Autista, afasia (agramatismo), disartria, dislalia, etc.), practiquen y/o auto-evalúen su habla y escritura mediante pictogramas, gracias a un sistema de generación de lenguaje natural de concepción propia, y fácilmente adaptable al entorno laboral requerido. Además, tiene la capacidad de funcionar como un comunicador pictográfico para facilitar el proceso de aprendizaje (comunicación, práctica de escritura y práctica de habla) a través de una única aplicación. Está disponible en Castellano e Inglés.
Contacto
¿Tienes alguna duda sobre Tecnologías Accesibles?
Completa el siguiente formulario y nos pondremos en contacto contigo lo antes posible.