Archivo de la categoría: Android

Talkback ahora será conocido como Android Accessibility Suite

La empresa Google ha decidido cambiar el nombre a su lector de pantallas para el sistema Android. En la última actualización de Talkback Google ha aprovechado y cambiado el nombre de este lector a Android Accessibility Suite.

Con este movimiento parece ser que la empresa quiere dejar claro que Talkback ha dejado de ser un sistema que comenzó como una aplicación para que personas pudiesen manejar el teléfono sin mirar a la pantalla y ser ya oficialmente un lector de pantallas que permite explorar una pantalla táctil mediante gestos y recibir la información bien mediante voz o braille.

Según la página de Android accessibility suite en la PlayStore este lector de pantallas incluye tres servicios:

  • Talkback: añade feedback de voz, vibración y sonido a tu dispositivo
  • Switch access: permite controlar tu dispositivo mediante gestos
  • Select to speak: permite seleccionar un contenido de la pantalla para ser leído mediante la voz de tu dispositivo

Aunque el nombre del paquete de software ha cambiado Google sigue conservando el nombre de Talkback para identificar el módulo principal del lector de pantalla así como las referencias al lector de pantallas en la documentación de soporte para Talkback

A nivel de uso este cambio de nombre no implica nada para el usuario de lector de pantallas para Android. Más bien resulta beneficioso ya que permite a fabricantes de dispositivos Android o cocineros de roms para Android incluir un único paquete con todo el soporte necesario para que un usuario ciego pueda tener acceso al sistema operativo Android instalando una única aplicación.

Puedes encontrar y descargar la aplicación en la página de Android accessibility suite en la PlayStore

Android wear un poco más accesible

Ayer tuvo lugar la presentación de apertura de Google IO 2015, el evento de Google para todos los desarrolladores que desarrollan aplicaciones y servicios para las tecnologías y plataformas de Google. Durante la charla de apertura se habló sobre las diversas plataformas y sistemas operativos de Google, entre ellos Android wear en su última versión 5.1.

Android wear es un sistema operativo diseñado para ser utilizados por dispositivos wearables o vestibles como relojes, gafas, prendas de vestir o similares.

En una de las charlas específicas sobre Android wear y sus novedades se habló de mejoras en accesibilidad para personas con discapacidad visual. Entre las nuevas características de accesibilidad para este sistema operativo encontramos:

  • Posibilidad de ajustar el tamaño de letra (pequeño, normal, grande)
  • Modo de inversión de color
  • Magnificación de pantalla

Todas estas características estarán disponibles a partir de la versión 5.1.1 de Android wear en todos los dispositivos con pantalla que actualicen a esta versión del sistema operativo.

Todas estas características están enfocadas en personas que posean un resto de visión con lo que el beneficio para las personas sin discapacidad está garantizado ya que muchos de estos dispositivos con Android wear utilizan un lenguaje visual para transmitir información y cualquier característica que permita personalizar y hacer más accesible el canal de comunicación visual del dispositivo mejora su usabilidad y experiencia de usuario.

Otra de las novedades de esta nueva versión de Android wear, aunque no relacionada directamente con la accesibilidad, abre nuevas vías de control con el dispositivo. Esta novedad consiste en la posibilidad de reconocer distintos movimientos de la muñeca y el brazo por parte de un reloj inteligente con Android wear. Una persona con discapacidad motriz que pueda realizar movimientos con la muñeca y o el brazo en el que porta el reloj podría utilizar una interfaz de comunicación con el dispositivo basado en movimientos.

Google sigue su programa de incorporación de características de accesibilidad en sus productos y plataformas y, aunque aún queda mucho camino por delante y todavía hay muchos perfiles de discapacidad no soportados, estas noticias de mejora de accesibilidad son gratamente recibidas ya que abren más posibilidades tecnológicas a todas las personas.

Esperemos que pronto podamos disfrutar más características de accesibilidad en Android wear como un lector de pantallas, personalización háptica para personas con discapacidad auditiva o control total del dispositivo a través de la voz.

Aplicaciones inteligentes para dispositivos inteligentes

Los smart phones, o teléfonos inteligentes, son dispositivos cada vez más potentes y que ofrecen más posibilidades de recopilación de información del usuario y su entorno. Gracias a los sensores de brillo, temperatura, humedad, ruido, brújula y demás estos dispositivos pueden determinar o deducir la situación del usuario y qué está haciendo en ese momento.

A toda esta información obtenida a través de los sensores se la denomina información de contexto del usuario ya que el entorno del usuario en un momento determinado define su contexto.

Mucha información con poca utilidad

Actualmente hay muy pocas aplicaciones o servicios que utilicen esta información de forma global. Encontramos aplicaciones que utilizan los sensores de localización y brújula para actividades de ruta, deporte o asesoramiento para comercios; otras aplicaciones utilizan los sensores de brillo o la cámara para jugar o detectar elementos relacionados con un servicio pero pocas aplicaciones utilizan esta información del contexto para mejorar la experiencia del usuario y la accesibilidad de la aplicación.

Esta información de contexto podría ayudar a los usuarios adaptando las aplicaciones y su interfaz a las necesidades del usuario en cada instante de uso de la aplicación.

Smart twitter un ejemplo de accesibilidad para el contexto

El equipo del departamento de I+D de Technosite ha desarrollado Smart twitter, un cliente de Twitter el cual, como valor añadido y prueba de concepto, utiliza los sensores del dispositivo para adaptar la interfaz de la aplicación para conseguir la mejor experiencia de usuario posible.

Smart twitter consulta las condiciones de brillo, ruido y batería para provocar cambios en la interfaz y en el comportamiento de la aplicación. En condiciones de luz intensa se provoca el cambio a un modo de negro sobre blanco para conseguir una mayor nitidez en la pantalla, si la luz sigue aumentando se amplía el tamaño de la letra. En condiciones de ruido se provoca el aumento de la síntesis de voz y el volumen de las notificaciones de la aplicación.

Todas estas características pueden ser desactivadas por el usuario en el apartado de configuración. Esta posibilidad de activación y modificación del comportamiento de la aplicación es muy importante debido a que la personalización es una característica importante para la accesibilidad.

La aplicación ha sido desarrollada para dispositivos Android que utilicen la versión 4.0 o superior de este sistema operativo. Esto se debe al requisito de desarrollar una aplicación lo más accesible posible.

Posibilidades y utilidades del contexto

Las nuevas tecnologías suelen aparecer, por desgracia, con varias barreras de accesibilidad entre ellas se ha de destacar una que afecta a todo el mundo: el uso de esta tecnología obliga al usuario a adaptarse al método de uso de la nueva herramienta y a aceptar nuevas rutinas y comportamientos para utilizar el nuevo producto. La persona se deshumaniza para tecnificarse. Esta deshumanización no está al alcance de todos. Las personas mayores, personas con discapacidad cognitiva o personas que utilicen productos de apoyo encuentran más problemas a la hora de acceder a una interfaz tecnológica totalmente nueva. Los productos de apoyo no son compatibles con la nueva interfaz, el modelo de distribución y uso de controles no es familiar o conocido para las personas y la documentación para el correcto uso de esta nueva tecnología suele ser escasa y mal redactada.

Un buen uso de la información de contexto puede mejorar enormemente la experiencia de usuario y la accesibilidad de multitud de servicios. Los fabricantes de dispositivos móviles y periféricos domóticos están introduciendo sensores del entorno a todo nuestro alrededor. El concepto de Smart city o ciudades inteligentes se apoya en la idea de una ciudad llena de ciudadanos, información y sensores. No debemos desaprovechar la oportunidad de utilizar toda esta tecnología en pro de una sociedad más inclusiva y una tecnología más enfocada en adaptarse al usuario y no obligar al usuario a adaptarse a la tecnología.

JustSpeak: controla tu dispositivo Android utilizando comandos de voz

El grupo EyesFree, encargados de varios de los servicios de accesibilidad para Android, acaba de liberar una versión beta del nuevo servicio de accesibilidad JustSpeak. Esta versión beta sólo soporta el idioma inglés.

JustSpeak es un sistema de control mediante comandos de voz para el sistema operativo Android. Se pueden utilizar comandos de voz de carácter global (abrir aplicaciones, ir a la sección de aplicaciones recientes, notificaciones o ajustes rápidos; o activar y desactivar los servicios de radio como Bluetooth, WIFI o Tethering). Hasta aquí parece muy similar a Siri, el asistente personal de Apple para iOS salvo porque JustSpeak no puede realizar, por ahora, operaciones relacionadas con el envío de mails, citas de calendario o contactos. Pero JustSpeak»> proporciona una funcionalidad muy especial que no proporciona Siri: posee comandos locales aplicables a la aplicación que tengamos abierta.

Utilizando JustSpeak podemos pulsar botones, marcar o desmarcar casillas de verificación y mover el scroll de la pantalla hacia arriba o hacia abajo.

Esta capacidad de interacción con una interfaz de una aplicación cualquiera abre muchas puertas al uso de aplicaciones por parte de personas con problemas de motricidad y manipulación.

Otra característica interesante de JustSpeak es la posibilidad de concatenar comandos. Por ejemplo: podemos pedir que abra los ajustes rápidos del dispositivo y toque el botón de WIFI para ir a los ajustes de WIFI. Todo en una sola frase.

Accesibilidad incompatible con la accesibilidad

Esta primera versión de JustSpeak es incompatible con otros servicios de accesibilidad de Android como TalkBack o Spiel. Esperemos que la gente de Google comprenda que el uso de un dispositivo mediante comandos de voz es útil para todas las personas y habiliten la compatibilidad con otros servicios de accesibilidad.

Servicios de accesibilidad sólo para aplicaciones accesibles

JustSpeak, al igual que otros servicios de accesibilidad de Android, requiere que los controles de la interfaz de una aplicación hagan uso de los diversos atributos y funciones de la capa de accesibilidad de Android. Al igual que sucede con TalkBack, el lector de pantallas oficial para Android, si el desarrollador utiliza una imagen como botón o marca como no focalizable o decorativo un control dicho control será incompatible para JustSpeak. Este problema sería menor si Google integrase su capa de accesibilidad de Android en todos los controles de interfaz estándar en lugar de ofrecerlo de forma opcional a los desarrolladores. Los productos de apoyo pueden intentar solucionar algunas carencias y problemas creados por esta opcionalidad de la accesibilidad en Android pero hay barreras complicadas de superar como la identificación de una imagen sin alternativa, un control sin un rol o estado asociado o botones cuyas etiquetas son símbolos matemáticos o imágenes.

Servicios para los que no pueden tocar pero obligando a tocar

Aunque JustSpeak abre muchas puertas a personas con discapacidad motriz y de manipulación presenta la misma barrera que otras soluciones similares y menos potentes como Siri o Dragon dictate: Para activar el proceso de escucha es necesario realizar un gesto en la pantalla o tocar un botón. En el caso de JustSpeak el problema es mayor ya que utiliza el mismo gesto que para activar el servicio Google Now consistente en tocar en la parte baja de la pantalla y arrastrar el dedo hacia arriba. Siendo un gesto complicado de realizar para personas con problemas de manipulación además de existir un conflicto de un mismo gesto para varios servicios.

Esperemos que pronto podamos utilizar estos servicios de control por voz en nuestros dispositivos móviles junto con otros productos de apoyo y sin necesidad de tocar o sujetar nuestro dispositivo. Los productos de apoyo deben ser utilizables desde el principio por las personas que lo necesitan.

La accesibilidad continúa mejorando en Android

Reciéntemente Google ha liberado la versión 4.2.2 de su sistema operativo para dispositivos móviles.

Con cada nueva versión de Android se incluyen nuevas características de accesibilidad que hacen este sistema más accesible a todos los usuarios.

Características generales de accesibilidad en Android

Android, con cada nueva versión, ha ido incluyendo una serie de características generales de accesibilidad en su sistema. Algunas de las que podemos encontrar son:

  • Talkback: El lector de pantallas más utilizado en Android
  • Gestos de ampliación: tocando 3 veces con un dedo en la pantalla se realizará una ampliación de la zona tocada para ayudar a ver algo en detalle.
  • Personalización del tamaño general de la fuente de letra para todo el sistema: de esta forma podremos hacer que todos los mensajes, contenidos y controles amplíen su tamaño o lo reduzcan adaptándose a las necesidades del usuario.
  • Tecla bloqueo descuelga: una función de atajo de teclado para facilitar la función del teléfono a personas con problemas para localizar rápidamente elementos en la pantalla.
  • Control sobre el giro de la pantalla: para aquellos usuarios que siempre utilicen el dispositivo en modo apaisado o vertical y no quieren que eso se modifique.

Todos estos elementos van siendo actualizados en cada nueva versión de Android. Por ejemplo Talkback, en su última versión, incluye soporte de conectividad con líneas braille gracias al módulo Brailleback o un sistema de activación de TalkBack en cualquier momento.

Las aplicaciones como aliados de la accesibilidad

Pero el mayor avance en accesibilidad específica para ciertos perfiles de discapacidad no ha venido de la mano de Google directamente, se ha originado gracias al trabajo de desarrolladores concienciados e interesados en utilizar los dispositivos móviles como intermediarios entre el usuario con necesidades especiales y el entorno que le rodea.

Los desarrolladores han proporcionado alternativas a productos de apoyo para usuarios que no encuentran cómodos o suficientes a los proporcionados por Google. Por ejemplo, Spiel es una muy buena alternativa a Talkback; eSpeak es una voz metálica de muy poco peso que será más ágil que la voz de Google y tiene mejor gestión de los acentos y algunas consonantes que la última versión de la voz de Google que sigue con su entusiasmo a la hora de pronunciar algo.

Android es un sistema bastante más abierto que otras plataformas de dispositivos móviles como Apple iOS o Microsoft Windows Phone. También es posible utilizar este sistema operativo en mayor diversidad de dispositivos: teléfonos, televisiones, controles domóticos, dispositivos de diseño específico, etc. Todo esto facilita el desarrollo de aplicaciones que amplíen las características de accesibilidad en general o que satisfagan las necesidades de accesibilidad de un perfil de discapacidad determinado.

Los enemigos de la accesibilidad en Android

La gran diversidad y fragmentación de configuraciones posibles en Android es uno de los principales enemigos de la accesibilidad. Su gran capacidad de personalización por parte de los fabricantes puede provocar que encontremos dispositivos Android con sus características de accesibilidad mermadas. Es el caso de muchos teléfonos de las empresas HTC o Samsung las cuales incluyen en sus teléfonos escritorios y temas visuales propios que resultan incompatibles con los productos de apoyo y la capa de accesibilidad de Android.

También las distintas configuraciones de resolución de pantallas, teclas físicas y capacidades de procesador provocan que un servicio o producto de apoyo no funcione como se esperaba debido a que los desarrolladores no pueden probar sus desarrollos en todas las posibles configuraciones.

Por último enemigo tenemos a la propia Google que, en algunas ocasiones, parece desviarse de su objetivo de accesibilidad o interpretar conceptos de accesibilidad y usabilidad de forma anómala o distinta al resto de actores en el ámbito de la tecnología móvil sorprendiendo, en ocasiones, a los usuarios con nuevos servicios sin accesibilidad o que con una nueva versión de uno de sus productos desaparecen algunas características de accesibilidad.

Un futuro prometedor al que se llega con paciencia

Desde la publicación de Android 4.0 es clara la evolución a mejor en su accesibilidad. El sistema permite a una persona ciega utilizar cada vez más aplicaciones y funciones de un teléfono con este sistema. Pero aún no es cómodo utilizar esta plataforma para algunos perfiles de discapacidad y hay que tener especial cuidado a la hora de elegir un teléfono móvil que incluya las características de accesibilidad necesarias para satisfacer a un usuario concreto.

Esperemos que Google siga trabajando en mejorar la usabilidad de su capa de accesibilidad, promover esta entre los desarrolladores para que haya cada vez más aplicaciones accesibles en el Play store, la tienda de aplicaciones Android, y que obligue a los fabricantes a respetar la capa de accesibilidad y sus servicios.

200.000€ de premio a las mejores aplicaciones Android accesibles

Fundación Vodafone convoca la II Edición de los Smart Accessibility Awards, unos premios que promueven el desarrollo de aplicaciones móviles diseñadas para mejorar la calidad de vida de las personas con discapacidad y los mayores, ayudándoles a llevar una vida más activa y una mayor integración en la sociedad.

El concurso premia con 50.000 euros la mejor aplicación para dispositivos Android en cada una de las siguientes categorías:

  • Participación social: aplicaciones que mejoren la integración social de las personas a través del uso de las TIC, independientemente de su edad y/o capacidades. El objetivo es ayudar a que todos puedan acceder a la web y redes sociales a través de su smarphone.
  • Vida Independiente: aplicaciones que ayudan a las personas en tareas cotidiana como abrir puertas, subir persianas, etc.. de forma sencilla y segura y facilitándoles una vida independiente.
  • Movilidad: apps que permite a los usuarios viajar libremente y seguro en cualquier sistema de transporte. Uso del GPS y aplicaciones de localización que ayudan al guiado en lugares desconocidos.
  • Bienestar: Aplicaciones que ayuden a mejorar la salud de los usuarios y su sensación general de bienestar.

El plazo de presentación de aplicaciones está aún abierto hasta el día 15 de Octubre de 2012.

El programa está respaldado y co-organizado por la AGE Platform Europe, una red europea de cerca de 160 organizaciones de y para personas con más de 50 años, y el European Disability Forum (EDF), la ONG que representa los intereses de 80 millones de europeos con discapacidad.

Puedes obtener más información en el sitio web del Smart Accessibility Awards

Android Jelly bean, una actualización de Ice cream sandwich

La empresa Google, durante la presentación en su congreso para desarrolladores ha presentado Android Jelly bean, la versión 4.1 de este sistema operativo para dispositivos móviles.

Esta actualización marca definitivamente la tendencia de Google por unificar los criterios visuales de sus aplicaciones indicando a los desarrolladores que deben adoptar los temas visuales oficiales de Android 4.

Otras mejoras de esta nueva versión se orientan a mejorar la experiencia de usuario para tablets y teléfonos de pantalla grande.

En cuanto a la accesibilidad se han realizado una serie de mejoras interesantes como la definición de más tipos de controles para que los desarrolladores puedan identificar la función de cada control visual de la interfaz.

Las etiquetas de texto ahora pueden mostrar su contenido en diversas orientaciones para que la internacionalización de aplicaciones para usuarios de lenguas con lectura distinta a la occidental (de izquierda a derecha) puedan realizarse de forma más efectiva y sencilla para el desarrollador.

Se ha incorporado un control de gestos por el sistema para que, a través de un servicio u aplicación, se pueda manejar el dispositivo. Esto es, imaginemos que un usuario utiliza un joystick o trackpad para intentar controlar su dispositivo debido a que no es capaz de tocar la pantalla con precisión. El usuario estaba limitado a usar aplicaciones compatibles con su joystick. Ahora podrá utilizar casi cualquier aplicación que sea compatible con la capa de accesibilidad gracias a que un servicio podrá hacer de intermediario de gestos transmitiendo al sistema que se ha hecho un flick a la derecha si el usuario ha pulsado el joystick hacia la derecha. Es algo así como un traductor de eventos externos a gestos reconocidos por el sistema.

Se ha creado un cursor virtual propio de la capa de accesibilidad. Este cursor o control de foco será utilizado por lectores de pantalla como Talkback y Spiel para explorar aquellos controles visuales que, por desconocimiento o desidia del desarrollador, no podían ser focalizados.

El motor de síntesis de voz ha mejorado y se comenta que consume menos recursos y tiene una respuesta más rápida.

Se han rediseñado algunos servicios, como el control por voz, para que sean compatibles con la capa de accesibilidad.

Todas estas mejoras van sumando pero aún queda mucho camino por recorrer para Android debido a que hay problemas viejos, como que la capa de accesibilidad sigue siendo optativa para los desarrolladores y no se integra en la librería de controles estándares, o que el foco de accesibilidad y el foco del sistema carece de función para sincronizarse lo que puede provocar que un usuario de lector de pantallas se mueva por el interfaz y pierda la capacidad de poder activar cualquier elemento de la interfaz de la aplicación. Este último problema se puede solucionar rápidamente y ya ha sido notificado pero que la capa de accesibilidad siga siendo optativa, que no se pueda explorar el contenido carácter a carácter o que todavía no haya un método claro y sencillo para pausar la síntesis de voz y retomar el contenido desaniman un poco.

Además, es necesario indicar que Google sigue con su tendencia de parchear la accesibilidad de sus servicios ya que productos nuevos, como Google know, no parecen incluir compatibilidad con la capa de accesibilidad.

Esperemos que Android siga mejorando en su accesibilidad ya que esta estupenda plataforma para dispositivos móviles y electrodomésticos puede abrir muchas puertas y posibilidades a personas con necesidades especiales. Google debe comprometerse de forma clara y sincera con la accesibilidad y dejar de parchear sus productos y comenzar a construir de forma accesible desde el principio.

Eyes-free y Android 4, una buena combinación

La aparición de Android 4, por parte de Google ha traído mejoras en la accesibilidad para los dispositivos Android. Muchas de estas mejoras vienen orientadas para dar solución a las necesidades de las personas con discapacidad visual. Muchas de estas mejoras se originan en el proyecto Eyes-free encargados del primer lector de pantallas para Android, más conocido como Talkback.

Eyes-free Talkback, el lector de pantallas de este proyecto, nos permite utilizar una de las nuevas mejoras de la capa de accesibilidad de Android 4. Una persona ciega puede arrastrar el dedo por la pantalla táctil de su dispositivo para explorar los controles que allí aparecen.

Talkback suele venir instalado en la mayoría de distribuciones Android que existen en el mercado ya que los principales fabricantes incluyen en sus teléfonos el paquete básico de accesibilidad para Android 4.

Aunque Talkback nos permita arrastrar el dedo para explorar la pantalla realizar ciertas operaciones básicas se vuelve una actividad compleja para el usuario ciego. Una de esas operaciones es la de introducir texto a través del teclado virtual en pantalla. Por esa razón los miembros del proyecto Eyes-free han desarrollado su propio teclado virtual conocido en el market de Android, la tienda de aplicaciones para esta plataforma, como Eyes-free keyboard.

Eyes-free keyboard ofrece, entre otras cosas, un teclado virtual en pantalla compatible con Talkback. Además permite un modo de navegación parecido al que se usa en VoiceOver para iOS, el lector de pantallas para iPhone e iPad, consistente en movimientos de arrastre corto (flicks) en vertical y horizontal para mover el foco de Talkback y explorar de forma más ordenada la pantalla.

Mejoras sustanciales pero trabajo por hacer

Las mejoras en la capa de accesibilidad para esta versión de Android son notables pero aún faltan características básicas para garantizar una accesibilidad suficiente para esta plataforma. Por ejemplo, para que los controles del interfaz de una aplicación sean reconocidos por la capa de accesibilidad y sus productos de apoyo es necesario que el desarrollador incluya una línea de código por cada control en su proyecto. Esto ha mejorado notablemente ya que sólo es necesario una línea de código por cada control pero el usuario con discapacidad sigue dependiendo de la generosidad y la concienciación de los desarrolladores para que incluyan esas pocas líneas de código.

Otro problema importante es la ejecución errática de los diferentes servicios del proyecto Eyes-free en según qué modelos. Se sabe que el Samsung Galaxy nexus funciona correctamente con el software vinculado al proyecto Eyes-free pero otros dispositivos de este y otros fabricantes no funcionan de la forma esperada. Errores en el reconocimiento de flicks, arrastres y otros gestos son comunes en otros dispositivos; problemas en la síntesis a la hora de pausar la verbalización o retomar la misma y problemas con las teclas de navegación Android (Back, Home, search, etc) en los dispositivos sin teclas físicas son problemas presentes en varios dispositivos que utilizan esta versión de Android.

Pero los problemas más preocupantes son: un usuario con discapacidad visual no tiene un método seguro para activar y desactivar el lector de pantallas o el magnificador ya que el control de gestos incluido por eyes-free no funciona del todo bien y la potencial pérdida de información de un usuario con discapacidad visual a la hora de explorar un interfaz. El usuario está obligado a arrastrar el dedo por toda la pantalla sin garantía de que todo lo que encuentre sea reconocible por el lector de pantallas. El sistema de navegación por gestos ofrecido por Eyes-free keyboard no funciona del todo bien y, en algunas aplicaciones, salta controles y etiquetas de contenido. Un resumen de este problema se puede resumir en la siguiente frase: Una plataforma que obliga a un usuario ciego a arrastrar el dedo por la pantalla durante más de 20 segundos para encontrar el botón aceptar es un sistema que necesita muchas mejoras.

Eyes-free incluye un pequeño tutorial básico de uso pero se limita a las funciones básicas de Talkback. Además aún no se ha incluido soporte para castellano.

Con todo esto podemos decir que Android 4 puede ser utilizado por personas con discapacidad visual con mucha experiencia en el manejo de dispositivos móviles y sus productos de apoyo y para aquellos usuarios con discapacidad con mucha paciencia. Esperemos que estos productos de apoyo y la capa de accesibilidad de Android sigan mejorando para garantizar una experiencia de usuario completamente satisfactoria para los usuarios con y sin discapacidad.

Google y su distorsión de la accesibilidad

Ayer tuve la oportunidad de asistir a las II jornadas de accesibilidad de CENTAC donde se puso de manifiesto que los conocimientos sobre necesidades y perfiles de discapacidad, el marco legal y las posibilidades tecnológicas actuales permiten que un mercado que siga el diseño para todos es posible. Sólo falta hacer que las empresas y diseñadores sean conscientes de la realidad de mil millones de personas con discapacidad en el mundo y de los beneficios de la usabilidad.

Las empresas allí representadas, como fueron Vodafone, Nuance y Codefactory compartieron sus conocimientos, visión del mercado y compromiso en pro de la accesibilidad. Pero otra de las empresas participantes me preocupó notablemente al mostrar su visión de la realidad sobre la accesibilidad de sus productos.

Google participó con una ponencia donde su lema fué La intención de compartir contenidos de forma universal.

Es cierto que Google ha realizado esfuerzos para hacer más accesibles sus interfaces, como se puede demostrar en la interfaz web de su buscador. Pero decir que la interfaz alternativa al correo de GMail en web es una solución accesible me preocupa. El ofrecer una versión con funciones reducidas y en una página alternativa para ciegos no lo convierten en una solución accesible sino en un gueto digital donde apartar a esos usuarios que, por sus capacidades o características sensoriales, no cumplen los requisitos necesarios para utilizar el interfaz oficial.

Otra afirmación que me preocupó es presentar, sin más, a Android y Google Chrome, el navegador web de Google, como accesibles para personas con discapacidad.

Ya hemos hablado en este portal de la deficiente capa de accesibilidad de Android, la cual deja a la persona con discapacidad dependiente de la caridad de los desarrolladores que quieran utilizar los atributos de accesibilidad de esa capa que ha sido incluida en el sistema de forma optativa. Una capa que no permite definir gestos de forma general para todo el sistema, crear una función de magnificación de pantalla que pueda ser utilizada en cualquier aplicación. Otro hecho preocupante es que aplicaciones desarrolladas por Google para este sistema, como el navegador web, no utilizan esta capa de accesibilidad por lo que personas ciegas tienen que utilizar aplicaciones específicamente diseñadas para personas con discapacidad.

Se habló de Chromevox, el lector de pantallas de Google Chrome, como solución ideal para acceder a los contenidos de la web. Si hablásemos de un usuario que utiliza el sistema operativo Chrome OS, creado por google, esto sería cierto ya que no hay otra opción para ese sistema operativo. Pero decir que Google Chrome y los servicios web de Google son accesibles es faltar a la realidad por una serie de razones:

      Chrome incorpora compatibilidad sólo con algunos productos de apoyo como Jaws o VoiceOver. Otros lectores de pantallas o productos de apoyo no son reconocidos o soportados.
    • Las características de accesibilidad de Google docs y otros servicios web de Google se basan en ese soporte a ciertos productos de apoyo y al uso de atajos de teclado.
    • El soporte de acceso a contenidos dinámicos o controles de formulario de Chromevox es muy deficiente en aquellas webs distintas a las de Google y que siguen las especificaciones técnicas sobre accesibilidad del W3C
    • Chromevox sólo da acceso al contenido web en sus versiones para OSX, Windows o GNU-Linux. Si un evento del sistema o una acción del usuario sacan al foco del sistema de este navegador web el usuario ciego se quedará sin soporte de accesibilidad por lo que no es una solución completa de accesibilidad para este perfil de discapacidad.

Todo esto me hace pensar que Google tiene un concepto de la realidad un tanto extraño en los que seguir los estándares o diseñar para todos no se relacionan con su concepto de accesibilidad. Proporcionar guetos digitales u obligar al usuario a aprender a manejar un producto de apoyo que usará puntualmente y memorizar más atajos de teclado para usar 2 o 3 servicios no son elementos de la verdadera accesibilidad.

Preguntas sin respuestas

Un servidor pensaba plantear una serie de preguntas a los representantes de Google en la ponencia pero por motivos de tiempo y organización no se abrió el turno de preguntas.

Gracias a los miembros de CENTAC se me ha ofrecido la posibilidad de plantear estas preguntas que serán trasladadas a Google por lo que espero que en un breve tiempo pueda actualizar este artículo con las respuestas ofrecidas por esta empresa.

Creo que formular unas preguntas con el contexto tecnológico expuesto en este artículo es tarea sencilla:

  1. ¿Por qué Google no sigue los estándares de accesibilidad para la Web definidos por el W3C los cuales han demostrado ser más que suficientes para garantizar un diseño bonito, una experiencia de usuario satisfactoria y un acceso garantizado para todos los usuarios?
  2. ¿Piensa Google mejorar la capa de accesibilidad de Android para que esté más integrada en el sistema para garantizar que los productos de apoyo puedan funcionar de forma completa y apropiada con cualquier interfaz de aplicación de forma estándar?
  3. ¿Piensa Google proporcionar para Chrome OS productos de apoyo para todos los perfiles de discapacidad afectados como ha hecho ya para las personas con discapacidad visual? No sólo los ciegos tienen problemas para acceder a un sistema operativo.

Google Nexus S, lo mejor de Android en tu mano

La empresa Samsung ha sido la encargada de sacar al mercado el segundo teléfono de Google, el Nexus S. Este smartphone es el único del mercado, actualmente, que soporta oficialmente Android 2.3 Gingerbread, la versión más moderna de Android para teléfonos inteligentes.

Este dispositivo incluye las últimas tecnologías disponibles para smartphones para tareas de negocios, juegos, multimedia y comunicaciones. Esto se refleja en la presencia de giroscopio, conectividad inalámbrica con soporte para los últimos estándares y comunicación NFC (Near field communication) lo que garantiza que el teléfono será compatible con los próximos usos y tendencias que aparezcan en el mercado.

Foto del Samsung Nexus S

Puedes consultar las características del teléfono en la página de especificaciones técnicas del Nexus S

Accesibilidad del dispositivo

El dispositivo carece de botones físicos en el frontal por lo que todo puede ser controlado a través de un apuntador capacitivo o licórnio para personas con discapacidad física severa. Los botones físicos, como el control de volumen y el botón de bloqueo, se encuentran en los cantos del teléfono y poseen suficiente relieve como para ser presionados por personas con discapacidad motórica que puedan utilizar, parcialmente, sus dedos.

El problema principal de accesibilidad, para las personas con discapacidad física, es que el teléfono, en su parte trasera, tiene una protuberancia en la parte trasera para alojar parte de la circuitería. Esto hace que el dispositivo no pueda ser apoyado de forma firme sobre la superficie de una mesa por lo que algunas personas con discapacidad física que necesiten utilizar el teléfono en esta postura encontrarán que el dispositivo no se apoya de forma paralela a la mesa.

La pantalla, de 4 pulgadas y gran calidad, permite una mejor visualización de los contenidos que en otros dispositivos similares y la cámara frontal permite grabar vídeo en una resolución suficiente como para captar el detalle de manos y dedos por lo que es posible establecer una videoconferencia en lengua de signos.

Las principales barreras de accesibilidad la encontrarán los usuarios con discapacidad visual debido a que Android 2.3 no incluye un soporte de accesibilidad suficiente para usuarios ciegos y tampoco incluye magnificador de pantallas. Esta carencia de accesibilidad para personas ciegas es una pena debido a que la tecnología NFC permite desarrollar herramientas para identificar objetos que utilicen etiquetas compatibles con esta tecnología, lo que podría ayudar muchísimo a la autonomía de personas ciegas.