À propos de l'auteur
Be Birchall est un développeur de logiciels chez Peloton qui aime écrire du code et des idées qui le sous-tendent. Elle a une formation en mathématiques / philosophie et détient un doctorat de…
Pour en savoir plus sur Be …
Haben Girma, défenseure des droits des personnes handicapées et première diplômée de Harvard Law, première diplômée sourde-aveugle, a fait la déclaration suivante dans son discours liminaire prononcé à AccessU digital. Conférence d'accessibilité du mois dernier:
«Je définis le handicap comme une opportunité d'innovation.»
Elle a charmé et impressionné le public en nous expliquant comment apprendre le langage des signes au toucher, apprendre à surfer et au clavier en braille. système de communication qu’elle répondait à ses questions après son exposé.
Contrastez cette idée avec la perspective que beaucoup d’entre nous ont de créer des applications: l’accessibilité Web est traitée comme une réflexion après-coup un ensemble déroutant de règles que chercher dans la version deux. Si cela vous semble familier (et que vous soyez développeur, concepteur ou chef de produit), cet article est pour vous.
J'espère que votre perspective se rapprochera de celle de Haben Girma en montrant comment l'accessibilité du Web s'intègre dans les domaines plus larges de la technologie, handicap et design. Nous verrons comment la conception de différents ensembles de capacités conduit à la compréhension et à l’innovation. Je vais également éclaircir la façon dont l'histoire des navigateurs et du HTML est étroitement liée à celle des technologies d'assistance.
Technologie d'assistance
Un produit accessible à est un produit utilisable par tous, et technologie d'assistance est un terme général désignant des dispositifs ou des techniques pouvant faciliter l'accès, généralement lorsqu'un handicap l'aurait autrement exclu. Par exemple, les sous-titres permettent aux sourds et aux malentendants d'accéder à la vidéo, mais les choses deviennent plus intéressantes lorsque nous demandons ce qui constitue un handicap.
Sur la définition du "modèle social" du handicap adoptée par l'Organisation mondiale de la Santé, un handicap n'est pas une propriété intrinsèque d'un individu, mais un décalage entre ses capacités et son environnement . Qu'une chose soit considérée comme un "handicap" ou une "technologie d'assistance" n'a pas de frontière aussi claire et est contextuelle.
La réduction des inadéquations entre capacité et environnement a conduit non seulement à des innovations technologiques, mais également à une nouvelle compréhension de la manière dont les humains perçoivent et interagissent avec le monde.
Access + Ability une exposition récente présentée au musée du design Cooper Hewitt Smithsonian à New York, a présenté quelques prototypes et produits de technologie d'assistance récents. Je venais au musée pour voir une grande exposition sur la conception sensorielle, et j'ai finalement découvert que cette exposition plus petite offrait un éclairage supplémentaire sur les sens en se concentrant sur les interfaces sensorielles croisées.
Seeing is is fait avec le cerveau et non avec les yeux. C’est l’idée qui sous-tend l’un des éléments de l’exposition, Brainport, un dispositif pour les aveugles ou les malvoyants. Votre représentation visuelle de votre environnement physique repose sur les interprétations données par votre cerveau à partir des entrées que vos yeux reçoivent.
Et si votre cerveau recevait les informations que vos yeux reçoivent habituellement par un autre sens? Une caméra attachée au casque de Brainport reçoit des entrées visuelles qui sont traduites en une grille de type pixel composée de chocs légers perçus comme des «bulles» sur la langue du porteur. Les utilisateurs affirment être en mesure de «voir» leur environnement dans les yeux de leur esprit.
Soundshirt traduit également les entrées généralement perçues par un sens en entrées pouvant être perçues par un autre. Cette technologie portable est une chemise avec des capteurs sonores variés et des vibrations subtiles correspondant aux différents instruments d'un orchestre, permettant ainsi de jouir d'une symphonie au toucher. Un appareil auditif conçu avec empathie et ressemblant à un bijou plutôt qu’à un appareil médical maladroit était également exposé.
Concevoir des ensembles de capacités différentes conduit souvent à des innovations qui se révèlent utiles aux personnes et aux environnements extérieurs. leur utilisation prévue. Les mini-rampes aux coins des trottoirs, désormais familières, sont utiles à quiconque se baladant sur le trottoir, découle de l'activisme en faveur des droits des personnes handicapées des années 70 pour rendre les trottoirs accessibles aux fauteuils roulants. Au début du XIXe siècle, Pellegrino Turri a inventé la première machine à écrire pour aider son ami aveugle à écrire de manière lisible, et la première machine à écrire disponible dans le commerce, la Hansen Writing Ball, a été créée par le directeur de l'Institut royal des sourds-muets de Copenhague.
Vint Cerf cite sa déficience auditive comme ayant motivé son intérêt pour le courrier électronique en réseau et le protocole TCP / IP qu'il a co-inventé. Les réglages de contraste de couleur de smartphone pour daltoniens sont utiles pour quiconque tente de lire un écran à la lumière du soleil et ont même trouvé un usage inattendu dans en aidant les gens à devenir moins dépendants de leur téléphone .
La conception de différents ensembles de capacités nous permet donc de mieux comprendre comment nous percevons et interagissons avec l'environnement, et nous dirige
Dans cet esprit, passons au Web.
Assistive Tech And the Web
Le Web était destiné à être accessible à tous à partir du site. début. Une citation que vous rencontrerez souvent si vous commencez à lire sur l'accessibilité Web est la suivante:
«Le pouvoir du Web réside dans son universalité. L'accès de tous, indépendamment du handicap, est un aspect essentiel. ”
– Tim Berners-Lee, directeur du W3C et inventeur du World Wide Web
Quelles technologies d'assistance sont disponibles pour percevoir et interagir avec le Web ? Vous avez peut-être entendu parler ou utilisé un lecteur d’écran qui lit ce qui est affiché à l’écran. Il existe également des affichages en braille pour les pages Web, ainsi que d’autres dispositifs de saisie, tels que le suivi de la vue, que j’ai essayé lors de l’exposition Access + Ability .
C’est fascinant d’apprendre que les pages Web sont affichées en braille; les pages Web que nous créons peuvent être représentées en 3D! Les afficheurs en braille sont généralement constitués d'épingles surélevées et réduites au fur et à mesure qu'ils «traduisent» chaque petite partie de la page, un peu comme le dispositif que Haben Girma utilisait pour lire les questions du public après son discours AccessU. Une société plus récente, Blitab (nommée pour “aveugle” + “tablette”), crée une tablette en braille Android qui utilise un liquide pour modifier la texture de son écran.
Les habitués des lecteurs d'écran audio s'habituent à une parole plus rapide et peuvent régler la lecture à une vitesse impressionnante (tout en économisant la durée de vie de la batterie en tournant hors de l'écran). Le lecteur d'écran apparaît ainsi comme un mode alternatif d'interaction avec les sites Web tout aussi utile. En effet, de nombreuses personnes tirent parti des fonctionnalités audio du Web pour dicter ou entendre du contenu. Une interface destinée à certains devient plus largement utilisée.
L'accessibilité Web concerne plus que les lecteurs d'écran mais nous allons nous concentrer sur celles-ci ici car, comme nous allons le voir, les lecteurs d'écran sont au cœur de les défis techniques d'un réseau accessible.
Lectures recommandées : Concevoir pour l'accessibilité et l'inclusion de Steven Lambert
Défis techniques et premières approches
Imaginez que vous deviez concevoir un lecteur d'écran. Si vous êtes comme moi avant d’en apprendre davantage sur la technologie d’assistance, vous pouvez commencer par imaginer une version de livre audio d’une page Web, en pensant que votre tâche est d’automatiser la lecture des mots de la page. Mais regarde cette page. Remarquez à quel point vous utilisez des indices visuels de mise en page et de conception pour vous indiquer les éléments qui permettent d'interagir avec eux.
- Comment votre lecteur d'écran saurait-il lorsque le texte de cette page appartient à des liens ou des boutons cliquables?
- Comment le lecteur d'écran détermine-t-il l'ordre de lecture du texte de la page?
- Comment peut-il laisser l'utilisateur "parcourir" cette page afin de déterminer les titres des sections principales de cet article?
étaient aussi simples que le livre audio que j’avais imaginé, car ils ne traitaient que des interfaces textuelles. Ces « terminaux parlants », développés au milieu des années 1980, traduisaient les caractères ASCII de la mémoire tampon d’affichage du terminal en sortie audio. Mais les interfaces utilisateur graphiques (ou interfaces graphiques) sont rapidement devenues courantes. « Making the GUI Talk », un article paru dans le magazine BYTE en 1991, donne un aperçu de la situation des lecteurs d'écran à un moment où la nouvelle prévalence des écrans à contenu essentiellement visuel faisait des lecteurs un défi technique, La loi américaine récemment adoptée sur les personnes handicapées avec incapacités souligne leur nécessité.
OutSpoken, dont il est question dans l'article de BYTE, est l'un des premiers lecteurs d'écran disponibles dans le commerce pour les interfaces utilisateur graphiques. OutSpoken a travaillé en interceptant des commandes graphiques au niveau du système d'exploitation pour créer un modèle hors écran une représentation en base de données de ce qui se trouve dans chaque partie de l'écran. Il utilisait des méthodes heuristiques pour interpréter les commandes graphiques, par exemple pour deviner qu'un bouton était dessiné ou qu'une icône était associée à du texte à proximité. Lorsqu'un utilisateur déplace un pointeur de souris sur l'écran, le lecteur d'écran lit les informations du modèle hors écran concernant la partie de l'écran correspondant à l'emplacement du curseur.
Cette première approche était difficile: l'interception de commandes graphiques de bas niveau est complexe et dépend du système d'exploitation, et le recours à l'heuristique pour interpréter ces commandes est sujet aux erreurs.
API Web et d'accessibilité
Une nouvelle approche des lecteurs d'écran a vu le jour à la fin des années 90, basée sur l'idée du web sémantique . Berners-Lee a décrit son rêve d'un web sémantique dans son livre de 1999 Tisser le Web: conception originale et destin ultime du Web :
J'ai un rêve pour le Web [in which computers] devenir capable d'analyser toutes les données sur le Web – le contenu, les liens et les transactions entre des personnes et des ordinateurs. Un "Web sémantique", qui rend cela possible, n'a pas encore vu le jour, mais les mécanismes quotidiens du commerce, de la bureaucratie et de notre vie quotidienne seront gérés par des machines qui dialoguent avec des machines. Les "agents intelligents" que les gens vantent depuis des siècles vont enfin se concrétiser.
Berners-Lee a défini le Web sémantique comme "un réseau de données pouvant être traitées directement et indirectement par des machines". On peut se demander à quel point ce rêve a été réalisé. et beaucoup le considèrent maintenant comme irréaliste.
Berners-Lee a mis l'accent dès le début sur l'accessibilité au Web lors de la création du W3C, le groupe de normalisation international du Web, en 1994. Dans un bulletin d'information de 1996 publié dans le cadre de la Web Accessibility Initiative du W3C, il écrit:
L'émergence du World Wide Web a permis aux personnes disposant d'un équipement informatique et de télécommunication approprié d'interagir comme jamais auparavant. . Il présente de nouveaux défis et de nouveaux espoirs aux personnes handicapées.
HTML4, élaboré à la fin des années 90 et publié en 1998, insiste sur la distinction entre structure et signification du document et préoccupations stylistiques et de présentation. Ceci était basé sur les principes du web sémantique et en partie motivé par l'amélioration du support pour l'accessibilité . Le HTML5 que nous utilisons actuellement repose sur ces idées et la prise en charge des technologies d'assistance est donc au cœur de sa conception.
Alors, comment les navigateurs et les lecteurs HTML prennent-ils en charge la gestion actuelle?
Beaucoup de front- Les développeurs finaux ne sont pas conscients que le navigateur analyse le DOM pour créer une structure de données, en particulier pour les technologies d'assistance. Il s'agit d'une structure arborescente connue sous le nom d'arborescence d'accessibilité qui constitue l'API pour les lecteurs d'écran, ce qui signifie que nous ne comptons plus sur l'interception du processus de rendu comme le faisait l'approche du modèle hors écran. HTML fournit une représentation que le navigateur peut utiliser à la fois pour restituer sur un écran et pour donner aux périphériques audio ou braille.
Voyons l’API d’accessibilité un peu plus en détail pour voir comment elle gère les défis que nous avons examinés ci-dessus. Les nœuds de l'arborescence d'accessibilité, appelés «objets accessibles», correspondent à un sous-ensemble de nœuds DOM et possèdent des attributs comprenant le rôle (comme le bouton
), le nom ( tels que le texte sur le bouton), et déclarent (tels que centrés
) déduits du balisage HTML. Les lecteurs d’écran utilisent ensuite cette représentation de la page.
C’est ainsi qu’un utilisateur de lecteur d’écran peut savoir qu'un élément est un bouton sans utiliser les indices de style visuel dont dépend un utilisateur voyant. Comment un utilisateur de lecteur d'écran peut-il trouver des informations pertinentes sur une page sans avoir à les lire intégralement? Dans une enquête récente les utilisateurs de lecteurs d’écran ont indiqué que le moyen le plus courant de localiser les informations recherchées sur une page consiste à utiliser les en-têtes de page. Si un élément est marqué avec une balise h1
– h6
un nœud de l'arborescence d'accessibilité est créé avec le titre . Les lecteurs d'écran ont une fonctionnalité «passer à l'en-tête suivant», permettant ainsi de parcourir une page
Certains attributs HTML sont spécifiquement destinés à l'arborescence d'accessibilité. Des attributs ARIA (Accessible Rich Internet Applications) peuvent être ajoutés aux balises HTML pour spécifier le nom ou le rôle du nœud correspondant. Par exemple, imaginez que notre bouton ci-dessus avait une icône plutôt qu'un texte. L'ajout de aria-label = "inscrivez-vous"
à l'élément button garantirait que le bouton possède une étiquette que les lecteurs d'écran peuvent représenter à leurs utilisateurs. De même, nous pouvons ajouter des attributs alt
aux balises d'image, fournissant ainsi un nom au nœud accessible correspondant et fournissant un texte alternatif permettant aux utilisateurs de lecteurs d'écran de savoir ce qu'il y a sur la page.
c’est que les développeurs doivent utiliser les balises HTML et les attributs aria d’une manière qui corresponde à l’intention de leur code. Ceci, à son tour, nécessite une prise de conscience de la part des développeurs et la hiérarchisation de l'accessibilité par leurs équipes. Le manque de sensibilisation et de hiérarchisation, plutôt que toute limitation technique, constitue actuellement le principal obstacle à un Web accessible.
L'approche actuelle en matière de technologie d'assistance pour le Web est basée sur les principes du Web sémantique et est intégrée à la conception de navigateurs et de HTML. . Les développeurs et leurs équipes doivent connaître les fonctionnalités d'accessibilité intégrées au HTML pour pouvoir en tirer parti.
Lectures recommandées : API d'accessibilité: une clé pour l'accessibilité Web de Léonie Watson
Les liens de l'intelligence artificielle
L'apprentissage automatique (ML) et L'intelligence artificielle (AI) nous viennent à l'esprit en lisant les remarques de Berners-Lee sur le rêve du web sémantique aujourd'hui. Lorsque nous pensons que les ordinateurs sont des agents intelligents analysant les données, nous pouvons penser que cela se fait via des approches d'apprentissage automatique. La première approche de modèle hors écran que nous avons examinée utilisait des méthodes heuristiques pour classifier les informations visuelles. Cela fait également penser aux approches d'apprentissage automatique, à ceci près que, dans l'apprentissage automatique, les heuristiques permettant de classer les entrées sont basées sur une analyse automatisée des entrées déjà vues plutôt que sur un codage manuel.
Et si, au début, il était difficile de déterminer comment procéder. le Web accessible, nous avions pensé à utiliser l'apprentissage automatique? Ces technologies pourraient-elles être utiles maintenant?
L'apprentissage automatique a été utilisé dans certaines technologies d'assistance récentes. SeeingAI de Microsoft et Google Lookout utilisent l’apprentissage automatique pour classer et raconter des objets vus à travers un appareil photo pour smartphone. CTRL Labs travaille sur une technologie permettant de détecter les mouvements de micro-muscles interprétés à l'aide de techniques d'apprentissage automatique. De cette façon, il semble que lise dans votre esprit sur les intentions de mouvement et pourrait avoir des applications pour aider avec certaines déficiences motrices. L'intelligence artificielle peut également être utilisée pour la reconnaissance de caractères afin de lire du texte, et même traduire la langue des signes en texte . Les avancées récentes d'Android utilisant l'apprentissage automatique permettent aux utilisateurs d'augmenter et d'amplifier les sons autour d'eux et de retranscrire automatiquement la parole.
L'intelligence artificielle peut également être utilisée pour améliorer les données transmises à l'arborescence d'accessibilité. Facebook a introduit un texte alternatif généré automatiquement pour fournir aux utilisateurs des images avec des descriptions de lecteurs d'écran. Les résultats sont imparfaits, mais indiquent une direction intéressante. Allant plus loin, Google a récemment annoncé que Chrome serait bientôt en mesure de fournir du texte alternatif généré automatiquement pour les images que le navigateur affiche.
À suivre
Jusqu'à (ou à moins que) l'apprentissage automatique les approches deviennent plus matures, un site Web accessible dépend de l’API basée sur l’arbre d’accessibilité. Il s'agit d'une solution robuste, mais pour tirer parti de la technologie d'assistance intégrée aux navigateurs, les utilisateurs des sites de construction doivent en prendre conscience. Le principal problème en matière d'accessibilité au Web est actuellement le manque de sensibilisation, plutôt que toute difficulté technique.
Points à retenir
- Concevoir des ensembles de capacités différents peut nous donner de nouvelles perspectives et conduire à des innovations d'une grande utilité.
- Le Web devait être accessible depuis le début et son histoire est étroitement liée à celle des technologies d'assistance pour le Web.
- Les technologies d'assistance pour le Web sont intégrées au concept actuel des navigateurs et du HTML. [19659039] La conception de technologies d'assistance, impliquant en particulier l'intelligence artificielle, continue de fournir de nouvelles informations et de mener à des innovations.
- Le principal défi actuel pour un site Web accessible est la sensibilisation des développeurs, des concepteurs et des chefs de produit.
Ressources
Source link