2. L’accessibilité numérique?
Rendre possible l’usage des technologies
numériques:
Sans les yeux, ou une vision perturbée
Sans les oreilles, ou avec une audition
perturbée
Sans les mains, ou avec une dextérité
perturbée
Avec des difficultés de lecture, de
compréhension, d’utilisation…
3. Mon métier
Consultant et formateur en accessibilité
numérique:
Trouver des solutions pour les
utilisateurs
Aider et former les créateurs de
contenu
6. Supprimer le besoin?
= supprimer les situations de handicap?
= supprimer le handicap?
= supprimer les déficiences?
Irréaliste
Éthiquement discutable
7.
8. Changeons de perspective
Nic Steenhout:
“Pourquoi est-ce si important de marcher?
Sans les escaliers, les marches, les
portes étroites, les transports publics
inaccessibles, les salles de bains trop
petites, les places de parking étroites,
être en fauteuil roulant ne serait pas si
mal. Notez que la source de ces
problèmes est externe à la personne
elle-même. Le problème n’est pas le
corps de la personne, et modifier ce
‘corps défectueux’ ne va pas réparer
comme par magie une société
inaccessible.”
Extrait et traduit de « A different take on World
Cup opening kick »
9. Satisfaire le besoin?
5 milliards de pages Web indexées, sur
170 millions de sites actifs
Chaque minute sont mis en ligne:
500 nouveaux sites
68000 billets de blogs
300 heures de vidéos sur YouTube
Des dizaines de langues
Je ne peux pas être partout…
10. Ni l’un ni l’autre ne fonctionne
Alors posons le problème autrement.
12. Tout est relatif
Un contenu mal fichu peut être consulté
quand même, si l’on n’est pas dans la
situation de handicap
« correspondante ».
Pour ces utilisateurs, un contenu non
conforme aux règles d’accessibilité est
accessible quand même.
29. Un match inégal
Les humains sont: Les machines sont:
Multi-compétents
Adaptables
Dotés d’une culture
Capables de déduction
Capables de consulter,
comprendre, interpréter,
utiliser, des informations
produites par d’autres
humains.
Construites pour des
tâches limitées
Très peu capables
d’adaptation
Imperméables à la nuance,
l’humour, l’ironie, les
double-sens, etc.
Capables d’utiliser
l’information selon des
modalités bien précises
uniquement
31. Tout n’est pas rose
Les humains sont: Les machines sont:
Partiaux
Sujets aux préjugés, au
jugement
Dotés d’intentions
Sujets à la lassitude,
l’ennui, la faiblesse…
Limités par des
contingences physiques
Limités dans leurs sens et
capacités
Coûteux
Intellectuellement et
moralement neutres
Dociles
Infatigables
Extensibles dans leurs
capacités
Capables d’ubiquité
Réplicables, répétables
Beaucoup moins coûteux
que les humains
32. Revenons au point de départ: la
raison d’être de l’accessibilité:
Adapter les contenus créés par des humains
aux capacités des machines. Créer des
versions alternatives si nécessaire.
33. LA solution?
Et si les machines étaient capables de
s’adapter aux contenus? Et de créer les
alternatives?
Le meilleur des deux mondes: des
technologies d’assistance avec la
capacité des humains à comprendre et
convertir les informations produites par
d’autres humains.
36. Aujourd’hui
Les outils actuels sont encore très
primitifs comparés au cerveau
humain:
Compréhension linguistique
Interprétation des formes, couleurs,
tailles…
Interprétation des images et des sons
Intégration du contexte culturel
46. 2015
Sony Smartwatch 3: 9 Gflops
Samsung Galaxy S6: 35 Gflops
Playstation 4: 1800 Gflops
47.
48. Le lecteur d’écran du futur?
Capable d’analyser et d’interpréter une
mise en page, une image, une vidéo, un
contexte
Capable de restituer le contenu sous
une forme adaptée aux besoins de
l’utilisateur
Avec une interface intelligente,
prédictive, qui répond à la voix, aux
gestes, aux pensées…
49. Le sous-titrage du futur?
Sous-titrage à la volée, par analyse de
la voix
Correction des incertitudes par analyse
du contexte, analyse linguistique
Identification des locuteurs
50. L’interprète en langue des
signes du futur?
Interprétation basée sur la même
technologie de reconnaissance vocale
et visuelle que pour le sous-titrage
Avatar anthropomorphique capable de
signer dans toutes les langues
Analyse visuelle d’une personne
signant, pour conversion textuelle ou
auditive en temps réel
51.
52. Siri + VoiceOver
Indications vocales sur
le contenu de
l’image, en temps
réel
Recherche de photos
par indication de
lieu et de date
58. Quel avenir pour
l’accessibilité?
Si les promesses de la technologie se
vérifient, les utilisateurs disposeront
d’assistants virtuels:
aussi intelligents et sensibles que les
assistants humains
Infatigables, toujours disponibles
Très peu coûteux
60. De nouveaux objectifs, pour un
monde meilleur
Nous allons ENFIN pouvoir nous libérer de
la charge de mise en accessibilité, pour
nous concentrer sur
l’Expérience Utilisateur.
Et tout le monde va y gagner!
61. Rendez-vous à Paris Web 2029!
Et d’ici là, continuez à faire des
contenus accessibles…
62. Merci pour votre attention!
Olivier Nourry
access-first.fr
accessiblog.fr
@OlivierNourry
Notas del editor
Illustration: coucher de soleil sur un paysage marin tropical, vu d’un hamac. On ne voit que les jambes du couple installé dans le hamac.
Photo: Marie Ligammari.
Issu d’un article paru sur TheMighty.com: témoignage de Lina Coral, aveugle: ”I'm happy the way I am and don't want to be 'fixed'.” En français: “Je suis heureuse comme je suis et ne veux pas être ‘réparée’”.
Source (en anglais): http://incl.ca/a-different-take-on-world-cup-opening-kick/
Illustration: extrait du comic strip Dilbert. Dilbert déclare « it’s a paradigm ». Vignette suivante, un participant à la réunion dit « My project is a paradigm too ». Dilbert se penche vers son voisin et lui murmure « They bought it ».
Un contenu peut être 100% accessible à tous… sauf ceux qui sont en situation de handicap.
Exemple1: un contenu audio sans transcription, ni sous-titres, ni version en langue des signes, est accessible à une personne aveugle si elle n’est pas sourde ou malentendante.
Exemple2: un contenu mal contrasté, mais correctement structuré, est accessible avec un lecteur d’écran.
Corollaire: Un contenu 100% accessible à toutes les situations de handicap est une chimère.
Mr et Mme Patate, extrait de Toy Story 2. Madame Patate utilise une des paires d’yeux de Monsieur Patate pour qu’il puisse voir ce qu’il a dans le dos.
Crédit photo : Pixar Animation Studios.
Photo extraite du film La Lectrice, de Michel Deville (1987), avec Miou-Miou.
Description: une jeune femme, de dos, lit pour 2 adolescents, l’un ayant une canne blanche, l’autre étant assis sur un fauteuil roulant.
Illustration: Cartoon représentant un moine copiste qui écrit à la plume d’oie sur des CD. Dans le fond de l’image, un autre moine qui fait visiter le monastère annonce « et maintenant vous allez voir Frère Dominique transférant la Bible sur CD-Rom ».
Crédit image: http://petit-coin-detente.allmyblog.com/16-le-moine-scribe.html
Illustration: Une interprète en langue des signes, signant un programme pour enfants de la BBC.
Source: image extraite d’une vidéo: https://www.youtube.com/watch?v=1W4z06SOdcw
Illustration: photo d’écran de télévision, prise durant la diffusion d’un concert de Kanye West (rappeur américain), en direct, sur la BBC. Les sous-titres sont activés, et affichent: « [RAPS] Something, something, something… Oh God, when does this finish, Bev ?!? ».
Crédit photo: cosmopolitan.co.uk
Illustration: Copie d’écran du site de Be My Eyes (« Lend your eyes to the blind »), application mobile permettant à des personnes aveugles de demander à des personnes voyantes d’identifier pour elles ce qu’elles ont pris en photo.
Illustration: Chien avec un casque audio et un micro (extrait d’une publicité pour du matériel d’assistance).
Exemple 1:
Faire lire le journal à un membre de l’auditoire, lui demander quel est le titre principal et quelle photo illustre l’article.
Montrer le même journal à l’ordinateur: la tâche requérant une version numérique et accessible, aucun résultat.
Humain 1, machine 0.
Exemple 2:
Demander à un membre de l’auditoire de trouver un programme télé sympa pour le soir.
Montrer le même journal à l’ordinateur: la tâche requérant des capacités déductives et d’empathie, aucun résultat même si le contenu était numérisé et accessible.
Humain 2, machine 0.
Exemple 3:
Montrer la une de Charlie Hebdo (exemplaire paru après l’attentat de janvier 2015), et lui demander de l’expliciter.
Montrer le même journal à l’ordinateur: la tâche requérant la connaissance du contexte et une connaissance de la culture collective, aucun résultat.
Humain 3, machine 0.
Vidéo: https://www.youtube.com/watch?v=E0vO6hkUb0k
Copie d’écran d’une vidéo sur Youtube, avec sous-titres automatiques français activés.
Image: personnes en tenue de sport, en mouvement, levant les bras. Sous-titres: « écoutez les chefs de service qui plus est des plus délicates ».
Copie d’écran d’une vidéo sur Youtube, avec sous-titres automatiques français activés. Suite de la séquence précédente.
Image: dame d’un certain âge, esquissant un geste avec le pouce, évoquant une gorge tranchée. Son expression faciale est féroce. Sous-titres: « et puis notre conseil sur toutes les tribunes ».
Copie d’écran d’une vidéo sur Youtube, avec sous-titres automatiques français activés. Suite de la séquence précédente.
Image: écran-titre avec le texte « arthrolink.com, le site de l’arthrose ». Sous-titres: « martine aubry cogne je suis célibataire et je pense qu’il en fait ».
Exemples de problèmes posés par un assistant humain:
- Confidentialité
- Vie privée
- « Utilisation » impossible dans certaines situations
Limité par ses capacités: lenteur, langue, sens (lire les pensées, détecter les mouvements d’yeux, etc.)…
Exemple de coût: sous-titrage.
Si on parvenait à sous-titrer manuellement des vidéos pour 1€/heure (totalement irréaliste, plutôt 1€/minute aujourd’hui), pour sous-titrer uniquement les nouveaux contenus mis en ligne sur Youtube en 1 an, cela coûterait 157,68 millions d’euros. Qui paierait? Comment? A qui?
Ray Kurzweil, inventeur de nombreuses innovations techniques, Directeur de la Technologie de Google Inc., est célèbre pour ses prédictions sur le progrès technologique qui se sont révélées exactes. Dans son livre « The singularity is near » (la singularité est proche), il prédit qu’en 2029 une machine réussira le Test de Turing, sensé caractériser l’intelligence humaine.
La singularité est le point où l’intelligence artificielle surpasse l’intelligence humaine au point de prendre le contrôle du développement technologique. Elle crée des intelligences artificielles plus puissantes, qui créent elles-mêmes des IA plus puissantes, et ainsi de suite. Selon Kurzweil la singularité aura lieu en 2045.
Quelques exemples de prédictions vérifiées:
Explosion du Web;
Un ordinateur bat un champion d’échecs (Deep Blue bat Gary Kasparov en 97). Les logiciels battant les champions humains deviennent monnaie courante (vérifié en 2002);
L’Union Soviétique tombe du fait du développement des communications interpersonnelles;
Généralisation des technologies sans fil au début du 21ème siècle;
Généralisation de l’informatisation des objets du quotidien;
- Disponibilité, de manière très répandue, d’assistants personnels pilotables à la voix (Siri);
- Disponibilité de lecteurs d’écran de petite taille, pour un prix modique, en 2009 -> VoiceOver.
Illustration: une fillette étreint une réplique du robot D2-R2.
Dispositif combinant reconnaissance d’images et génération de texte en langage naturel. L’illustration montre des exemples d’analyses réalisées par le système, allant de « décrit sans erreur » à « sans relation avec l’image ».
Source: http://googleresearch.blogspot.fr/2014/11/a-picture-is-worth-thousand-coherent.html
Illustration: copie d’écran du logiciel BBN Broadcast Monitoring System. Logiciel militaire capable d’analyser en temps réel le contenu audio des chaines d’information dans une douzaine de langues, de les traduire en anglais à la volée, et de les convertir en base de données textuelles, où sont isolés les noms des personnes, lieux, et organisations.
Site de Raytheon (éditeur du logiciel): http://www.raytheon.com/capabilities/products/bms/
Edward Snowden a révélé que la NSA utilise une technologie de reconnaissance vocale exploitant le Big Data (programme SpiritFire) pour transcrire et analyser plusieurs millions de conversations téléphoniques par jour, dans différentes langues.
Dispositif permettant de simuler l’interaction avec un psychologue. Le système observe et écoute l’interlocuteur humain, et réagit en conséquence, de façon proche du langage oral et corporel humain.
Copie d’écran extraite de https://www.youtube.com/watch?v=ejczMs6b1Q4
Copie d’écran extraite de http://www.ibm.com/smarterplanet/us/en/ibmwatson/what-is-watson.html
Système informatique doté de capacités de compréhension et d’analyse, permettant de simuler voire dépasser l’expertise humaine.
Site: http://www.ibm.com/smarterplanet/us/en/ibmwatson/
Superordinateur utilisé pour simuler des explosions nucléaires.
En 2015, des appareils de très petites tailles (montre, téléphone, console de jeux), vendus quelques centaines d’euros, atteignent des puissances de calcul comparables à celles des superordinateurs des années 1990.
Source: http://pages.experts-exchange.com/processing-power-compared/
Illustration 1: copie d’écran de l’iPhone en mode caméra. Portrait de 2 personnes, le lecteur d’écran indique « two faces » (2 visages). Source: http://m.imore.com/making-iphone-camera-work-blind
Illustration 2: copie d’écran de l’iPhone avec iOS9. Résultat de la requête vocale « Show me photos from Utah las August. » L’écran affiche une liste de photos prise dans un parc national en Utah. Source: et http://www.apple.com/ios/whats-new/
Illustration: Copie d’écran de l’application TapTapSee. Une photo a été analysée, le résultat de l’analyse est « femme en longue robe marron avec oiseau blanc sur la main gauche ». La description est correcte: il s’agit d’une photo prise lors d’une démonstration de fauconnerie. L’oiseau est une chouette de Harfang, qui est blanche.
Photo: Olivier Nourry.
Site de TapTapSee: http://www.taptapseeapp.com/
Illustrations: 2 vues du même document imprimé, photographiés à l’aide d’un smartphone: l’un tel qui se présente à l’œil, l’autre avec la traduction automatique via Google Translate activée.
Illustration: Ecran de smartphone montrant l’application Transcrivox. Un professeur est filmé pendant son cours, l’application permet d’enregistrer le cours et de chercher parmi les notes générées à partir de la vidéo.
Source: https://www.kickstarter.com/projects/730884095/transcrivox-automatic-note-taking-for-one-and-all
Illustration: Écran d’ordinateur montrant d’une part l’analyse des signes d’un interprète en train d’être filmé, d’autre part un interprète virtuel.
Source: http://www.pcworld.com/article/2059880/microsoft-uses-kinect-to-interpret-sign-language-from-deaf-people.html
Illustrations:
Nao, robot programmé pour comprendre les émotions. Source: http://www.futuremag.fr/infographie-animee/nao-un-robot-qui-comprend-nos-emotions
Musio, compagnon interactif, qui évolue en fonction de son utilisation. Source: https://themusio.com/
Echo, enceinte connectée, capable de comprendre des commandes vocales en langage naturel. Source: http://www.journaldugeek.com/2014/11/07/echo-le-siri-damazon/
"Amazon Echo" by Frmorrison - Take a picture. Licensed under CC BY-SA 3.0 via Wikipedia - https://en.wikipedia.org/wiki/File:Amazon_Echo.jpg#/media/File:Amazon_Echo.jpg
Illustration: coucher de soleil sur un paysage marin tropical, vu d’un hamac. On ne voit que les jambes du couple installé dans le hamac.
Photo: Marie Ligammari.