J'ai eu le grand plaisir de prononcer le discours-programme de clôture à Responsive Day Out 3: le point d'arrêt final. Tenue à Brighton, au Royaume-Uni, le 19 juin 2015, la conférence était un rassemblement de concepteurs et de développeurs partageant leurs stratégies, leurs techniques et leurs expériences en matière de flux de travail avec une conception Web réactive..
Voici ce que j'avais à dire.
Aujourd'hui, nous avons effectué un tour du monde du design réactif. Nous avons vu comment améliorer nos processus et processus de travail. Nous avons appris de nouvelles façons d'améliorer l'accessibilité de nos produits. Nous sommes aux prises avec des fonctionnalités CSS et HTML modernes qui nous permettent d’adopter des tailles d’affichage extrêmement variables qui tournoient autour de nous..
Nous avons exploré l'avenir du code modulaire et de la capacité des navigateurs à fonctionner sans connectivité réseau. Et nous avons même fait un voyage dans le futur possible de l'endroit où le Web pourrait aller.
Nous avons parcouru un long chemin depuis l'article d'Ethan, les grilles de fluide, les supports flexibles et les requêtes de supports. Ces trois principes ont semé une graine qui a grandi et a prospéré à mesure que nous en venons à mieux comprendre les implications de la prolifération des dispositifs. Nous avons vu que le Web est capable d'aller n'importe où et de faire à peu près n'importe quoi.
Je dirais que «Responsive Web Design» est le premier article qui a vraiment réussi à capturer les concepts que John Allsopp avait abordés tant d'années auparavant dans «A Dao of Web Design» et à les résumer en quelque chose que la communauté des concepteurs et des développeurs pourrait réellement couler. leurs dents dans. Cela fournissait un exemple concret de la capacité de la bande à se plier et à se modeler de la manière la plus adaptée.
C'était la première fois que de nombreux créateurs acceptaient l'idée que «l'expérience» n'était pas une chose monolithique..
Bien sûr, bon nombre d’entre nous, membres de la communauté des standards du Web, discutons et progressons en ce qui concerne l’amélioration progressive. Et nous gagnions des convertis, mais les progrès étaient lents. Ethan a démontré - de manière directe et succincte - à quoi pourrait ressembler l'amélioration progressive du design visuel.
Fournir une expérience identique à chaque être humain essayant d'accéder à nos sites serait impossible. Il y a tout simplement trop de facteurs à prendre en compte. Nous avons la taille de l'écran, la densité d'affichage, la vitesse du processeur, la quantité de mémoire RAM, la disponibilité du capteur, la disponibilité des fonctionnalités, les méthodes d'interface… respirer … Type de système d'exploitation, version du système d'exploitation, type de navigateur, version du navigateur, plug-ins installés, vitesse du réseau, latence du réseau, congestion du réseau, pare-feu, serveurs proxy, routeurs et probablement une douzaine d'autres facteurs qui font que mon esprit est incapable de craquer dans le tourbillon de considérations techniques.
Et cela ne considère même pas nos utilisateurs.
En ce qui concerne les personnes que nous devons atteindre pour que notre travail compte réellement, nous devons prendre en compte le niveau d'alphabétisation, le sens de la lecture, le niveau de connaissance du domaine, les déficiences cognitives telles que les troubles d'apprentissage et la dyslexie, les problèmes de déficit de l'attention, les distractions environnementales, les troubles de la vision, déficience auditive, déficience motrice, à quel point ils comprennent comment utiliser leur appareil, à quel point ils comprennent comment utiliser leur navigateur, à quel point ils maîtrisent les conventions courantes du Web, et une tonne d'autres «facteurs humains».
Chaque personne est différente et chacun vient sur le Web avec ses propres besoins. Certains sont toujours avec eux, la cécité par exemple. D'autres sont transitoires, comme casser votre bras de souris. D'autres encore sont purement situationnels et dépendent de l'appareil que vous utilisez à l'époque et de ses capacités ou contraintes techniques..
Essayer de concevoir une expérience monolithique que chaque personne pourrait avoir dans tous les contextes tenant compte de chaque facteur serait impossible. Et pourtant, Sir Tim Berners-Lee avait une vision pour un Web capable d'aller n'importe où. Était-il fou?
La vision de Sir Tim pour le Web était que le contenu puisse être créé une fois et accessible de n'importe où. Des fragments d'hypermédia dispersés à travers le monde, mais liés entre eux, pourraient être reliés les uns aux autres par des liens. De plus, ils pourraient être récupérés par n'importe qui sur n'importe quel appareil capable de lire du HTML. Gratuitement.
En fin de compte, Sir Tim a envisagé l'accessibilité universelle.
Pour bon nombre d'entre nous, nous devons ensuite nous assurer que nos sites Web sont accessibles. Nous parlons un bon jeu quand il s'agit de «centré sur l'utilisateur» ceci ou cela, mais considérons souvent le mot «accessibilité» comme un synonyme de «lecteur d'écran». C'est tellement plus que ça. "L'accessibilité" concerne les gens. Les gens consomment du contenu et utilisent les interfaces de différentes manières, dont certaines sont similaires et d'autres assez différentes de la façon dont nous le faisons..
Bien sûr, les personnes malvoyantes utilisent souvent un lecteur d'écran pour consommer du contenu. Mais ils peuvent également utiliser un dispositif de rétroaction tactile braille ou une imprimante braille. Ils utilisent probablement aussi un clavier. Ils peuvent également utiliser un écran tactile de concert avec des signaux audio. Ils peuvent également utiliser une caméra pour leur permettre de «lire» le contenu via OCR et synthèse vocale. Et oui, les déficiences visuelles touchent un pourcentage décent de la population (surtout avec l'âge), mais ce n'est qu'une partie du puzzle de «l'accessibilité».
Le contraste entre le texte et l'arrière-plan est un facteur important pour garantir que le contenu reste lisible dans différentes situations d'éclairage. Le choix des couleurs est un problème d'accessibilité.
Le langage que nous utilisons sur nos sites et dans nos interfaces a une incidence directe sur la facilité avec laquelle nos utilisateurs comprennent ce que nous faisons, les produits que nous proposons et leur importance. Cela a également une incidence sur la façon dont nos utilisateurs se sentent eux-mêmes, sur leur expérience et sur nos entreprises. La langue est un problème d'accessibilité.
La taille de nos pages Web a un effet direct sur le temps de téléchargement de nos pages, sur le coût d’accès de nos clients à leur accès et (parfois) sur le fait que le contenu puisse ou non être atteint. La performance est un problème d'accessibilité.
Je pourrais continuer, mais je suis sûr que vous avez compris.
L'accessibilité consiste à offrir de bonnes expériences à tous, quels que soient leurs capacités physiques ou mentales, leur sexe, leur race ou leur langue. Il reconnaît que nous avons tous des besoins spéciaux - limitations physiques, limites de bande passante, limitations de périphériques - qui peuvent nous obliger à utiliser la même interface de différentes manières..
Lorsque je visite un site Web sur mon téléphone, par exemple, la résolution de mon écran me limite visuellement (surtout si j'utilise un navigateur qui encourage le zoom) et ma capacité d'interagir avec les boutons et les liens est réduite, car je navigue avec. mes doigts, qui sont plus gros et beaucoup moins précis qu'un curseur de souris.
Sur un écran tactile, mon expérience peut être légèrement différente, mais je dois tout de même pouvoir faire ce que je suis venu faire sur le site. j'ai besoin un expérience, mais de plus j'ai besoin de la approprié expérience.
En admettant que l’expérience n’a pas besoin d’être une seule et même chose, nous pourrons aider davantage de personnes ayant moins de maux de tête. L'expérience peut et doit être conçue comme un continuum. C'est une amélioration progressive: nous commençons par une expérience de base qui fonctionne pour tout le monde, qu'il s'agisse de contenu, de liens réels, de contrôles de formulaire de première génération et de formulaires réellement envoyés au serveur. Ensuite, nous construisons l'expérience à partir de là.
Votre navigateur prend en charge les contrôles de formulaire HTML5? Génial! Vous obtiendrez un meilleur clavier virtuel en tapant votre adresse email. Vous pouvez utiliser CSS? Génial, permettez-moi de rendre cette expérience de lecture meilleure pour vous. Oh, vous pouvez gérer les requêtes des médias! Permettez-moi d’ajuster la disposition pour que les longueurs de lignes soient un peu plus confortables. Wow, votre navigateur supporte Ajax?! Ici, permettez-moi de charger quelques teasers pour du contenu lié que vous pourriez trouver intéressant.
Imaginez-vous assis dans un restaurant, uniquement pour que le serveur vous apporte immédiatement un steak. Mais tu es végétarien. Vous demandez s'ils offrent quelque chose que vous pouvez manger et ils répondent poliment: "Oh je suis désolé, la viande est une exigence. Pourquoi ne pas simplement manger de la viande? C'est facile! Vous manquez vraiment de la nourriture savoureuse." Aucun serveur qui se soucie réellement de votre expérience ferait cela.
Et pourtant, en tant qu'industrie, nous ne semblons pas avoir de problème pour dire à quelqu'un qu'il doit changer de navigateur pour nous accueillir. C'est juste faux. Notre travail n'a pas de sens sans utilisateurs. Nous devrions nous mettre en quatre pour les attirer et les retenir. C'est le service client 101.
Cela revient à la loi de Postel, que Jeremy raconte souvent:
Soyez conservateur dans ce que vous faites, soyez libéral dans ce que vous acceptez des autres.
Nous devons faire preuve de laxisme quant à la prise en charge des navigateurs et ne pas émettre trop d'hypothèses (ou mieux encore aucune) sur ce que nous pouvons envoyer..
Bien sûr, ce n'est pas une approche que tout le monde dans notre secteur est prêt à adopter. Je vais donc proposer un autre devis que je reviens encore et encore…
Quand quelque chose se passe, la seule chose en votre pouvoir est votre attitude à son égard; vous pouvez l'accepter ou le renvoyer.
Nous ne pouvons pas contrôler le monde, nous ne pouvons que contrôler notre réaction à cela.
Maintenant, ceux d’entre vous qui se sont réunis pour cette dernière journée Responsive Day Out (ou qui suivent à la maison) le comprennent probablement mieux que la plupart des gens. Nous sentons le bombardement constant de nouveaux appareils, tailles d'écran et capacités. La seule façon que j'ai trouvée de gérer tout cela est de l'accepter, de saisir la diversité et de considérer la prolifération des périphériques et des navigateurs comme une fonctionnalité et non comme un bogue..
C’est à nous d’éduquer ceux qui, autour de nous, par accident ou par intention, n’ont pas accepté la diversité, c’est la réalité dans laquelle nous vivons et les choses vont devenir de plus en plus folles. Enterrer nos têtes dans le sable n'est pas une option.
Lorsque j'essaie d'aider les gens à comprendre et à embrasser la diversité, je m'adresse souvent à l'un de mes exercices de pensée préférés de John Rawls..
Rawls était un philosophe qui avait l'habitude de mener une expérience sociale avec des étudiants, des groupes d'église, etc..
Dans l'expérience, les participants ont été autorisés à créer leur société idéale. Cela pourrait suivre n'importe quelle philosophie: cela pourrait être une monarchie ou une démocratie ou une anarchie. Ce pourrait être capitaliste ou socialiste. Les personnes participant à cette expérience avaient le loisir de contrôler absolument toutes les facettes de la société… mais ensuite, il ajoutait la torsion suivante: elles ne pouvaient contrôler la position qu'elles occupaient dans cette société..
C'est ce que John Harsanyi, l'un des théoriciens du début du jeu, appelle le «voile de l'ignorance». Ce que Rawls a constaté à maintes reprises, c’est que les personnes participant à l’expérience graviteraient autour de la création des sociétés les plus égalitaires..
Cela a du sens: quel être humain raisonnable et égoïste traiterait mal les personnes âgées, les malades, les personnes de sexe, de race, de croyance ou de couleur particuliers s’ils pouvaient se retrouver dans la même situation lorsque le voile est retiré?
Les mesures que nous prenons pour répondre aux besoins spéciaux rapportent des dividendes à l’avenir. Regarde les rampes.
Il s’agit d’un exemple classique de fonctionnalité d’accessibilité pour les personnes en fauteuil roulant qui présente également des avantages pour les non-occupants: personnes transportant des bagages, services de livraison transportant des objets lourds sur des chariots, parents poussant leurs enfants (ou leurs chiens habillés) dans une poussette, une personne qui se promène à bicyclette, et ce gars qui préfère simplement marcher sur une pente douce pour dépenser l’effort nécessaire pour monter une marche.
Lorsque nous créons des chemins alternatifs pour aller du point A au point B, les utilisateurs peuvent choisir celui qui leur convient le mieux, que ce soit par choix ou par nécessité. Et tout le monde peut atteindre ses objectifs.
Nous avons tous des besoins spéciaux. Certains nous sommes nés avec. Certains nous développons. Certains sont temporaires. Certains n'ont rien à voir avec nous personnellement, mais sont liés à la situation ou dépendent uniquement du matériel que nous utilisons, des méthodes d'interaction dont nous disposons, voire de la vitesse à laquelle nous pouvons accéder à Internet ou traiter des données..
En quoi consiste la conception Web réactive, sinon l'accessibilité? Oui, ses principes fondamentaux concernent la conception visuelle, mais en termes généraux, ils visent tous à offrir la meilleure expérience de lecture possible..
En tant que praticiens de la conception réactive, nous comprenons les avantages de l’adaptation de nos interfaces. Nous comprenons les replis. Nous comprenons comment concevoir des expériences robustes qui fonctionnent dans une grande variété de conditions. Chaque jour, nous élargissons l'accessibilité de nos produits.
Ces compétences nous rendront inestimables alors que la technologie continue à offrir de nouvelles façons de consommer et d’interagir avec nos sites Web..
Nous commençons à peine à plonger ou à nous plonger dans le monde des commandes gestuelles basées sur le mouvement. Bien sûr, nous les avons depuis deux temps sur les écrans tactiles en deux dimensions, mais les commandes tridimensionnelles basées sur le mouvement commencent seulement à apparaître. Vous pouvez voir une démonstration de commandes gestuelles autour de 41 secondes dans la vidéo suivante:
Le premier grand pas dans cette direction a été Kinect sur Xbox 360 (et plus tard Windows). Avec Kinect, nous interagissons avec l'ordinateur à l'aide de mouvements du corps, comme lever la main (ce qui oblige Kinect à faire attention), pousser notre main vers l'avant pour cliquer / taper et tendre pour tirer la toile dans une direction particulière..
Le Kinect a inauguré une révolution majeure en termes d’interfaçage avec des ordinateurs, mais du point de vue de l’interaction, il présente des défis similaires à ceux de la manette Wii et de la PlayStation Move de Sony. Les gros gestes corporels comme lever la main (ou un contrôleur de baguette) peuvent être fatigants.
Ils ne sont pas très précis non plus. Si vous pensiez que la précision de l'écran tactile posait problème, les gestes des mains comme ceux de Kinect ou de LEAP Motion constituent un défi encore plus grand..
Pour prendre en charge de telles interactions (que nous n'avons actuellement aucun moyen de détecter), nous devons être conscients de la facilité avec laquelle il est possible de cliquer sur des commandes interactives. Nous devons déterminer si nos boutons et liens sont suffisamment grands et s'il y a suffisamment d'espace entre eux pour que l'intention de l'utilisateur soit correctement communiquée au navigateur. Les spécifications des médias de niveau 4 et les événements de pointeur peuvent aider à résoudre ce problème..
Dans Media Queries Level 4, nous avons pu appliquer des règles de style à des contextes d'interaction particuliers. Par exemple, lorsque nous avons un contrôle très précis sur notre curseur (comme dans le cas d'un stylet ou d'une souris) ou un contrôle moins précis (comme dans le cas d'un écran tactile ou d'un geste physique):
@media (pointeur: fin) / * Les petits liens et boutons sont ok * / @media (pointeur: grossier) / * Des liens et boutons plus grands sont probablement une bonne idée * /
Bien sûr, nous voulons offrir un défaut par défaut en termes de taille et d’espacement comme solution de secours pour les anciens navigateurs et appareils..
Nous sommes également en mesure de déterminer si le périphérique est capable de survoler un élément et d'ajuster l'interface en conséquence..
@media (survol: survol) / * les interactions liées au survol sont A-OK * / @media (survol: à la demande) / * les interactions liées au survol sont potentiellement difficiles, faites peut-être autre chose * / @ média (survol: aucun) / * Aucun survol possible :-( * /
Nous devons toutefois déterminer à quel point tout cela fonctionne correctement sur des appareils multimodaux tels que la tablette Surface. La conception changera-t-elle lorsque l'utilisateur passera d'un mode de saisie à l'autre? Devrait-il? À cette fin, la spécification fournit également n'importe quel pointeur
et n'importe-hoverto
, vous permettant de demander si tout La méthode d'interaction prise en charge répond à vos exigences, mais voici un mot d'avertissement de la spécification:
Concevoir une page qui repose sur le survol ou le pointage précis uniquement parce que n'importe quel survol ou n'importe quel pointeurindique qu'un mécanisme d'entrée avec ces capacités est disponible, est susceptible d'entraîner une mauvaise expérience.
Ces options de requête multimédia commencent à se déployer dans Chrome, Mobile Safari et Microsoft Edge, il est donc intéressant de les consulter..
Pointer Events est une autre caractéristique qui commence à gagner du terrain. Il généralise l’interaction à un seul événement plutôt que de nous obliger à mettre en parallèle notre expérience dans un environnement contrôlé par la souris, le toucher, le stylo, la force (soupir), etc..
Nous pouvons détecter discrètement le support pour les événements de pointeur…
if (window.PointerEvent) window.addEventListener ("pointerdown", detectType, false);
… Et ensuite les traiter de la même manière ou créer des branches basées sur le type de pointeur
:
function detectType (event) switch (event.pointerType) case "mouse": / * entrée de la souris détectée * / break; case "stylo": / * stylet / stylet saisi * / pause; case "touch": / * saisie tactile détectée * / pause; valeur par défaut: / * pointerType est vide (impossible à détecter) ou type personnalisé * / spécifique à l'agent utilisateur
Bien sûr, outre le niveau de précision de nos utilisateurs lors de leurs interactions avec nos écrans, nous devons également prendre en compte la distance potentiellement plus longue à laquelle nos utilisateurs lisent notre contenu..
À cette fin, j'ai expérimenté avec l'unité de largeur de fenêtre (vw).
Pendant longtemps, j'ai utilisé ems pour la largeur maximale de la mise en page (la longueur de la ligne est donc proportionnelle à la taille de la police). J'utilise aussi des tailles de police relatives. Sur cette base, je peux utiliser une requête multimédia correspondant à la largeur maximale et définir la taille de la police de base sur l'équivalent vw sur la largeur maximale..
corps max-width: 64em; Écran @média et (largeur minimale: 64 µm) corps taille de police: 1.5625vw; / * (1em / 64em) * 100 * /
Ensuite, tout le design va simplement zoomer sur la mise en page quand elle est vue au-delà.
Si vous ne souhaitez pas activer automatiquement une telle fonctionnalité, vous pouvez l'activer et la désactiver avec JavaScript..
Les choses deviennent encore plus folles lorsque vous commencez à intégrer des périphériques tels que HoloLens. Et non, je n'ai pas encore joué avec un, mais vous pouvez voir une superbe démo à 1:27 sur cette vidéo:
Mais l’idée de pouvoir déposer un écran virtuel redimensionnable sur n’importe quelle surface présente des possibilités intéressantes en tant qu’utilisateur et des défis uniques en tant que concepteur. HoloLens, bien sûr, comporte également des commandes gestuelles. Par conséquent, la comptabilisation de divers types d’entrées devrait nous mener assez loin..
Dans le même esprit, nous devrions commencer à réfléchir à ce que les expériences peuvent et doivent ressembler lorsque nous naviguons uniquement avec notre regard. Le suivi du regard trouve son origine dans l'espace d'accessibilité en tant que moyen de fournir un contrôle d'interface aux personnes n'ayant que peu ou pas d'utilisation de leurs mains. Traditionnellement, le matériel de suivi du regard coûte plusieurs milliers de dollars, ce qui le met hors de portée de nombreuses personnes, mais cela commence à changer..
Au cours des dernières années, la puissance de calcul de nos appareils a augmenté, les coûts matériels associés au suivi du regard ayant considérablement diminué. En regardant autour de vous, vous pouvez voir que le suivi du regard commence à entrer dans la sphère publique: de nombreux smartphones et smartwatches peuvent reconnaître le moment où vous les regardez (ou du moins, ils le font parfois). Ce n’est qu’à un pas de distance de savoir où vous regardez à l’écran. Et presque tous les smartphones haut de gamme sont désormais équipés d'une caméra frontale, ce qui en fait des candidats parfaits pour fournir cette méthode d'interaction.
Vous pouvez voir une superbe démonstration de la technologie de suivi du visage du téléphone Sesame Phone depuis la marque des 18 secondes dans cette vidéo:
Le téléphone Sesame a été conçu pour permettre aux utilisateurs d’utiliser un smartphone sans utiliser leurs mains. Il utilise le suivi du visage pour déplacer un curseur virtuel sur l'écran, permettant aux utilisateurs d'interagir avec le système d'exploitation sous-jacent ainsi qu'avec des applications individuelles. Il prend en charge la saisie, le glissement et d'autres gestes (via un menu contextuel) et est assez impressionnant dans mon expérience. Une technologie comme celle-ci permet aux personnes souffrant de sclérose en plaques, d'arthrite, de dystrophie musculaire, etc., d'utiliser un smartphone et, plus important encore, de naviguer sur le Web..
Eye Tribe et Fixational travaillent de la même manière pour que les smartphones et les tablettes soient suivis de près. Le suivi oculaire est similaire au suivi du visage, mais le curseur suit votre mise au point. Les micro-gestes (clignotements, clignotements, etc.) vous permettent d'interagir avec l'appareil..
Même si la plupart des logiciels de suivi du regard imitent une souris et ont une sensibilité réglable, sa précision en tant que pointeur n'est pas fantastique. Lorsque j'ai utilisé le téléphone Sesame, par exemple, j'ai eu du mal à contrôler la position de ma tête afin de maintenir le curseur immobile pour survoler et cliquer sur un bouton. Je suis sûr que cela s'améliorera avec la pratique, mais il est prudent de dire que dans une interaction de regard, des liens et des boutons plus grands, bien espacés et plus facilement ciblés seraient une aubaine..
Jusqu'à présent, je me suis concentré sur les méthodes d'interaction qui facilitent la navigation et la consommation de contenu. Mais qu'en est-il de remplir un formulaire? Je peux vous dire que taper un email lettre par lettre sur un clavier virtuel, utiliser votre visage, c'est nul…
Heureusement, la plupart de ces implémentations gestuelles sont associées à une forme de reconnaissance vocale. Le Kinect, par exemple, acceptera des commandes verbales pour naviguer et accomplir des tâches telles que le remplissage de formulaires. Le téléphone Sesame prend également en charge les commandes vocales pour certaines actions de base, dicter des e-mails, etc..
Couplés à la voix, les méthodes d'interaction alternatives de Kinect et Sesame Phone fonctionnent vraiment bien. Mais l'interaction vocale peut aussi être autonome.
La plupart d'entre nous connaissons Siri d'Apple, Google Now et Cortana de Microsoft. Ces assistants numériques sont très aptes à récupérer des informations auprès de sources sélectionnées et à effectuer d'autres tâches telles que le calcul d'un conseil et la configuration d'un rappel. En ce qui concerne les interactions avec le Web, ils ne le font pas encore. Nous pouvons dialoguer avec eux, mais ils ne peuvent pas (nécessairement) dialoguer avec une page Web..
Exposer les informations stockées dans nos pages Web via du HTML sémantique et des syntaxes structurées telles que microformats, microdonnées et RDFa devrait rendre éventuellement notre contenu disponible à ces assistants, mais nous ne le savons pas vraiment. Leurs différents fabricants ne nous ont pas vraiment indiqué comment faire cela et, dans l’état actuel des choses, aucun d’entre eux ne peut consulter une page Web et vous la lire. Pour cela, vous devez appeler un lecteur d'écran..
Chaque entreprise propose un lecteur d'écran tiers. Et tous sont capables de vous aider à interagir avec une page, y compris de remplir des formulaires sans avoir à voir la page. Et pourtant, ces technologies n’ont pas été couplées aux assistants correspondants. Il ne faudra probablement pas longtemps avant que cela se produise.
Lorsque nous commençons à réfléchir à la manière dont nos sites Web seront expérimentés dans un contexte vocal, la lisibilité de nos pages Web devient cruciale. Une prose claire et bien écrite et un ordre logique des sources seront une nécessité absolue. Si nos pages n'ont pas de sens à la lecture, à quoi ça sert?
Le stratège en matière de contenu, Steph Hay, considère l'interface comme une opportunité d'avoir une conversation avec nos utilisateurs. Bientôt ce sera littéralement.
Fait intéressant, Microsoft nous a donné un aperçu de la conception de commandes vocales personnalisées pour nos sites Web allant au-delà de ce que le système d'exploitation prend en charge de manière native avec Cortana. En d'autres termes, ils nous ont laissé enseigner à leur assistant.
Dans Windows 10, les applications Web installables peuvent inclure un fichier de définition de commande vocale (VCD) dans l'en-tête de la page pour activer les commandes personnalisées:
Le fichier VCD référencé est simplement un fichier XML définissant le mot clé de l'application Web et les commandes pouvant être émises..
En utilisant une syntaxe très basique, le VCD identifie les éléments facultatifs d’une phrase donnée et les variables que Cortana doit extraire:
Message de groupe Message de groupe ajouter une note ajouter une note message en utilisant post groupe [veuillez] ajouter une note [that] noteSubject ajout de noteSubject à la publication de groupe
Cette application particulière transmet les informations capturées à JavaScript pour traitement. C'est vrai, Cortana a aussi une API JavaScript. Génial.
Mais les ordinateurs traditionnels et les appareils mobiles intelligents ne sont pas le seul endroit où nous commençons à voir des expériences basées sur la voix. Nous avons également des voix désincarnées, comme Echo d’Amazon et Ubi, qui sont complètement sans tête..
À l'heure actuelle, ils semblent tous deux résolument résolus à aider votre maison à devenir "plus intelligente" (musique en streaming, réglage du thermostat, etc.), mais il n'est pas difficile d'imaginer que ces appareils deviennent couplés à la capacité de naviguer et d'interagir avec le Web..
Dans un proche avenir, les interactions vocales avec le Web seront tout à fait possibles. Ils vont probablement sucer un peu au début, mais ils iront mieux.
Je vais faire une prédiction assez audacieuse: bien que le toucher ait été révolutionnaire à bien des égards pour améliorer l'accès numérique, la voix sera encore plus importante. Les interfaces vocales créeront de nouvelles opportunités pour les personnes d'interagir avec et de participer au monde numérique.
Parce que nous avons réfléchi à la façon dont les expériences que nous créons sont consommables avec une variété d'appareils, nous avons le grand avantage de faire appel à d'autres personnes travaillant sur le Web en matière de voix. Nous voyons l'expérience comme un continuum, commençant par le texte.
À mesure que la technologie vocale évoluera, nous serons ceux auxquels les gens s’adresseront en tant qu’experts. Nous allons donner à la prochaine génération de sites Web et d'applications la possibilité d'utiliser la voix, ce qui permettra d'améliorer la vie de milliards de personnes. Parce que «l'accessibilité» ne concerne pas les personnes handicapées, il s'agit d'accès et c'est à propos des gens.
Bien sûr, il sera plus facile de consulter les horaires des films et d’acheter des billets pour voir les dernières Transformateurs débâcle, mais nous allons également autonomiser les quelque 900 millions de personnes dans le monde, dont plus de 60% sont des femmes, qui sont analphabètes. Et c'est une population qui a été largement ignorée sur notre web principalement textuel.
Nous créerons de nouvelles opportunités pour les pauvres et les défavorisés de participer à un monde qui les a exclus. Vous ne le savez peut-être pas, mais 80% des entreprises du Fortune 500 pensent que Target et Walmart acceptent uniquement les candidatures