Evolution technologique : ubiquité et transparence

Arnaud de la Grandière |
interfacesDepuis quelques années, les outils technologiques suivent une double tendance apparemment contradictoire : l'ubiquité et la dissolution. Ils sont à la fois partout dans notre environnement, et nulle part puisqu'ils ont non seulement tendance à s'effacer, mais également à s'abstraire géographiquement dans le "cloud". À quoi pourrait ressembler notre environnement technologique dans un avenir proche si l'on suit cette tendance ?

Lors de notre interview au MIT avec le Professeur Randall Davis (lire MIT : à la croisée de l'intelligence artificielle et des nouvelles interfaces), nous l'avions interrogé sur l'évolution possible de cette tendance :

Il y a une sorte d'observation standard que l'on fait depuis un moment, sur le fait que les technologies ont tendance à évoluer, en commençant par être remarquables et extraordinaires, puis en faisant partie de la routine, pour finir par devenir invisibles, et lorsqu'elles sont invisibles vous savez qu'elles ont vraiment réussi. Un exemple classique de cette évolution, c'est l'électricité et l'énergie : d'abord c'était extraordinaire et c'était évident, puis c'est devenu la routine et maintenant c'est invisible.

Parce qu'elle est partout, elle est omniprésente, vous n'y pensez plus, elle est là quand vous en avez besoin, et ça n'a rien de nouveau, mais clairement ça devient de plus en plus vrai de manière continue. Et l'informatique prend la même direction : au départ c'était une chose extraordinaire qui impliquait que vous alliez dans un endroit donné pour l'utiliser, puis chacun a pu en bénéficier sur son bureau, ensuite chacun a pu l'emporter avec soi grâce aux portables, et maintenant bien sûr nous avons des téléphones qui sont plus puissants que certains de ces ordinateurs portables originaux, et bientôt même ceux-ci se réduiront encore pour devenir virtuellement invisibles.


L'ubiquité et la dissolution de la technologie dans notre environnement reposent sur deux évolutions parallèles : l'infrastructure du réseau mondial et les interfaces dites "naturelles".

À mesure que les réseaux haut débit s'étendent, de nouveaux services ont été rendus possibles. Aujourd'hui, YouTube compte pour 22 % du trafic mobile à lui seul, alors que la vidéo, sans même parler de la HD, n'était qu'un rêve lointain lorsque les modems émettaient encore leurs crissements sur le Réseau Téléphonique Commuté. Certes, la fibre optique et la 4G LTE sont encore loin de faire partie du quotidien de chaque internaute, mais il ne fait aucun doute qu'à terme le très haut débit sera accessible au plus grand nombre.

Le logiciel comme service

Ceux qui ont goûté au webmail ont eu un avant-goût des promesses d'un réseau accessible de n'importe où : quelle que soit la machine qu'on utilise, on retrouve en quelques clics ses données telles qu'on les avait laissées et une interface familière. Avec iTunes Match et iCloud, Apple a poussé cette logique pour la musique, et demain d'autres contenus encore. La dématérialisation avance à marche forcée : aujourd'hui les billets de train ou d'avion peuvent n'avoir d'existence que dans les serveurs des compagnies de transport, résumés dans la réalité à un simple code d'identification.

skitched

Des technologies comme OnLive rendent non seulement caduque la notion de compatibilité avec un système d'exploitation donné, mais même avec les capacités matérielles des machines. De grands éditeurs de logiciels comme Autodesk et probablement à terme Adobe investissent un nouveau modèle économique : le logiciel comme un service. Avec ce nouveau paradigme, l'utilisateur final ne paye plus à grands frais chaque mise à jour majeure, mais un abonnement plus modeste pour l'utilisation continue d'un logiciel qui s'exécute à distance et qui est maintenu en permanence.

Ainsi, finis les cycles des mises à jour : au quotidien, de nouvelles fonctionnalités sont ajoutées, des bugs sont corrigés, l'aspect matériel est entièrement maîtrisé puisque tout se fait sur des fermes de calcul distantes, qui plus est dotées d'une puissance impensable pour un poste de travail quelconque. En outre, plus aucune faille de sécurité ne peut être exploitée puisqu'aucun code n'est exécuté en local, sans même parler du piratage ou du casse-tête des utilisateurs qui s'entêtent à utiliser une ancienne version d'un logiciel donné dont les failles sont bien connues… et bien exploitées.

Naturellement un tel modèle, s'il présente des avantages indéniables, n'est pas sans inconvénient : avec une telle centralisation des données, l'appât est de taille pour les hackers qui peuvent récupérer d'un seul coup des millions de données confidentielles, là où il leur fallait autrefois s'attaquer à autant de postes différents. D'autre part, il suffit qu'une entreprise proposant ce type de service fasse faillite pour que ses utilisateurs perdent tout. Pour les professionnels, il y a cependant une solution intermédiaire, puisque les entreprises clientes de ces éditeurs, d'autant plus susceptibles de vouloir conserver la maîtrise de leurs données sans subir une pareille dépendance, pourront exploiter leurs propres serveurs. La sauvegarde et la maintenance en sera d'autant plus simplifiée, laissant comme seul problème technique à l'utilisateur final la maintenance d'une connexion au réseau, à laquelle, les logiciels sont en tout état de cause de plus en plus dépendants. Cette dissolution du problème technique et des contraintes liées à la technologie en rendront l'utilisation aussi simple qu'un poste de radio.

Ainsi, le moindre écran connecté permet de retrouver son environnement de travail tel quel en n'importe quel point de la planète pour peu qu'une connexion soit accessible, sans se préoccuper du système d'exploitation, ou de la puissance de la machine qui l'anime. C'est la naissance d'une plateforme universelle, indépendante des caprices des fabricants et des éditeurs de systèmes d'exploitation (qui ont pu parfois virer au chantage).

Mais en parallèle à cette dématérialisation à tout crin, la technologie redevient tangible.

Au doigt et à l'œil, ou le vrai langage de l'homme

Depuis la naissance du Macintosh, et en dépit d'une véritable explosion de la puissance des machines, voilà bientôt 28 ans que l'informatique reste engoncée dans la métaphore du bureau, sans variation fondamentale, avec comme uniques périphériques d'entrée le clavier et la souris. Prise en étau par le carcan Wintel, l'industrie est restée dans le statu quo. Avec le Mac, Apple créait un manifeste face à la ligne de commande : ça n'est pas à l'homme de parler le langage de la machine, mais à la machine de parler le langage de l'homme. Pour autant, si l'interface graphique a amplement démontré sa supériorité face à la ligne de commande, elle n'a cependant pas rempli ses promesses.

Le clavier comme la souris sont des intermédiaires entre l'utilisateur et ses données, qui font figure de bâtons dans les roues. Ils ont séparé le principe physique action-réaction, qui fait notre quotidien dans le monde réel, et qui régit notre façon d'aborder notre environnement naturel.
skitched
Les interfaces utilisateurs naturelles, ou NUI, viennent mettre un terme à ce clivage. Les écrans multitouch redonnent aux données une tangibilité que la dématérialisation leur avait fait perdre, et induisent un rapport physique entre l'utilisateur et le logiciel. Nous interagissons avec un écran tactile comme nous le faisons avec les objets du quotidien, mais avec l'augmentation de l'informatique ("la bicyclette pour l'esprit" comme se plaisait à dire Steve Jobs), l'expérience est indubitablement plus plaisante encore.

Les interfaces tactiles exploitent d'ailleurs certaines découvertes apportées par l'interface graphique, comme les éléments d'interface explicites dont l'aspect visuel indique la fonction. Apple ne s'est pas fourvoyée en basculant complètement l'interface d'iOS dans un galimatias gestuel : nombre de boutons conservent simplement une étiquette de texte indiquant leur fonction. L'interface tactile, lorsqu'elle exploite des gestes, retrouve un point commun avec la ligne de commande, puisqu'il faut connaître préalablement ce vocabulaire.

Comme pour l'interface graphique du Macintosh, Apple n'a pas inventé à proprement parler l'interface multitouch, mais c'est elle qui l'a industrialisée et mise en pratique. En 2006, Jeff Han faisait une démonstration impressionnante lors d'une conférence TED, mais son produit, un écran multitouch 82" qui coûte 100 000$, n'est toujours pas arrivé sur le marché (lire Du 82" multitouch au doigt et au stylet).











La chose nous est si naturelle qu'un bébé de quelques mois, ou même un animal de compagnie peuvent interagir avec un simple iPad. Peut-on imaginer la chose sur un ordinateur ? En dépit de la simplicité que l'interface graphique a amenée, il reste encore un apprentissage à faire pour s'en servir, sans même parler des arcanes propres aux OS historiques comme la gestion des fichiers.



Si la pression d'un simple bouton ne nécessite aucune explication, et si le déplacement du doigt n'est pas soumis aux contraintes de surface d'une souris ou d'un trackpad pour déplacer le curseur au-delà de l'espace physique disponible, l'interface multitouch nécessite malgré tout l'apprentissage d'un vocabulaire gestuel. Le zoom à deux doigts par exemple, s'il est frappé au coin du bon sens, ne reproduit pour autant aucun geste du monde réel, et pour cause. L'interface naturelle ne mérite pas ce titre pour son absence d'apprentissage, mais pour son mode même d'interaction, qui n'exploite aucun intermédiaire, aucun périphérique d'entrée apparent. Les consoles de jeu s'y sont également mises : avec le Kinect de Microsoft, plus besoin de joystick pour piloter le jeu.

skitched

Certes, la souris est plus précise et permet de cliquer au pixel près, mais à vrai dire cette précision n'est vraiment indispensable qu'avec une interface conçue pour la souris. En somme, elle n'est la réponse adaptée qu'au problème qu'elle induit elle-même. Sur un écran tactile, le zoom ou le stylet répondent aussi bien à cette problématique, et le pixel en lui-même se dissout dans les écrans Retina Display, d'autant qu'il apparaît possible que les Mac en bénéficient prochainement (lire Du retina display dans Lion).

Si Jobs conspuait le stylet dans un contexte de mobilité, ou l'écran tactile pour un poste de travail fixe, il ne faut cependant pas jeter bébé avec l'eau du bain. Si l'on en revient au rapport que nous entretenons avec les objets réels, préférerions-nous écrire ou dessiner au doigt sur du papier ? Préférerions-nous un intermédiaire entre notre main et les objets que nous souhaitons manipuler ? Selon les cas, probablement pas. Les graphistes qui utilisent chaque jour les tablettes-écrans de Wacom peuvent en témoigner : ce type d'utilisation est amplement supérieur au doigt ou à la souris pour la tâche à laquelle il se consacre.



Le HP TouchSmart, un "iMac tactile"


Concernant un écran tactile sur un poste de travail, il est en effet trop fatigant et contraignant d'avoir à lever le bras en permanence pour toucher l'écran, du moins s'il reste à la verticale. Mais c'est bien l'écran d'ordinateur, et qui plus est le tube cathodique, qui a modifié la posture de travail à un bureau. Lorsqu'il n'était encore question que de papier, nul ne semblait avoir un problème à écrire dessus à même la surface horizontale ou inclinée d'un bureau. Revenir à ce format pourrait donc fonctionner, à ceci près que le clavier viendrait encore en gêner l'utilisation.

skitched

L'écriture est d'abord née pour répondre aux problèmes d'intendance, permettant de conserver une trace mémorielle d'un inventaire, puis elle a permis la communication à distance ou en temps différé. Le clavier, d'abord né pour la machine à écrire, a permis dans un premier temps d'offrir les lettres d'imprimerie au plus grand nombre, puis de proposer un mode d'entrée de texte qui puisse être traité comme tel par une machine. S'il y a eu des tentatives d'interprétation du texte manuscrit, dont le Newton d'Apple ne fut pas le moindre représentant, elles se sont toutes avérées hasardeuses : même entre humains le déchiffrage du texte manuscrit n'est pas toujours probant (lire Pour quelques neurones de plus).

Mais le mode de communication naturel et privilégié de l'humain reste la parole. Avec un ordinateur capable de transcrire la parole, et mieux encore de la comprendre, le besoin d'un clavier pour entrer du texte se fait beaucoup moins sentir, en dehors de cas spécifiques comme le formatage ou les graphies qui sortent des sentiers battus, ou le besoin de confidentialité. Siri ne fait pour l'heure que lever un coin du voile sur ce qui nous attend en la matière, et les perspectives offertes par cette technologie ont de quoi enthousiasmer. Quel dialogue avec la machine serait plus naturel qu'une conversation à proprement parler ?

Les interfaces naturelles, si elles ont démontré leur intérêt dans les domaines qui sont actuellement les leurs, peuvent offrir les mêmes avantages sur les ordinateurs dignes de ce nom. Mais l'ordinateur lui-même se voit peu à peu démantelé pour intégrer notre quotidien et se transformer au gré de nos besoins. Comme l'électricité, il se dissout dans notre environnement, pour y être à la fois omniprésent et invisible. De la même manière que l'ordinateur a redéfini la façon de travailler de nombreux métiers, cette évolution de la technologie se ressentira dans notre façon de l'utiliser à l'avenir.

Il ne fait guère de doute que plus aucun smartphone ne sera livré à l'avenir sans écran tactile. Et il y a fort à parier que d'ici peu, les générations à venir considèreront le clavier et la souris, voire le poste de travail lui-même, comme de singulières incongruités.
avatar josselinrsa | 
Merci pour ces articles de fond, quoiqu'en disent certains...
avatar Frodor | 
Merci ! Très bon article :)
avatar fousfous | 
Je regarde la série américaine Caprica et je me dit que se déplacer avec des souris nous paraîtra archaïque dans quelques années, on se déplacera peut être dans les fps avec des système gyroscopique.
avatar nogui | 
Encore une fois , excellent article, même si certains vont encore crier au parti-pris Apple :-) Je pense qu'effectivement le tactile va prendre le pas sur les dispositif de pointage .. Seul l'écran vertical reste une barrière au tout tactile .. Mais avec les évolutions à venir pourquoi pas un écran style feuille de papier se déroulant sur le bureau , sans fil, avec une mini unité centrale type paquet à cigarette à coté pour tout le reste.. J'en rêve .. qui va le faire ?? :-)
avatar jer79 | 
Et en cas de coupure internet c'est mort... Et pour la province encore au 1 Mega dans le meilleur des cas ? Je n' ai jamais compris l'intérêt du multi touch pour un ordinateur Entre un doigt sur un écran et un coup de souris , y'a pas photo, la souris à fait 5 ou 6 actions de plus et surtout plus précisément, elle n'est pas près de disparaître comme ça Bref la dématérialisation à marche forcée mais l'infrastructure n'a pas suivit pour tout le monde Dans 10 ans on verra ... Si l'Internet libre existe toujours
avatar GerFaut | 
Bonne analyse. J'aurais plutôt dit “ dilution ” que “ dissolution ” mais bon. L'émergence et la généralisation des écrans tactiles et des “ smartphones ” n'implique pas du tout la disparition des autres outils informatiques (clavier, souris, tablettesWacom, stylets, etc.) dont l'article parle justement, mais entrainera la diversité de l'offre qui donnera à chaque besoin sa solution. C'est le même problème que celui des livres papier et numériques : à chacun selon ses besoins et ses envies. Quand à tout commander par la parole, je reste un brin dubitatif sur cette technique qui ne sera, AMHA, qu'un outil parmi les autres. J'imagine très bien dans une conversation (ou même à la télé) une personne dire « la grand mère s'est éteinte... » et éteindre effectivement toute l'électricité de la maison... Sans compter les discussions sans fin dans un appartement avec toutes sortes d'objets sensés réagir à la voix. Déjà qu'on croise assez souvent des zombies qui parlent tout seuls...
avatar Arnaud de la Grandière | 
@ jer79 : pareil pour l'électricité ou la panne d'essence, ça n'est pas pour autant qu'on se passe de technologies dans la crainte de ne plus pouvoir s'en servir momentanément…
avatar erobinsonn01 | 
Merci pour cet article. Pour ceux qui ne connaissent pas je vous conseille le site http://www.ted.com/ C'est un puits sans fin d'articles tout à fait passionnants. Vous avez une version traduite pour ceux qui ne parle pas anglais. http://www.ted.com/translate/languages/fr?page=1 Très bonnes fêtes à tous ainsi qu'à l'équipe de MG.
avatar joneskind | 
GG MacGé ! Super article. Pour un peu j'me serai cru dans un romans de science fiction. Toujours agréable de s'évader un peu.
avatar Tronculaire | 
En conclusion on peut mettre la video de Ballmer s exprimant sur le lancement de l iPhone?? ;) "un téléphone sans clavier?!! Hahahah" Un visionnaire qui s y connait en techno le gaillard...
avatar Nesus | 
Merci Arnauld, c'est toujours un plaisir que de lire un passionné des technologies qui réfléchit sur le fond. Avec MacGé nous sommes quand même drôlement gâté. La qualité est toujours là.
avatar XiliX | 
Yep... super article :-) [i] PS : je n'aurais pas du utiliser de smileys, je risque de devoir payer une licence à Ssg :-p [/i]
avatar Liam128 | 
Si j'étais Président du Monde, je ferais une loi qui interdit les mots "cloud", "dans le cloud", "le cloud", "dans les nuages", "dans le nuage" et "le nuage" en informatique. Ce terme pseudo-hype pour désigner un retour à l'informatique des années 60 à base de terminaux et de mainframes m'insupporte au possible.
avatar Liam128 | 
Quand je pense qu'Apple et le Macintosh ont basé leur succès sur une philosophie exprimée par le Macintosh lui-même et qui disait, devant une audience euphorique : "Never trust a computer you can't lift"... quel retour en arrière ! Sincèrement, ici, entre mac users, on devrait s'en souvenir, de cette philosophie : Never trust a computer you can't lift. Même (surtout) s'il est à 10 000 bornes de là.
avatar Oliviou | 
Même en imaginant qu'on crée une intelligence artificielle capable de discriminer la parole parfaitement (ex: en entendant "cher monsieur... Non, attends, je crois que c'est une dame, oui... Donc, chère madame, heuuu, c'est avec un grand plaisir que heuuu, non , c'est -oui, j'arrive! Je finis un truc!- donc on en était où? Ah oui, c'est avec une grande joie que heu, je réponds à votre courrier.", l'ordinateur écrit "Chère madame, c'est avec une grande joie que je réponds à votre courrier."), même en admettant ceci, il reste d'autres problèmes que ceux mentionnés: la cacophonie dans les open-Space, et surtout le fait qu'on n'organise pas sa pensée de la même façon quand on écrit que quand on parle. En d'autres termes: on n'écrit pas à voix haute, mais "dans sa tête". Essayez donc de dicter un article ou un livre. C'est beaucoup plus long que de l'écrire. Et je ne parle même pas de la rapidité que le couple clavier-souris permet pour les corrections. Une interface 100% vocale, si elle parait plus simple pour des usages type Siri, est en fait plus compliquée pour les tâches de rédaction.
avatar WilnocK | 
Article tres sympathique, tres jolie, qui trouvera peut-etre sa realisation sous une forme simple dans 30-40 ans... Bien que je pense que l'etape du 'Cloud' ne va faire qu'un temps et va assez rapidement dechanter.
avatar nogui | 
@Liam128 "Si j'étais Président du Monde, je ferais une loi qui interdit les mots "cloud", "dans le cloud", "le cloud", "dans les nuages", "dans le nuage" et "le nuage" en informatique. Ce terme pseudo-hype pour désigner un retour à l'informatique des années 60 à base de terminaux et de mainframes m'insupporte au possible." Pauvre de nous ! Reste où tu es par pitié !! :-)
avatar RDBILL | 
belle réflexion en vérité !
avatar Mabeille | 
mouai pour ma part le tactile devrait être dépasser par des trucs genre kinect.
avatar fantomx6 | 
Saluons pour une fois le génie et "l'avant-gardisme" français. Voilà que le reste du monde se pâme sur le retour du minitel.
avatar nogui | 
@Mabeille "mouai pour ma part le tactile devrait être dépasser par des trucs genre kinect."" Genre "Minority Report" ? Avec image holographique alors .. Mais pour le coup c'est pour 2030 alors .... :-)
avatar pat3 | 
J'ai apprécié l'article en général, mais je suis gêné par son côté anticipation gratuite; notamment quand j'ai lu ça: Ainsi, finis les cycles des mises à jour : au quotidien, de nouvelles fonctionnalités sont ajoutées, des bugs sont corrigés, l'aspect matériel est entièrement maîtrisé puisque tout se fait sur des fermes de calcul distantes, qui plus est dotées d'une puissance impensable pour un poste de travail quelconque. En outre, plus aucune faille de sécurité ne peut être exploitée puisqu'aucun code n'est exécuté en local, sans même parler du piratage ou du casse-tête des utilisateurs qui s'entêtent à utiliser une ancienne version d'un logiciel donné dont les failles sont bien connues… et bien exploitées.[/quote] Pas d'accord, les cycles de mise à jour existeront toujours, mais ils seront invisibles, et quid des mises à jour plantogènes qui dans un tel scénario mettront tout le monde dans la panade. Aucune faille de sécurité? La bonne blague, quand on voit comment les serveurs de Sony ont été piratés en masse, mais ce n'est qu'un exemple. Sans sauvegarde locale, on sera à la merci de fournisseurs d'espace online. Enfin, je ne vois pas comment les constructeurs se laisseraient dépouiller par les fournisseurs de contenu: il y aura bien une entente au sommet pour rendre presque obligatoire la mise à jour matérielle… Bref, une vision un peu trop idyllique d'un futur débarrassé des "lois du marché".
avatar Mabeille | 
@nogui 2030? possible mais alors chez Apple. Les concurrents avancent plus vite apparemment. Notamment chez les méchants Microsoft.
avatar nogui | 
@Mabeille "2030 ? possible mais alors chez Apple. Les concurrents avancent plus vite apparemment. Notamment chez les méchants Microsoft." Microsoft ? Ha oui c'est vrai ! Le kinect c'est eux ... Je me disais aussi ... Je voulais dire 2030 pour les écrans ... MS sont hors concourt la dessus Bon pour une fois qu'ils inventent une nouvelle technologie (kinect) il faut le souligner , d'où ta suggestion ok ok,... :)
avatar Mabeille | 
@nogui non as tu vu le film d'anticipation Microsoft... toutes les techno ont déjà été inventé... les écrans translucides ont déjà été annoncé, une société française a même mis au point un systeme de "panneau solaire" sur écran translucide... La réalité augmentée est aussi annoncée. Ca va bouger pas mal dans les 5 ans. Les écran souples annoncés aussi les écran oled avec un meilleur rendement dans la fab pareil ... donc avant 2030 et je disais donc cela en affirmant que non le monde de l'informatique ne va pas attendre Apple loin s'en faut. En même temps Apple fait son chemin pas contre les autres mais en paralelle avec sa philosophie qui pourrait être la meilleure ou pas... Je me rejouis juste que la concurrence soit là.

Pages

CONNEXION UTILISATEUR