Evolution technologique : ubiquité et transparence

Arnaud de la Grandière |
interfacesDepuis quelques années, les outils technologiques suivent une double tendance apparemment contradictoire : l'ubiquité et la dissolution. Ils sont à la fois partout dans notre environnement, et nulle part puisqu'ils ont non seulement tendance à s'effacer, mais également à s'abstraire géographiquement dans le "cloud". À quoi pourrait ressembler notre environnement technologique dans un avenir proche si l'on suit cette tendance ?

Lors de notre interview au MIT avec le Professeur Randall Davis (lire MIT : à la croisée de l'intelligence artificielle et des nouvelles interfaces), nous l'avions interrogé sur l'évolution possible de cette tendance :

Il y a une sorte d'observation standard que l'on fait depuis un moment, sur le fait que les technologies ont tendance à évoluer, en commençant par être remarquables et extraordinaires, puis en faisant partie de la routine, pour finir par devenir invisibles, et lorsqu'elles sont invisibles vous savez qu'elles ont vraiment réussi. Un exemple classique de cette évolution, c'est l'électricité et l'énergie : d'abord c'était extraordinaire et c'était évident, puis c'est devenu la routine et maintenant c'est invisible.

Parce qu'elle est partout, elle est omniprésente, vous n'y pensez plus, elle est là quand vous en avez besoin, et ça n'a rien de nouveau, mais clairement ça devient de plus en plus vrai de manière continue. Et l'informatique prend la même direction : au départ c'était une chose extraordinaire qui impliquait que vous alliez dans un endroit donné pour l'utiliser, puis chacun a pu en bénéficier sur son bureau, ensuite chacun a pu l'emporter avec soi grâce aux portables, et maintenant bien sûr nous avons des téléphones qui sont plus puissants que certains de ces ordinateurs portables originaux, et bientôt même ceux-ci se réduiront encore pour devenir virtuellement invisibles.


L'ubiquité et la dissolution de la technologie dans notre environnement reposent sur deux évolutions parallèles : l'infrastructure du réseau mondial et les interfaces dites "naturelles".

À mesure que les réseaux haut débit s'étendent, de nouveaux services ont été rendus possibles. Aujourd'hui, YouTube compte pour 22 % du trafic mobile à lui seul, alors que la vidéo, sans même parler de la HD, n'était qu'un rêve lointain lorsque les modems émettaient encore leurs crissements sur le Réseau Téléphonique Commuté. Certes, la fibre optique et la 4G LTE sont encore loin de faire partie du quotidien de chaque internaute, mais il ne fait aucun doute qu'à terme le très haut débit sera accessible au plus grand nombre.

Le logiciel comme service

Ceux qui ont goûté au webmail ont eu un avant-goût des promesses d'un réseau accessible de n'importe où : quelle que soit la machine qu'on utilise, on retrouve en quelques clics ses données telles qu'on les avait laissées et une interface familière. Avec iTunes Match et iCloud, Apple a poussé cette logique pour la musique, et demain d'autres contenus encore. La dématérialisation avance à marche forcée : aujourd'hui les billets de train ou d'avion peuvent n'avoir d'existence que dans les serveurs des compagnies de transport, résumés dans la réalité à un simple code d'identification.

skitched

Des technologies comme OnLive rendent non seulement caduque la notion de compatibilité avec un système d'exploitation donné, mais même avec les capacités matérielles des machines. De grands éditeurs de logiciels comme Autodesk et probablement à terme Adobe investissent un nouveau modèle économique : le logiciel comme un service. Avec ce nouveau paradigme, l'utilisateur final ne paye plus à grands frais chaque mise à jour majeure, mais un abonnement plus modeste pour l'utilisation continue d'un logiciel qui s'exécute à distance et qui est maintenu en permanence.

Ainsi, finis les cycles des mises à jour : au quotidien, de nouvelles fonctionnalités sont ajoutées, des bugs sont corrigés, l'aspect matériel est entièrement maîtrisé puisque tout se fait sur des fermes de calcul distantes, qui plus est dotées d'une puissance impensable pour un poste de travail quelconque. En outre, plus aucune faille de sécurité ne peut être exploitée puisqu'aucun code n'est exécuté en local, sans même parler du piratage ou du casse-tête des utilisateurs qui s'entêtent à utiliser une ancienne version d'un logiciel donné dont les failles sont bien connues… et bien exploitées.

Naturellement un tel modèle, s'il présente des avantages indéniables, n'est pas sans inconvénient : avec une telle centralisation des données, l'appât est de taille pour les hackers qui peuvent récupérer d'un seul coup des millions de données confidentielles, là où il leur fallait autrefois s'attaquer à autant de postes différents. D'autre part, il suffit qu'une entreprise proposant ce type de service fasse faillite pour que ses utilisateurs perdent tout. Pour les professionnels, il y a cependant une solution intermédiaire, puisque les entreprises clientes de ces éditeurs, d'autant plus susceptibles de vouloir conserver la maîtrise de leurs données sans subir une pareille dépendance, pourront exploiter leurs propres serveurs. La sauvegarde et la maintenance en sera d'autant plus simplifiée, laissant comme seul problème technique à l'utilisateur final la maintenance d'une connexion au réseau, à laquelle, les logiciels sont en tout état de cause de plus en plus dépendants. Cette dissolution du problème technique et des contraintes liées à la technologie en rendront l'utilisation aussi simple qu'un poste de radio.

Ainsi, le moindre écran connecté permet de retrouver son environnement de travail tel quel en n'importe quel point de la planète pour peu qu'une connexion soit accessible, sans se préoccuper du système d'exploitation, ou de la puissance de la machine qui l'anime. C'est la naissance d'une plateforme universelle, indépendante des caprices des fabricants et des éditeurs de systèmes d'exploitation (qui ont pu parfois virer au chantage).

Mais en parallèle à cette dématérialisation à tout crin, la technologie redevient tangible.

Au doigt et à l'œil, ou le vrai langage de l'homme

Depuis la naissance du Macintosh, et en dépit d'une véritable explosion de la puissance des machines, voilà bientôt 28 ans que l'informatique reste engoncée dans la métaphore du bureau, sans variation fondamentale, avec comme uniques périphériques d'entrée le clavier et la souris. Prise en étau par le carcan Wintel, l'industrie est restée dans le statu quo. Avec le Mac, Apple créait un manifeste face à la ligne de commande : ça n'est pas à l'homme de parler le langage de la machine, mais à la machine de parler le langage de l'homme. Pour autant, si l'interface graphique a amplement démontré sa supériorité face à la ligne de commande, elle n'a cependant pas rempli ses promesses.

Le clavier comme la souris sont des intermédiaires entre l'utilisateur et ses données, qui font figure de bâtons dans les roues. Ils ont séparé le principe physique action-réaction, qui fait notre quotidien dans le monde réel, et qui régit notre façon d'aborder notre environnement naturel.
skitched
Les interfaces utilisateurs naturelles, ou NUI, viennent mettre un terme à ce clivage. Les écrans multitouch redonnent aux données une tangibilité que la dématérialisation leur avait fait perdre, et induisent un rapport physique entre l'utilisateur et le logiciel. Nous interagissons avec un écran tactile comme nous le faisons avec les objets du quotidien, mais avec l'augmentation de l'informatique ("la bicyclette pour l'esprit" comme se plaisait à dire Steve Jobs), l'expérience est indubitablement plus plaisante encore.

Les interfaces tactiles exploitent d'ailleurs certaines découvertes apportées par l'interface graphique, comme les éléments d'interface explicites dont l'aspect visuel indique la fonction. Apple ne s'est pas fourvoyée en basculant complètement l'interface d'iOS dans un galimatias gestuel : nombre de boutons conservent simplement une étiquette de texte indiquant leur fonction. L'interface tactile, lorsqu'elle exploite des gestes, retrouve un point commun avec la ligne de commande, puisqu'il faut connaître préalablement ce vocabulaire.

Comme pour l'interface graphique du Macintosh, Apple n'a pas inventé à proprement parler l'interface multitouch, mais c'est elle qui l'a industrialisée et mise en pratique. En 2006, Jeff Han faisait une démonstration impressionnante lors d'une conférence TED, mais son produit, un écran multitouch 82" qui coûte 100 000$, n'est toujours pas arrivé sur le marché (lire Du 82" multitouch au doigt et au stylet).











La chose nous est si naturelle qu'un bébé de quelques mois, ou même un animal de compagnie peuvent interagir avec un simple iPad. Peut-on imaginer la chose sur un ordinateur ? En dépit de la simplicité que l'interface graphique a amenée, il reste encore un apprentissage à faire pour s'en servir, sans même parler des arcanes propres aux OS historiques comme la gestion des fichiers.



Si la pression d'un simple bouton ne nécessite aucune explication, et si le déplacement du doigt n'est pas soumis aux contraintes de surface d'une souris ou d'un trackpad pour déplacer le curseur au-delà de l'espace physique disponible, l'interface multitouch nécessite malgré tout l'apprentissage d'un vocabulaire gestuel. Le zoom à deux doigts par exemple, s'il est frappé au coin du bon sens, ne reproduit pour autant aucun geste du monde réel, et pour cause. L'interface naturelle ne mérite pas ce titre pour son absence d'apprentissage, mais pour son mode même d'interaction, qui n'exploite aucun intermédiaire, aucun périphérique d'entrée apparent. Les consoles de jeu s'y sont également mises : avec le Kinect de Microsoft, plus besoin de joystick pour piloter le jeu.

skitched

Certes, la souris est plus précise et permet de cliquer au pixel près, mais à vrai dire cette précision n'est vraiment indispensable qu'avec une interface conçue pour la souris. En somme, elle n'est la réponse adaptée qu'au problème qu'elle induit elle-même. Sur un écran tactile, le zoom ou le stylet répondent aussi bien à cette problématique, et le pixel en lui-même se dissout dans les écrans Retina Display, d'autant qu'il apparaît possible que les Mac en bénéficient prochainement (lire Du retina display dans Lion).

Si Jobs conspuait le stylet dans un contexte de mobilité, ou l'écran tactile pour un poste de travail fixe, il ne faut cependant pas jeter bébé avec l'eau du bain. Si l'on en revient au rapport que nous entretenons avec les objets réels, préférerions-nous écrire ou dessiner au doigt sur du papier ? Préférerions-nous un intermédiaire entre notre main et les objets que nous souhaitons manipuler ? Selon les cas, probablement pas. Les graphistes qui utilisent chaque jour les tablettes-écrans de Wacom peuvent en témoigner : ce type d'utilisation est amplement supérieur au doigt ou à la souris pour la tâche à laquelle il se consacre.



Le HP TouchSmart, un "iMac tactile"


Concernant un écran tactile sur un poste de travail, il est en effet trop fatigant et contraignant d'avoir à lever le bras en permanence pour toucher l'écran, du moins s'il reste à la verticale. Mais c'est bien l'écran d'ordinateur, et qui plus est le tube cathodique, qui a modifié la posture de travail à un bureau. Lorsqu'il n'était encore question que de papier, nul ne semblait avoir un problème à écrire dessus à même la surface horizontale ou inclinée d'un bureau. Revenir à ce format pourrait donc fonctionner, à ceci près que le clavier viendrait encore en gêner l'utilisation.

skitched

L'écriture est d'abord née pour répondre aux problèmes d'intendance, permettant de conserver une trace mémorielle d'un inventaire, puis elle a permis la communication à distance ou en temps différé. Le clavier, d'abord né pour la machine à écrire, a permis dans un premier temps d'offrir les lettres d'imprimerie au plus grand nombre, puis de proposer un mode d'entrée de texte qui puisse être traité comme tel par une machine. S'il y a eu des tentatives d'interprétation du texte manuscrit, dont le Newton d'Apple ne fut pas le moindre représentant, elles se sont toutes avérées hasardeuses : même entre humains le déchiffrage du texte manuscrit n'est pas toujours probant (lire Pour quelques neurones de plus).

Mais le mode de communication naturel et privilégié de l'humain reste la parole. Avec un ordinateur capable de transcrire la parole, et mieux encore de la comprendre, le besoin d'un clavier pour entrer du texte se fait beaucoup moins sentir, en dehors de cas spécifiques comme le formatage ou les graphies qui sortent des sentiers battus, ou le besoin de confidentialité. Siri ne fait pour l'heure que lever un coin du voile sur ce qui nous attend en la matière, et les perspectives offertes par cette technologie ont de quoi enthousiasmer. Quel dialogue avec la machine serait plus naturel qu'une conversation à proprement parler ?

Les interfaces naturelles, si elles ont démontré leur intérêt dans les domaines qui sont actuellement les leurs, peuvent offrir les mêmes avantages sur les ordinateurs dignes de ce nom. Mais l'ordinateur lui-même se voit peu à peu démantelé pour intégrer notre quotidien et se transformer au gré de nos besoins. Comme l'électricité, il se dissout dans notre environnement, pour y être à la fois omniprésent et invisible. De la même manière que l'ordinateur a redéfini la façon de travailler de nombreux métiers, cette évolution de la technologie se ressentira dans notre façon de l'utiliser à l'avenir.

Il ne fait guère de doute que plus aucun smartphone ne sera livré à l'avenir sans écran tactile. Et il y a fort à parier que d'ici peu, les générations à venir considèreront le clavier et la souris, voire le poste de travail lui-même, comme de singulières incongruités.
avatar josselinrsa | 
Merci pour ces articles de fond, quoiqu'en disent certains...
avatar Frodor | 
Merci ! Très bon article :)
avatar fousfous | 
Je regarde la série américaine Caprica et je me dit que se déplacer avec des souris nous paraîtra archaïque dans quelques années, on se déplacera peut être dans les fps avec des système gyroscopique.
avatar nogui | 
Encore une fois , excellent article, même si certains vont encore crier au parti-pris Apple :-) Je pense qu'effectivement le tactile va prendre le pas sur les dispositif de pointage .. Seul l'écran vertical reste une barrière au tout tactile .. Mais avec les évolutions à venir pourquoi pas un écran style feuille de papier se déroulant sur le bureau , sans fil, avec une mini unité centrale type paquet à cigarette à coté pour tout le reste.. J'en rêve .. qui va le faire ?? :-)
avatar jer79 | 
Et en cas de coupure internet c'est mort... Et pour la province encore au 1 Mega dans le meilleur des cas ? Je n' ai jamais compris l'intérêt du multi touch pour un ordinateur Entre un doigt sur un écran et un coup de souris , y'a pas photo, la souris à fait 5 ou 6 actions de plus et surtout plus précisément, elle n'est pas près de disparaître comme ça Bref la dématérialisation à marche forcée mais l'infrastructure n'a pas suivit pour tout le monde Dans 10 ans on verra ... Si l'Internet libre existe toujours
avatar GerFaut | 
Bonne analyse. J'aurais plutôt dit “ dilution ” que “ dissolution ” mais bon. L'émergence et la généralisation des écrans tactiles et des “ smartphones ” n'implique pas du tout la disparition des autres outils informatiques (clavier, souris, tablettesWacom, stylets, etc.) dont l'article parle justement, mais entrainera la diversité de l'offre qui donnera à chaque besoin sa solution. C'est le même problème que celui des livres papier et numériques : à chacun selon ses besoins et ses envies. Quand à tout commander par la parole, je reste un brin dubitatif sur cette technique qui ne sera, AMHA, qu'un outil parmi les autres. J'imagine très bien dans une conversation (ou même à la télé) une personne dire « la grand mère s'est éteinte... » et éteindre effectivement toute l'électricité de la maison... Sans compter les discussions sans fin dans un appartement avec toutes sortes d'objets sensés réagir à la voix. Déjà qu'on croise assez souvent des zombies qui parlent tout seuls...
avatar Arnaud de la Grandière | 
@ jer79 : pareil pour l'électricité ou la panne d'essence, ça n'est pas pour autant qu'on se passe de technologies dans la crainte de ne plus pouvoir s'en servir momentanément…
avatar erobinsonn01 | 
Merci pour cet article. Pour ceux qui ne connaissent pas je vous conseille le site http://www.ted.com/ C'est un puits sans fin d'articles tout à fait passionnants. Vous avez une version traduite pour ceux qui ne parle pas anglais. http://www.ted.com/translate/languages/fr?page=1 Très bonnes fêtes à tous ainsi qu'à l'équipe de MG.
avatar joneskind | 
GG MacGé ! Super article. Pour un peu j'me serai cru dans un romans de science fiction. Toujours agréable de s'évader un peu.
avatar Tronculaire | 
En conclusion on peut mettre la video de Ballmer s exprimant sur le lancement de l iPhone?? ;) "un téléphone sans clavier?!! Hahahah" Un visionnaire qui s y connait en techno le gaillard...
avatar Nesus | 
Merci Arnauld, c'est toujours un plaisir que de lire un passionné des technologies qui réfléchit sur le fond. Avec MacGé nous sommes quand même drôlement gâté. La qualité est toujours là.
avatar XiliX | 
Yep... super article :-) [i] PS : je n'aurais pas du utiliser de smileys, je risque de devoir payer une licence à Ssg :-p [/i]
avatar Liam128 | 
Si j'étais Président du Monde, je ferais une loi qui interdit les mots "cloud", "dans le cloud", "le cloud", "dans les nuages", "dans le nuage" et "le nuage" en informatique. Ce terme pseudo-hype pour désigner un retour à l'informatique des années 60 à base de terminaux et de mainframes m'insupporte au possible.
avatar Liam128 | 
Quand je pense qu'Apple et le Macintosh ont basé leur succès sur une philosophie exprimée par le Macintosh lui-même et qui disait, devant une audience euphorique : "Never trust a computer you can't lift"... quel retour en arrière ! Sincèrement, ici, entre mac users, on devrait s'en souvenir, de cette philosophie : Never trust a computer you can't lift. Même (surtout) s'il est à 10 000 bornes de là.
avatar Oliviou | 
Même en imaginant qu'on crée une intelligence artificielle capable de discriminer la parole parfaitement (ex: en entendant "cher monsieur... Non, attends, je crois que c'est une dame, oui... Donc, chère madame, heuuu, c'est avec un grand plaisir que heuuu, non , c'est -oui, j'arrive! Je finis un truc!- donc on en était où? Ah oui, c'est avec une grande joie que heu, je réponds à votre courrier.", l'ordinateur écrit "Chère madame, c'est avec une grande joie que je réponds à votre courrier."), même en admettant ceci, il reste d'autres problèmes que ceux mentionnés: la cacophonie dans les open-Space, et surtout le fait qu'on n'organise pas sa pensée de la même façon quand on écrit que quand on parle. En d'autres termes: on n'écrit pas à voix haute, mais "dans sa tête". Essayez donc de dicter un article ou un livre. C'est beaucoup plus long que de l'écrire. Et je ne parle même pas de la rapidité que le couple clavier-souris permet pour les corrections. Une interface 100% vocale, si elle parait plus simple pour des usages type Siri, est en fait plus compliquée pour les tâches de rédaction.
avatar WilnocK | 
Article tres sympathique, tres jolie, qui trouvera peut-etre sa realisation sous une forme simple dans 30-40 ans... Bien que je pense que l'etape du 'Cloud' ne va faire qu'un temps et va assez rapidement dechanter.
avatar nogui | 
@Liam128 "Si j'étais Président du Monde, je ferais une loi qui interdit les mots "cloud", "dans le cloud", "le cloud", "dans les nuages", "dans le nuage" et "le nuage" en informatique. Ce terme pseudo-hype pour désigner un retour à l'informatique des années 60 à base de terminaux et de mainframes m'insupporte au possible." Pauvre de nous ! Reste où tu es par pitié !! :-)
avatar RDBILL | 
belle réflexion en vérité !
avatar Mabeille | 
mouai pour ma part le tactile devrait être dépasser par des trucs genre kinect.
avatar fantomx6 | 
Saluons pour une fois le génie et "l'avant-gardisme" français. Voilà que le reste du monde se pâme sur le retour du minitel.
avatar nogui | 
@Mabeille "mouai pour ma part le tactile devrait être dépasser par des trucs genre kinect."" Genre "Minority Report" ? Avec image holographique alors .. Mais pour le coup c'est pour 2030 alors .... :-)
avatar pat3 | 
J'ai apprécié l'article en général, mais je suis gêné par son côté anticipation gratuite; notamment quand j'ai lu ça: Ainsi, finis les cycles des mises à jour : au quotidien, de nouvelles fonctionnalités sont ajoutées, des bugs sont corrigés, l'aspect matériel est entièrement maîtrisé puisque tout se fait sur des fermes de calcul distantes, qui plus est dotées d'une puissance impensable pour un poste de travail quelconque. En outre, plus aucune faille de sécurité ne peut être exploitée puisqu'aucun code n'est exécuté en local, sans même parler du piratage ou du casse-tête des utilisateurs qui s'entêtent à utiliser une ancienne version d'un logiciel donné dont les failles sont bien connues… et bien exploitées.[/quote] Pas d'accord, les cycles de mise à jour existeront toujours, mais ils seront invisibles, et quid des mises à jour plantogènes qui dans un tel scénario mettront tout le monde dans la panade. Aucune faille de sécurité? La bonne blague, quand on voit comment les serveurs de Sony ont été piratés en masse, mais ce n'est qu'un exemple. Sans sauvegarde locale, on sera à la merci de fournisseurs d'espace online. Enfin, je ne vois pas comment les constructeurs se laisseraient dépouiller par les fournisseurs de contenu: il y aura bien une entente au sommet pour rendre presque obligatoire la mise à jour matérielle… Bref, une vision un peu trop idyllique d'un futur débarrassé des "lois du marché".
avatar Mabeille | 
@nogui 2030? possible mais alors chez Apple. Les concurrents avancent plus vite apparemment. Notamment chez les méchants Microsoft.
avatar nogui | 
@Mabeille "2030 ? possible mais alors chez Apple. Les concurrents avancent plus vite apparemment. Notamment chez les méchants Microsoft." Microsoft ? Ha oui c'est vrai ! Le kinect c'est eux ... Je me disais aussi ... Je voulais dire 2030 pour les écrans ... MS sont hors concourt la dessus Bon pour une fois qu'ils inventent une nouvelle technologie (kinect) il faut le souligner , d'où ta suggestion ok ok,... :)
avatar Mabeille | 
@nogui non as tu vu le film d'anticipation Microsoft... toutes les techno ont déjà été inventé... les écrans translucides ont déjà été annoncé, une société française a même mis au point un systeme de "panneau solaire" sur écran translucide... La réalité augmentée est aussi annoncée. Ca va bouger pas mal dans les 5 ans. Les écran souples annoncés aussi les écran oled avec un meilleur rendement dans la fab pareil ... donc avant 2030 et je disais donc cela en affirmant que non le monde de l'informatique ne va pas attendre Apple loin s'en faut. En même temps Apple fait son chemin pas contre les autres mais en paralelle avec sa philosophie qui pourrait être la meilleure ou pas... Je me rejouis juste que la concurrence soit là.
avatar sopcaja | 
[quote]Bon pour une fois qu'ils [b] inventent [/b] une nouvelle technologie (kinect) il faut le souligner , d'où ta suggestion ok ok,... :) [/quote] Et même là c'est pas M$ qui l'a inventé : c'est plutôt PrimeSense http://fr.wikipedia.org/wiki/Kinect C'est bon je ------
avatar Lierpok | 
Oui et non, le milieu amateur ou le milieu pro, il ne faut pas tout mélanger (un graphiste web design)
avatar Jiminy Panoz | 
@nogui "Pauvre de nous ! Reste où tu es par pitié !! :-)" Il n'en reste pas moins qu'il y a de sérieuses problématiques à prendre en compte… Jamais propriétaire de ce que tu achètes (hybride entre location et achat quoi), le tout dans des écosystèmes propriétaires et le moins intéropérables possibles (DRM, formats proprios, etc.), avec une grosse question sur la pérennité des solutions (si la boîte coule, il se passe quoi ? Tu perds tout ?) Même si le cloud peut rendre des fiers services, il n'en reste pas moins qu'il y a beaucoup de choses à voir sur un plan philosophique et éthique. Et si les gens foncent là-dedans sans se poser de questions, ça risque de faire très mal… Exemple contemporain : livre numérique, où le cloud existe d'ores et déjà, avec une certaine bipolarité où tu as une vision libertaire d'un côté (libérer le livre du papier, des pratiques dégueulasses de l'industrie et de ses défauts de stockage / diffusion) et des systèmes fermés ou semi fermés à côté. - Kindle -> format proprio (que tu peux encore convertir, mais le plus drôle c'est que la majorité des fichiers qui sont envoyés à Amazon le sont dans le format EPUB, standard de l'industrie adopté par toute la concurrence). - Les autres -> format standard EPUB mais différentes manières d'intégrer les fonctions du format d'où intéropérabilité réduite + DRMs. DRM Adobe peut être cassé mais le DRM Adobe est géré par une boîte tierce qui fait payer la solution (donc éditeurs et libraires hyper-dépendants des choix stratégiques et politiques de cette boîte), DRM Apple FairPlay, ça fait 3 ans et demie qu'on essaye de le casser (il est tombé pour musique, vidéo et apps mais là, Apple a fait très fort puisque ce sont la totalité des fichiers du livre (HTML, CSS, javascript, même les images) qui sont encodés en AES256 et qu'on arrive pas trouver la faille dans le système "FairPlay dataenc". Bref, sitôt entré dans un écosystème, tu y es quasiment pour la vie. Si tu vois pas le danger là-dedans…
avatar Jiminy Panoz | 
[Suite] Sans oublier qu'à passer par des services cloud tiers (genre Dropbox ou box.net), tu es légalement obligé de leur transférer le droit de propriété de tes fichiers… Ça marche aussi pour Facebook et ces trucs-là. Bref, on te vend quelque chose qui ne t'appartient jamais (on te vends une licence de "lecture"), mais en plus on t'enlève la propriété de tes choses à toi…
avatar lyon3 | 
Merci pour cet article, c'est un excellent cadeau de Noël que nous fait macg. De quoi rêver un peu...
avatar Mecky | 
Bon bin pour ce coup-ci, je donne plutôt raison à Pat3 et Jiminy Panoz. On voit que vous (les autres) n'avez pas eu dans les années '70 à vous dépêtrer des mailles d'IBM ! Bis repetita. L'Histoire ne vous apprendra donc rien. Aucune leçon ? Oubliez les doux rêves où tout le monde il est gentil. Il suffit d'un couillon, d'un abruti, d'un demeuré, d'un détraqué pour que le château de cartes s'écroule ! (Pour le "détraqué" aussi, l'Histoire nous enseigne la prudence.) Quant aux interfaces, là aussi, prenez du recul dans votre réflexion. Avez-vous déjà vu le nombre de modèles de marteaux différents ? Le bon outil approprié au bon usage ! C'est ce qui fait le métier. Que l'on commence à maîtriser les reconnaissances écrite et vocale, tant mieux ! De là à en faire le passage obligé, non merci. Double signification : "n'y aurait-il qu'un "sens" à votre vie ?"
avatar ispeed | 
Vous oubliez le principal: C'est d'attirer le maximum de clients pour passer à la caisse. Le nerf de la guerre c'est l'argent. Je ne crois pas trop au côté innovation même si ça reste encore du possible. A voir tous ces géants de l'industrie électronique se battent pour finalement essayer d'avoir le monopole. Aujourd'hui on nous vend des produits en essayant de nous rendre captif de la marque et ainsi tous les mois ramasser le blé et Apple est maître en la matière. J'ai bien peur qu'on perde cette liberté mais qu'on nous ferme dans un système, certes peut cher, mais énorme par la quantité de clients captifs.
avatar sekhmet | 
Pour en revenir aux interfaces naturelle, j'avoue que je suis impressionné de voir ma fille avec mon ipad... elle l'a eu entre les mains pour la première fois à 6 mois, maintenant à 19 mois, sans que je lui explique du tout, ni même lui montre volontairement, elle ferme ses application avec le geste à 5 doigts, ça m'a scié quand je l'ai vu faire ça...elle a du me voir le faire, mais quand même ça montre que effectivement la courbe d'apprentissage est plus simple que les interfaces textuelle, souris+ clavier...
avatar Rollingman | 
@ Oliviou Bonjour, ce que tu écris est un peu faux. Mais un peu vrai également. J'utilise la reconnaissance vocale depuis une douzaine d'années. Au départ, cela n'a pas été par plaisir mais plutôt par "obligation". Étant devenu tétraplégique, et passant le plus clair de mon temps sur les ordinateurs, j'étais bien obligé de trouver un moyen pour continuer à utiliser l'informatique… Sinon, c'était l'ennui mortel assuré. En fait, j'ai pu me rendre compte au départ que je tombais sur les problèmes dont tu parles : lorsque l'on veut dicter, il faut préalablement structurer ses phrases dans sa tête. Même avec la ponctuation si l'on tient à avoir un minimum d'erreurs de grammaire (les erreurs d'orthographe n'existant pas dans la reconnaissance vocale, celle-ci faisant appel à une sorte de dictionnaire). Donc pour cela, tu a raison. Mais c'est un faux problème si l'on imagine que la reconnaissance vocale va servir tout le temps, et pas juste pour voir comment ça marche. Faux problème, parce qu'en fait, c'est un simple apprentissage, tout comme savoir taper avec un clavier. Qui au début n'a pas passée un quart d'heure pour écrire cinq lignes ? Avec un ou deux doigts. La reconnaissance vocale, c'est pareil. Au début, on ne sait pas dicter, ensuite, ça rentre de mieux en mieux et ça devient difficile de s'en passer. Dans mon cas, en prenant le temps de réfléchir avant chaque phrase, je mets cinq minutes pour écrire une pleine page A4. Pour la correction, il y a des automatismes. Là encore, c'est pénible les premiers temps, mais ça rentre très vite et ça devient très rapide. En fait, ça écrit tellement vite que même en admettant que tu fasses beaucoup de fautes, le temps que tu passes à corriger ne sera absolument pas pénalisant du fait que la rédaction aura été trois fois plus rapide que quelqu'un qui sait taper avec ses 10 doigts.
avatar Rollingman | 
Et là encore, si tu vois tes fautes, c'est que tu sais écrire, et si tu sais écrire, alors avec un minimum d'apprentissage, tu sauras dicter comme il faut (je dis toi, mais c'est général). Mais évidemment, tout est question d'apprentissage. Comme pour le clavier… Il ne faut pas oublier que la reconnaissance vocale ne concerne pas que la rédaction de textes. En ce qui me concerne, je l'ai utilisé jusqu'à l'année dernière (période à laquelle je suis passé sous Mac) pour contrôler mon PC. C'est fantastique ! Il y a un minimum de commandes à connaître mais elles reviennent tout le temps. Et les trois quarts du temps, il suffit simplement de lire à voix haute la commande de menu. Du style "fichier" "ouvrir"… "Enregistrer" "quitter"… Etc. le vrai seul problème, c'est l'utilisation de la souris. À la voix, c'est un peu pénible. On retrouve tous les clics, mais pour déplacer la souris, on utilise une commande qui quadrille l'écran. Quand on tombe dans la bonne partie, on quadrille à nouveau cette partie en partie plus petite et on répète l'opération jusqu'à arriver au point précis. C'est un peu long et un peu barbant. Même quand on a l'habitude, il faut bien compter deux à trois secondes pour cliquer sur quelque chose. Donc, on laisse tomber par exemple la retouche photo. (Problème qui pour moi ne se pose plus depuis que je suis passé sous Mac et que j'ai fixé le magic trackpad à un porte harmonica et que j'utilise au menton. Ça pour la souris, et la reconnaissance vocale pour le texte, je suis plus rapide que tous mes proches dans l'utilisation de mon ordinateur). Tu vois, pour la dictée de ce texte et les manipulations pour le copier et le coller en plusieurs morceaux sur ce site : quatre minutes. Voilà pourquoi en début de texte je te disais qu'il y avait du vrai et du faux. Du vrai car pour une utilisation ponctuelle, ce n'est pas forcément évident. Du faux car si ça devient une utilisation quotidienne, comme pour tout, c'est une question qui d'apprentissage.
avatar Rollingman | 
Évidemment, la réponse n'est valable que pour ton commentaire, pas pour l'article. L'article parle d'interfaces naturelles… Du coup, s'il faut un apprentissage, c'est que ce n'est plus si naturel. Mais l'apprentissage n'est-il pas naturel ? On apprend à marcher, à parler, à manger avec une fourchette… Et ça reste naturel ! chez un mammifère, la seule chose innée,, c'est de téter, tout le reste n'est qu'acquis (par apprentissage). Du coup, il ne faut pas confondre inné et naturel (donc les gestuelles peuvent être naturelles, même s'il faut les apprendre. Cette dernière remarque concerne un point de l'article) À bientôt
avatar Marc-Alouettes | 
@Mecky : "Que l'on commence à maîtriser les reconnaissances écrite et vocale, tant mieux ! De là à en faire le passage obligé, non merci. Double signification : "n'y aurait-il qu'un "sens" à votre vie ?" Non, non, rien ne nous oblige à passer par le progrès (pas plus que ceux qui ont voulu garder leurs chars à bœufs malgré la domestication du cheval ) mais les hommes qui ont voulu arrêter le progrès n'y sont encore JAMAIS arrivés et c'est vraiment cela qu'il faut retenir comme un des sens importants de la vie.
avatar Oliviou | 
@Rollingman : eh bien merci pour ces éclaircissements. Il est certain que lorsqu'on est obligé de se spécialiser dans un mode d'interface avec sa machine (comme dans ton cas), on est presque condamné à devenir efficace. Comme tu dis, c'est une affaire de pratique. Ma vision de la chose est très centrée sur ma pratique, évidemment. Et à la réflexion, sans doute que si dans mon enfance on m'avait donné la possibilité d'interagir à la voix avec les ordinateurs, j'aurais trouvé très incongru l'usage d'un clavier et d'une souris. L'usage dominant aujourd'hui est ce couple de périphériques (même si je suis passé au trackpad). Qui sait ce qu'il en sera dans 20 ans? Il y aura peut-être une transition, un moment où les vieux utiliseront les ordinateurs comme aujourd'hui, et où les jeunes les utiliseront uniquement la voix. Ça sera intéressant à suivre.

CONNEXION UTILISATEUR