Apple marie les doigts avec la voix

La redaction |
Apple et ses brevets, suite… De nouveaux documents signés de la Pomme ont été rendus publics avec cette fois l'idée de combiner des commandes vocales avec le multi-touch. Elle part du principe que différentes actions peuvent être plus efficaces lorsqu'elles sont menées conjointement avec d’autres sens que le seul toucher.

Un éditeur visuel pourrait ainsi permettre la sélection d'un texte avec le doigt tandis que le changement de sa couleur ou de son style se ferait par la voix.



La technologie proposée utiliserait aussi des caméras ou d’autres capteurs qui reconnaitraient les intentions de l’utilisateur. L’ordinateur pourrait donc exécuter des tâches en se basant seulement sur le regard que l’on pose sur un objet à l’écran. Il pourrait déterminer la position de la main par rapport à la surface et même reconnaitre l’humeur de l’usager. Apple va même jusqu’à avancer que la frustration sur le visage de l’utilisateur puisse indiquer à l’ordinateur qu’il a mal interprété une commande.

Des informations supplémentaires proviendraient également de données plus avancées générées par la pression appliquée, la grosseur des doigts et de la main, et des données biologiques comme la température du corps et le rythme cardiaque.



Sans surprise, Apple reste vague à propos de ces nouvelles fonctions et affirme qu’elles pourraient être utilisées sur un mobile, un ordinateur ou des systèmes multimédias portables. Cependant, il semble être sous-entendu que la caméra utilisée pour les aspects visuels de ce système pourrait être l’iSight du MacBook ou de l’iMac.

Ce brevet est signé Wayne Westerman et John Elias, les deux hommes derrières la société FingerWorks, autrefois rachetée par Apple et dont les travaux autour du multi-touch se retrouvent dans ses appareils de poche.
Accédez aux commentaires de l'article