macOS Monterey : un service de traduction à domicile
macOS Monterey généralise un service de traduction de texte au niveau du système et dont toutes les applications peuvent théoriquement profiter. Cette fonction doit également marcher sur les textes visibles dans les images.
Il n'y a pas dans le prochain macOS d'application Traduire comme en a iOS depuis l'année dernière. C'est lors d'une sélection de texte dans macOS 12 que le menu contextuel propose une fonction de traduction immédiate. Un pop-up s'affiche avec le texte original et sa traduction. Deux menus permettent d'ajuster à tout moment la langue d'entrée et celle de sortie.
On a le choix entre le français, l'allemand, l'anglais britannique/américain, l'espagnol, l'italien, le portugais, le russe, le mandarin, le japonais, le coréen et l'arabe. Le texte pris et son équivalent traduit peuvent être écoutés avec l'intonation des deux langues.
Dans ce même pop-up — assez malcommode à utiliser lorsque le texte dépasse quelques lignes — un bouton copier récupèrera dans le presse-papier le contenu de la traduction proposée. Et lorsqu'on se trouve dans une application où le texte sélectionné est éditable (contrairement à celui d'une page web) on dispose d'un second bouton "Remplacer la sélection", qui fait ce qu'il suppose : il substitue le texte d'origine par sa traduction. C'est plutôt commode.
N'importe quelle application est normalement apte à utiliser cette commande. Mais encore faut-il que les développeurs exploitent les ressources standard de macOS, et dans plusieurs cas le texte sélectionné n'affichait pas la fonction de traduction.
Au-delà des applications qui gèrent le texte il y a Photos, qui stocke quantité d'images dans lesquelles des portions de texte sont visibles. Comme on l'a longuement expliqué à propos d'iOS 15, la nouvelle fonction Live Text sait détecter des caractères dans l'image et, dans le cas qui nous intéresse, les traduire aussi. Il faut toutefois un Mac M1 pour utiliser Live Text dans macOS. Sur mon modèle Intel, les textes restent de banales images.
Enfin on peut préférer que ces traductions soient effectuées en local, sans envoi du texte à traiter sur les serveurs d'Apple. C'est un réglage à modifier dans les préférences du système. On y active la traduction en local et on télécharge les modules des langues dont on aura le plus besoin.
Apple prévient que la qualité de la traduction peut souffrir du fait qu'elle ne soit pas réalisée côté serveur et, surtout, que ce mode local n'est de toute façon pas pris en compte dans Safari (ni par Siri). Pour le moment ça marche de toute manière assez mal avec ma bêta, les modules linguistiques ne se téléchargent pas correctement.
Cool Raoul vraiment ça progresse !
@Amaczing
de rien :)
@raoolito
🤣 je savais que tu allais relever
@Amaczing
c'etait un piege hahaha
@raoolito
@raoolito
Glooaaareeee au Raoul !!!!
Et le corse, alors ? Sans parler de l’indispensable Klingon !
@IceWizard
je préfère parler le Quenya dans sa forme après l'établissement en Valinor. Merci.
@oomu
« je préfère parler le Quenya dans sa forme après l'établissement en Valinor. Merci. »
T’es vraiment qu’un snob ! L’elfe des bois et de la rue, parle le Sindarin, la langue du peuple ..
mouais. Autant sur iphone/ipad j'utilise d'abord l'app traduction et ensuite si besoin google translate. Autant sur Mac, vu que les besoins de trad sont sensiblement supérieurs, je risque pas de quitter DeepL avant un moment. meme google translate est un gros poil derriere.
toute la difficultée ce ne sont pas les petites phrases de 2 lignes (quoique) mais surtout les longs paragraphes ou on vous sortira "mais tu n'as pas lu le doc/l'explication à propos de..?" et les tournures de phrases sont parfois alambiquées, demandent des subtilités dans la langue que Traduction est encore en peine de produire. On est comme avec Maps dans les premieres années, ca se bonifiera avec le temps et les versions (et les proc apple silicon)
@raoolito
Même remarque. DeepL avec son raccourcis clavier fait très bien le taf et l’appli est très bien faite. Quand je vois la capture dans l’article, cette pauvre fenêtre est ridiculement petite. J’attends de tester cette nouvelle fonction mais pour arriver au niveau de DeepL en terme de traduction, il va falloir que le traducteur Apple soit sacrément bon.
sur Monterey https://www.dropbox.com/s/5pgopdm4mm7o27s/capture%20d%E2%80%99%C3%A9cran%202021-06-19%20%C3%A0%2020.05.55.png?dl=0
@raoolito
Z'avez essayé de lancer DeepL sur un truc du genre "Et ta mère, son parapluie, elle l'a retrouvé ?". Panique à bord... :-)
@zoubi2
And your mother, her umbrella, did she find it ?
:)
And your mother, her umbrella, did she find it ? Panic on board... :-)
@zoubi2
"Z'avez essayé de lancer DeepL sur un truc du genre "Et ta mère, son parapluie, elle l'a retrouvé ?". Panique à bord... :-)"
Oui mais panique à bord de TOUS les traducteurs :)
Mais la traction en ligne fonctionne avec un mac Intel ou pas?
Pour les cable-car, faut aller à San Francisco !
And your mother, her umbrella, she found it? ". Panic on board ... :-)
(Google)
Et pourquoi l'app traduire n'est pas intégrée à MacOS 12 puisque tout est là pour la faire fonctionner ?
@weagt
Il faut bien garder des nouveautés pour macOS 13… 😭
J'utilise Text Sniper combiné avec Mate Translater qui est top !
J'ai vraiment hâte de me servir de celle d'Apple !
Cependant, je les garderais sur mon MacBook Intel !
On est d’accord que l’app translate est une daube sans nom niveau ergonomie ?
Je suis surpris qu’Apple n’ait pas encore racheté DeepL..ce serait pourtant le bon plan, leur algorithme est très supérieur à la concurrence
Mais DeepL n'est pas à vendre...
Y’a moyen de l’activer sous Intel, je me demande ce que ça donne 😄
https://twitter.com/poomsmart/status/1403024705733332995?s=21