Alors que tous les regards sont braqués sur les résultats de l’élection américaine, la fondation Mozilla a annoncé le licenciement de 30 % de son personnel. Si la structure comptait une soixantaine de salariés en 2022, une source de TechCrunch affirme qu’ils seraient actuellement autour des 120. Il s’agit de la deuxième vague de licenciement cette année, la première datant du mois de février et ayant touché soixante postes.
Dans son mail annonçant la mauvaise nouvelle, la directrice exécutive de la Fondation Mozilla Nabiha Syed explique que sa structure se trouve « confrontée à un assaut incessant de changements » et ajoute que « l'idée de faire passer les gens avant le profit semble de plus en plus radicale ». Le chef de la communication de Mozilla a précisé à TechCrunch :
La Fondation Mozilla réorganise ses équipes afin d'augmenter son agilité et l'impact de son travail pour assurer un avenir technique plus ouvert et plus équitable pour nous tous. Cela signifie malheureusement qu'il faut mettre fin à certains travaux que nous avons historiquement poursuivis et supprimer les rôles associés pour mieux nous concentrer sur l'avenir.
Mozilla se compose de plusieurs organisations : la Mozilla Corporation développe Firefox tandis que la Fondation supervise les grandes lignes (vie privée, inclusion…). Deux divisions vont disparaître suite à cette vague de licenciement. Il s’agit de celle dédiée au Plaidoyer, qui visait à « créer un mouvement mondial pour protéger le Web libre et ouvert » via des campagnes de sensibilisation. La seconde est celle des « Programmes globaux » : cette dernière était axée sur le renforcement de la fondation via des partenariats.
Si Intel est le plus grand fournisseur de composants graphiques pour PC au monde, la société n'est pas pour autant un géant dans le domaine : dans la majorité des cas, il s'agit d'IGP (carte graphique intégrée) que le client n'a pas choisi. Dans le monde des cartes graphiques dédiées, AMD et Nvidia sont très largement devant Intel, un marché qu'Intel pourrait (encore) abandonner. Selon The Verge, Pat Gelsinger a indiqué que les capacités des GPU intégrés étaient de plus en plus importantes, ce qui réduit progressivement le besoin de cartes dédiées… et sous-entend qu'Intel n'en a plus besoin.
Car Intel et les cartes graphiques, c'est compliqué. Dans les années 90, quand les concepteurs de puces étaient nombreux (3dfx, Matrox, ATi, etc.), Intel avait tenté l'aventure avec les cartes i740. Elles n'avaient pas trouvé le succès, mais la puce avait finalement été intégrée dans les chipsets, ce qui a permis à Intel, au fil du temps, de devenir le leader dans ce domaine. Pas grâce aux performances — ceux qui ont eu un MacBook avec l'inénarrable GMA950 comprendront — ni même grâce à l'aura d'Intel, mais simplement parce que les fabricants ont compris qu'une carte graphique « gratuite » pouvait suffire pour une partie des consommateurs, quelles que soient les performances.
À la fin des années 2000, Intel a ensuite tenté de proposer une carte graphique basée sur des cœurs x86, Larrabee. Le projet était assez avancé, mais il a été abandonné suite à des retards et (encore) à un problème de performances. Nvidia, qui était déjà devenu le principal fournisseur de cartes graphiques, proposait des puces largement plus rapides. Le projet a été recyclé dans le monde professionnel pour créer les Xeon Phi… qui n'ont pas eu un gros succès.
Le troisième essai d'Intel est plus récent et plus pragmatique : l'architecture Xe a permis la création des cartes Iris Xe et Arc, sorties fin 2021 et en 2022. Le côté pragmatique est simple : Intel a proposé une version dédiée de ce qui était (et est) intégré dans les processeurs depuis quelques années. Mais le résultat n'a pas été à la hauteur des attentes : les cartes Arc de la série 700 offraient certes un bon rapport performances/prix, mais pas de bonnes performances dans l'absolu. Intel a à peine réussi à concurrencer le milieu de gamme de Nvidia (les RTX 3060) avec ses versions les plus puissantes.
Un abandon probable
Le sous-entendu du patron d'Intel est évident, et les cartes basées sur l'architecture Xe2 (Battlemage) se font attendre, alors que les rumeurs sur un abandon des cartes dédiées courent depuis l'arrivée de la première génération. Ce serait par ailleurs logique : Intel va mal et compte se recentrer sur son cœur de métier, qui n'est pas de vendre des cartes graphiques. Par ailleurs, l'abandon d'une version dédiée des cartes basées sur Xe2 n'implique pas l'abandon de l'architecture elle-même : elle est déjà employée dans quelques processeurs Intel, comme les Lunar Lake sortis cet automne. Mais pour la majorité des processeurs (dont les récents Core Ulktra 200S), c'est l'architecture Xe qui est de mise. Et ce choix montre par ailleurs le défaut du raisonnement de Pat Gelsinger : les cartes graphiques intégrées Intel sont « remplacées1 » par des cartes graphiques dédiées pour ceux qui ont besoin de performances… mais elles ne sont pas remplacées par des cartes graphiques dédiées Intel.
Les cartes graphiques intégrées Intel restent généralement actives, surtout dans les PC portables, pour améliorer l'autonomie. Intel est le plus grand fournisseur de composants graphiques pour PC au monde en partie à cause de ce point. ↩︎
Alors qu’Apple s’investit à fond dans l’IA et l’informatique spatiale, l’entreprise a fait preuve d’une étonnante franchise dans son dernier rapport annuel destiné aux investisseurs. Elle y prévient que ses futurs produits pourraient ne jamais être aussi rentables que l’iPhone. Comme le note le Financial Times, il s’agit de la première fois que la Pomme est aussi directe en ce qui concerne le profil financier de ses appareils à venir.
L’information est mentionnée dans la liste des facteurs de risque auxquelles elle est confrontée. « Les nouveaux produits, services et technologies peuvent remplacer ou supplanter les offres existantes et peuvent produire des revenus et des marges bénéficiaires plus faibles », explique Apple. « Cela peut avoir un impact négatif important sur les activités, les résultats d'exploitation et la situation financière de l'entreprise ». Le rapport indique ensuite que « rien ne garantit que l’Entreprise [Apple] parviendra à gérer avec succès les introductions et les transitions futures de produits et de services ».
Apple alerte régulièrement les investisseurs sur les risques liés à la concurrence, aux taux de change ou aux problèmes liés aux chaînes d'approvisionnements. Jusqu’à présent, elle indiquait surtout que ses nouveaux produits pourraient avoir des « structures de coûts plus élevées », sans être aussi directe. Sur un autre registre, elle a également rappelé la potentielle influence sur son activité des « tensions géopolitiques » (une expression absente depuis des années) ou des risques de sécurité liés aux IA génératives.
Si les résultats d’Apple sont dans le vert, certains s’inquiètent pour le long terme. Le Vision Pro sur lequel Cupertino mise de grandes espérances n’a pas vraiment remué les foules. Vendu 3 999 € en France, Tim Cook a concédé qu’il ne s’agissait pas d’un produit de masse tandis que les rumeurs voudraient que la production ait été fortement réduite. Le produit a largement le temps de déployer ses ailes, mais les débuts sont poussifs.
La manière dont Apple compte se lancer dans l’IA pose également des questions. La Pomme n’est pas en avance dans le domaine et ne facture pas de surplus pour Apple Intelligence. Elle mise pour le moment sur le fait que les clients vont renouveler leur matériel pour en profiter, mais on peut facilement imaginer des fonctions payantes plus poussées à l’avenir. De quoi rejoindre l’éventail de services Apple, qui a généré un chiffre d’affaires de 24,972 milliards de dollars au T3 2024.
Après avoir présenté un iMac 24″ encore plus coloré, le tout nouveau et tout petit Mac mini, les MacBook Pro à puce M4 et même ses résultats financiers, Apple avait encore une carte dans sa manche. La firme de Cupertino s’est offert Pixelmator, l’éditeur lituanien de Pixelmator Pro et de Photomator, deux applications connues et reconnues de création (photo)graphique. Une annonce d’autant plus surprenante qu’elle est venue de Pixelmator elle-même, mais aussi et surtout que la récente refonte de Photos n’est pas exactement une réussite et que l’abandon en rase campagne d’Aperture a laissé des traces. Ce qui pose une question : mais qu’est-ce qu’Apple va-t-elle bien faire de Pixelmator ? Réponse en trois scénarios.
Scénario 1 : un confinement façon Shazam
Pixelmator poursuivra-t-elle sa route « sans changements majeurs », à la manière de Shazam, qui a conservé son propre site web et son application Android ? Rien n’est moins sûr : les dizaines de milliards d’empreintes acoustiques et les centaines de millions d’utilisateurs de Shazam avaient attiré toutes les convoitises, avant qu’Apple n’emporte finalement la mise pour 400 millions de dollars, sous le …
Et si, pour améliorer la fluidité d’affichage de ses appareils grand public, Apple adoptait des écrans 90 Hz ? C’est la rumeur lancée par le podcast Upgrade. Autant le dire tout de suite, c’est une rumeur à prendre avec de grosses pincettes, car elle provient d’un auditeur anonyme du podcast et qu’elle n’est pas appuyée, pour l’instant, par d’autres personnes généralement bien renseignées. Tout ce que l’on sait sur cette source est qu’elle donne parfois « des informations intéressantes », ce qui est extrêmement léger.
Ceci étant posé, la rumeur voudrait que de futurs iMac, Studio Display et iPad Air bénéficient d’un écran 90 Hz, en lieu et place d’un écran 60 Hz. Pour la tablette, cette amélioration arriverait dès la prochaine génération, celle a priori équipée d’une puce M3.
À défaut de savoir si la source tient une information authentique, cette évolution parait plausible. Les écrans ProMotion, qui ont un rafraichissement dynamique pouvant atteindre jusqu’à 120 Hz pour un affichage super fluide, existent depuis assez longtemps dans l’écosystème Apple. Ils ont été introduits dès 2017 avec les iPad Pro, puis sont arrivés en 2021 dans l’iPhone 13 Pro ainsi que dans les MacBook Pro.
Mais depuis, Apple rechigne toujours à doter ses appareils non Pro d’une telle technologie, quand bien même cette fréquence d’affichage plus élevée s’est largement répandue chez la concurrence. Intégrer un écran non pas 120 Hz, mais 90 Hz, dans ses appareils plus abordables, pourrait être un compromis pour améliorer leur rafraichissement sans faire trop d’ombre aux terminaux les plus avancés. C’est ce que font certains fabricants Android pour leurs modèles d’entrée de gamme.
La sensibilité aux Hz supplémentaires est très variable d’une personne à l’autre, mais pour ma part, le passage d’un écran 60 à 90 Hz représente un changement vraiment notable, tandis que j’ai plus de mal à déceler une différence entre 90 et 120 Hz. Si l’iPad Air, l’iMac ou le Studio Display pouvait ne serait-ce qu’avoir un écran 90 Hz, les défilements et animations s’en trouveraient donc bien plus fluides.
Rejoignez le Club iGen
Soutenez le travail d'une rédaction indépendante.
Rejoignez la plus grande communauté Apple francophone !