Avast vendait les données des personnes que ses outils protégeaient : 16,5 millions d'amende

Pierre Dandumont |

Si vous utilisez des PC sous Windows, vous connaissez probablement Avast1, un célèbre développeur d'antivirus et de solutions de « protection ». Pourquoi le mettre entre guillemets ? Parce qu'Avast, qui était censé protéger la vie privée de ses clients, vient de recevoir une amende de 16,5 millions de dollars par la FTC américaine. En effet, la société avait collecté et vendu des données entre 2014 et 2020.

Avast existe pour Mac.

La FTC ne précise pas si la version Mac de l'antivirus était touchée, mais Avast a donc enregistré des données privées de ses clients avec ses antivirus et ses extensions de navigateurs. Elles concernaient les choix religieux, la santé, les vues politiques, la santé financière et la localisation. Les données auraient été stockées indéfiniment et vendues à plus d'une centaine de sociétés tierces, sans que les clients d'Avast aient donné leur accord.

Une des barres est peut-être celle d'Avast.

Ce programme était nommé Jumpshot et avait été dévoilé par PCMag et Vice, ce qui avait poussé Avast à le fermer. Le communiqué de la FTC est d'ailleurs (presque) ironique sur le fait qu'Avast mettait en avant la possibilité de réduire le suivi sur Internet, tout en récupérant les données. Il indique surtout que les données collectées par Avast sans consentement étaient par ailleurs insuffisamment anonymisées, avec un identifiant unique par navigateur, et que les termes du contrat entre Avast et les sociétés qui rachetaient les données étaient ambigus sur certains points et permettait en pratique de lier les données à des utilisateurs précis… même si le contrat l'interdisait explicitement.


  1. La base virale VPS a été mise à jour.  ↩︎

Lire les commentaires →

Alfred 5.5 améliore son interface pour faire une place à ChatGPT et Dall-e

Nicolas Furno |

Alfred, lanceur multifonctions pour macOS, rejoint à son tour la grande tendance des intelligences artificielles génératives. La version 5.5, actuellement en bêta, prend en charge ChatGPT et Dall-e pour poser n’importe quelle question ou générer une image. Sauf que l’app le fait à sa manière, sans intégration officielle associée à un abonnement comme l’a fait Raycast, l’ajout des fonctionnalités fournies par OpenAI se fait par le biais d’un workflow officiel, une automatisation interne à l’app. Ce qui veut dire que vous devrez fournir votre propre clé pour accéder aux API et payer les coûts associés.

L’écran de configuration du Workflow, avec le champ pour saisir l’obligatoire clé fournie par OpenAI.

Cela ne veut pas dire qu’il s’agit d’une mise à jour mineure pour autant. Pour mieux intégrer ChatGPT et Dall-e, les créateurs d’Alfred ont ajouté plusieurs briques importantes pour afficher du texte avec mise en forme et du code, puisque le premier peut en générer, et surtout pour afficher des images, puisque c’est tout le rôle du second. Ces briques serviront à ce nouveau workflow officiel, ce qui justifie qu’Alfred 5.5 sera nécessaire au passage, mais elles ne sont pas limitées à lui et on pourra les exploiter dans d’autres contextes.

Le workflow ChatGPT / Dall-e en action, ici avec une petite discussion avec ChatGPT.

Plusieurs nouveaux workflows sont proposés pour découvrir comment exploiter ces nouvelles fonctions, dont celui-ci qui affiche sur une grille toutes les captures d’écran récentes effectuées sur votre Mac. Celui-là reprend l’idée de la grille en ajoutant une touche de modularité, puisqu’il permet d’afficher par ce biais le contenu de n’importe quel dossier.

La liste des nouveautés est encore bien plus longue. On note en particulier la possibilité d’ouvrir un document PDF directement dans Alfred ainsi que de nombreux petits changements pour les créateurs de workflows. La version 5.5 est accessible si vous le souhaitez en basculant sur les bêtas dans les paramètres de l’app. Une licence PowerPack, facturée autour de 40 €, est nécessaire.

Alfred 5.5 nécessite macOS 10.14 au minimum, son interface n’est pas traduite en français.

Lire les commentaires →

Promo : le MacBook Pro 14" M3 Pro à 2 700 € (-299 €)

Florian Innocente |

Amazon fait une réduction plus forte que d'habitude sur une configuration de MacBook Pro de dernière génération. Le modèle 14" doté d'un M3 Pro (CPU 12 cœurs, GPU 18 cœurs) de 18 Go de RAM et d'un SSD de 1 To s'emporte pour 2 699,99 € au lieu de 2 999 € . Seule obligation, prendre le coloris argent, les autres n'ayant pas ce prix.

Des deux 14" en M3 Pro qu'Apple propose de base, il s'agit du second. Le premier est vendu 2 499 € avec un M3 Pro (CPU 11 cœurs, GPU 14 cœurs) et 512 Go de SSD. C'est une bonne réduction sachant qu'on ne trouve pas mieux en ce moment et Apple ne vend pas encore de M3 Pro ni de M3 Max en reconditionné, uniquement du M3.

Promo : le MacBook Air M1 à 940 € (-259 €) 🆕

Promo : le MacBook Air M1 à 940 € (-259 €) 🆕

Lire les commentaires →

Apple aurait recruté Olivia Dalton de l'équipe de communication de Joe Biden

Florian Innocente |

Apple aurait recruté Olivia Dalton, la principale adjointe de la porte-parole de la Maison-Blanche et depuis longtemps aux côtés de Joe Biden. D'après Reuters, Olivia Dalton a annoncé à ses responsables qu'elle quittait la Maison-Blanche à la mi-mars pour rejoindre un poste élevé dans l'équipe de communication d'Apple.

Olivia Dalton. Photo de la Maison-Blanche (Hannah Foslien).

Olivia Dalton secondait Karine Jean-Pierre, porte-parole de la Maison-Blanche depuis 2022. Elle a été dans l'équipe de communication de Joe Biden entre 2006 et 2008, puis elle a été aux côtés de Michelle Obama et a également eu des responsabilités au secrétariat d'État des transports avant de rejoindre l'administration Biden à différents postes dès son élection.

Le poste qu'occuperait Olivia Dalton dans la hiérarchie d'Apple n'est pas connu. La communication du groupe est pilotée depuis début 2022 par Kristin Huguet Quayle, qui a rejoint Apple en 2005. Elle a succédé à Stella Low, ancienne de Cisco, qui ne sera restée que 9 mois chez Apple, avant de partir pour raisons familiales et prendre un poste équivalent chez HP quelques mois plus tard.

Stella Low est la nouvelle vice-présidente d

Stella Low est la nouvelle vice-présidente d'Apple en charge de la communication

Lire les commentaires →

Mistral AI fait la course au Large et s’associe avec Microsoft

Stéphane Moussie |

Il n’y a pas que ChatGPT dans la vie, il y a Mistral AI aussi. La start-up française, qui s’est forgée une solide réputation en créant l’un des meilleurs modèles de langage open source, a fait part de trois annonces majeures rien qu’aujourd’hui.

La première, c’est le lancement de son modèle de langage de génération de texte le plus avancé à ce jour. Nommé Mistral Large, ce modèle est, selon les benchmarks sélectionnés par la start-up, moins performant que GPT-4 qui fait toujours figure de référence, mais meilleur que Claude 2, Gemini Pro 1.0 (sachant que la version 1.5 a été annoncée la semaine dernière), GPT-3.5, LLaMA 2 70B… et Mixtral 8x7B, son précédent modèle phare.

Graphique Mistral AI.

Les points forts de Mistral Large sont son caractère polyglotte (il gère nativement l’anglais, le français, l’espagnol, l’allemand et l’italien), sa capacité à recevoir une très grande commande (fenêtre de contexte de 32 000 tokens), son aptitude à suivre précisément les instructions de modération et sa compatibilité avec des outils externes.

À l’inverse de tous les modèles distribués jusque-là par la jeune pousse, Mistral Large n’est pas open source, mais propriétaire. Si on ne peut pas le télécharger pour le faire tourner localement sur son Mac ou sur son iPhone, comment l’utiliser alors ? On en vient aux deux autres annonces.

Mistral AI vient d’ouvrir les portes de Le Chat, qui n’est ni plus ni moins que son équivalent de ChatGPT. Le Chat donne accès à Mistral Large, ainsi qu’à deux autres modèles propriétaires (Mistral Next et Mistral Small) dans une interface simple d’utilisation. Le service demande de se créer un compte.

Le Chat avec Mistral Large. Image MacGeneration.

Comme OpenAI le fait avec ChatGPT, Mistral AI va se servir des discussions des utilisateurs dans Le Chat pour améliorer ses modèles. Les utilisateurs qui s’abonneront à la future offre payante pourront éviter que leurs données servent à entraîner les modèles. Le service est actuellement en bêta et non connecté au web (il n'est donc pas capable de fournir des réponses sur des informations récentes).

Mistral Large est également accessible via une API payante et… Azure. C’est la troisième annonce majeure du jour : Mistral AI a signé un contrat avec Microsoft. « Le partenariat stratégique avec Microsoft est une première étape importante, qui démultiplie notre surface de distribution […] C’est aussi un gage de crédibilité », explique Arthur Mensch, cofondateur de la start-up, dans une interview au journal Le Monde.

Quant à savoir si l’entreprise française ne risque pas de perdre son indépendance, l’entrepreneur assure que cela ne sera pas le cas car « l’investissement de Microsoft […] est très faible au regard des montants totaux » de ses levées de fonds. « Mistral AI est à la main de ses fondateurs, majoritaires au capital, et nous comptons garder le contrôle. Globalement, plus de 75 % de Mistral AI appartient à des Européens », ajoute Arthur Mensch.

Les tarifs des différents modèles de Mistral AI via son API (les modèles Mistral 7B et Mixtral peuvent être utilisés gratuitement par d'autres moyens).

Au sujet de l’aspect commercial de son nouveau modèle de langage, Arthur Mensch défend un modèle économique construit dès le début sur deux jambes, avec des modèles open source gratuits d’un côté et des modèles « optimisés » payants de l’autre : « l’activité commerciale nous permettra de financer la recherche coûteuse nécessaire au développement de modèles. Et nous continuerons d’avoir deux gammes. »

Lire les commentaires →

Arm continue à cibler les serveurs avec les Neoverse, un marché qu'Apple ignore

Pierre Dandumont |

Le monde des serveurs est un peu particulier pour les concepteurs de CPU : les clients potentiels n'ont pas du tout les mêmes besoins que le grand public. Et Arm l'a bien compris : la société propose depuis quelques années maintenant les cœurs Neoverse à ses clients, qui peuvent ensuite concevoir des systèmes sur puce pour les serveurs. Des cœurs qui viennent de passer en version 3, comme l'indique Anandtech.

64 coeurs, avec la possibilité de mettre deux chiplets par puce (image ARM).

De façon basique, les Neoverse V visent les performances, et ils sont basés sur les cœurs Cortex X — les plus performants dans les smartphones — avec quelques modifications pour s'adapter à un environnement professionnel. La V1 était basée sur le Cortex X1, la V2 sur le Cortex X3 et la (future) V3 sur le (futur) Cortex X5, une puce très attendue. Arm vise donc les performances, mais dans une optique professionnelle : alors que les systèmes sur puce de smartphones n'intègrent habituellement qu'un cœur Cortex X, il est possible de combiner 64 cœurs Neoverse V3, et de mettre deux composants sur le même socket, soit 128 cœurs par puce. Arm annonce évidemment la prise en charge de la DDR5, de la mémoire HBM et du PCI-Express 5.0. Dans les clients des puces Neoverse V, on peut noter Nvidia ou Amazon, avec ses Graviton.

De fortes attentes sur le CPU ARM Blackhawk, alias Cortex X5

De fortes attentes sur le CPU ARM Blackhawk, alias Cortex X5

La seconde puce annoncée, le cœur N3, vise un marché différent. Les puces Neoverse N dérivent jusqu'à maintenant des cœurs Cortex intermédiaires, ceux de la gamme Cortex A700. Ce sont les cœurs employés le plus dans les smartphones, avec un compromis entre performances et consommation. Arm annonce des systèmes sur puce avec moins de cœurs (jusqu'à 32 tout de même) mais une consommation assez faible, de l'ordre de 40 W au maximum. Comme pour les variantes précédentes, Arm a fait quelques ajustements sur la gestion de la mémoire cache (d'une plus grande capacité dans les Neoverse). Arm devrait aussi lancer un cœur Neoverse E3, basé sur les cœurs basse consommation (Cortex A500) mais il n'y a pas de détails actuellement.

32 coeurs pour le monde professionnel (image ARM).

Apple n'utilise a priori pas ses propres puces

Le point étonnant de tout ceci, c'est qu'Apple n'emploie pas ses propres puces dans ses serveurs, en tout cas pas publiquement. Pourtant, les cœurs employés dans les puces Apple Silicon trouveraient facilement une bonne place dans ce domaine : les cœurs « performants » dépassent largement les résultats des Cortex X pour une consommation plus faible, et les cœurs basse consommation demandent moins d'énergie que les Cortex A700 pour des performances du même ordre de grandeur.

Bien évidemment, il y a deux écueils importants ici. Premièrement, les systèmes sur puce d'Apple combinent des cœurs CPU avec des GPU et offrent finalement peu de mémoire au total. Concevoir un système sur puce qui contient beaucoup plus de cœurs avec une gestion externe de la mémoire — la variante unifiée n'est pas nécessairement importante dans ce cas — n'est pas nécessairement simple ni rentable. Et deuxièmement, Apple a abandonné le monde des serveurs il y a de nombreuses années, et il n'est pas certain que concevoir des puces uniquement pour les serveurs des (nombreux) services d'Apple soit la priorité de Tim Cook.

Lire les commentaires →

Un « retromodem » Wi-Fi pour les ordinosaures

Pierre Dandumont |

Pour ceux qui aiment les ordinosaures, un problème se pose parfois : comment connecter un Commodore 64, un Apple II ou même un vieux Macintosh au monde extérieur pour — par exemple — profiter d'un BBS ? La solution de base consiste à passer par un modem de l'époque, mais ces derniers vieillissent et les vraies lignes téléphoniques sont de plus en plus rares. Et les « fausses » lignes VoIP, comme celles intégrées dans les Box des opérateurs, ne fonctionnent pas toujours bien avec les modems. La solution est donc le Retromodem, un appareil pensé pour donner l'illusion d'un véritable modem, mais qui se connecte en Wi-Fi.

Celui du milieu n'est pas un vrai modem.
La carte remplace le PCB du modem original.

Cet appareil est basé sur une carte ESP32 (une petite carte de développement peu onéreuse) avec le logiciel open source Zimodem. Mais le PCB de cette version a été adapté pour s'intégrer directement dans le boîtier d'un modem iconique de l'époque, le Hayes Smartmodem. Il prend en charge les LED de l'original, et peut même émettre les sons de connexion, comme la vidéo le montre. S'il est pensé pour les Commodore et fonctionne par défaut avec un débit de seulement de 1 200 bauds (comme le Minitel), il peut être configuré pour une vitesse un peu plus élevée (par exemple 9 600 bauds).

Lire les commentaires →

Pages