pCloud : jusqu'à 65 % de réduction pour tous les plans familiaux à vie ! 📍

Article sponsorisé |

pCloud, le leader suisse du stockage en ligne, annonce une offre exceptionnelle pour célébrer la Journée des familles 2024.

Du 13 au 18 mai, profitez de réductions allant jusqu'à 65 % sur les plans familiaux à vie, accompagnés de cadeaux exclusifs. Cette offre limitée dans le temps représente une belle opportunité pour les familles souhaitant sécuriser leurs données de manière fiable et économique.

Pourquoi choisir l'abonnement Famille de pCloud ?

Les plans familiaux à vie de pCloud sont conçus pour accommoder jusqu'à 5 membres, chaque utilisateur bénéficiant de son propre espace personnel sécurisé. Ces plans offrent une flexibilité sans précédent pour gérer et partager les données entre les membres de la famille tout en garantissant leur confidentialité et sécurité.

Bien évidemment l'avantage de pCloud réside dans son paiement unique : un seul investissement, pour un stockage sécurisé à vie. Ensuite, l'attribution et la gestion sont de votre volume de stockage pour chaque membre est très facile, et chaque utilisateur jouit de son propre espace dans le cloud.

Toutes les caractéristiques clés de pCloud

pCloud se distingue par sa compatibilité étendue avec macOS, Windows, Linux et des applications mobiles pour iOS et Android, qui incluent des fonctionnalités telles que le téléversement automatique pour libérer de l'espace sur les appareils mobiles. La plateforme assure une synchronisation instantanée entre tous vos appareils, permettant un accès et une collaboration aisés.

  • pCloud Drive : transforme le stockage cloud en un disque virtuel sur votre appareil, facilitant ainsi la gestion des fichiers (comme iCloud Drive, Dropbox, etc.)
  • Sauvegardes automatiques : la fonction pCloud Backup assure la sauvegarde continue de vos données.
  • Collaboration facilitée : partage de fichiers, invitations à des dossiers et demandes de fichiers pour une collaboration fluide, même avec des non-utilisateurs de pCloud.

pCloud Encryption, une sécurité maximale pour vos données sensibles

pCloud Encryption est votre bastion contre les accès non autorisés, offrant un chiffrement côté client de première classe. Cette technologie garantit que seuls vous et ceux à qui vous donnez accès peuvent voir vos données. Aucun tiers, y compris pCloud, ne peut accéder à vos fichiers chiffrés, vous offrant ainsi une tranquillité d'esprit totale.

Le chiffrement se fait côté client pour une sécurité maximale de vos fichiers sensibles et pCloud assure une politique de confidentialité zéro connaissance où seul vous avez accès à vos clés de chiffrement.

Comment profiter de cette offre ?

Pour bénéficier de cette promotion exclusive de la Journée des familles 2024, visitez le site officiel de pCloud et choisissez l'abonnement qui convient le mieux à vos besoins. N'oubliez pas, cette offre est valable du 13 au 18 mai 2024 seulement.

En choisissant pCloud, vous optez pour une solution de stockage robuste et sécurisée, reconnue mondialement et soutenue par plus de 20 millions d'utilisateurs. Ne laissez pas passer cette offre exceptionnelle, assurez dès aujourd'hui un avenir numérique sécurisé pour votre famille.

Les offres Famille de pCloud

Voici un résumé des offres du moment :

  • 2 To + pCloud Encryption à vie à seulement 399 €, au lieu de 1 100 € (remise de 64 %).
  • 5 To + pCloud Encryption à vie (édition limitée) à 599 €, initialement à 1 700 € (remise de 65 %).
  • 10 To + pCloud Encryption à vie pour 1 049 €, réduit de 2 500 € (remise de 58 %).

Chaque abonnement acheté inclut pCloud Encryption sans frais supplémentaires à vie, assurant une protection complète de vos données personnelles avec un chiffrement de bout en bout.

👉 Embrassez cette occasion pour garantir la sécurité et la gestion efficace de vos données familiales avec pCloud !

Lire les commentaires →

Avec GPT-4o, OpenAI ouvre grand les yeux et les oreilles de ChatGPT

Florian Innocente |

OpenAI a dévoilé "GPT-4o", une évolution de son modèle d'IA générative dont les capacités de traitement ont été largement améliorées pour le texte, l'audio et la vision.

GPT-4o (le "o" signifiant "omni" pour l'étendue de ses capacités) reste à un niveau d'intelligence comparable à celui de ChatGTP-4, a expliqué Mira Murati, la responsable technique d'OpenAI en préambule à une démonstration des nouveautés de printemps. Mais OpenAI a amélioré les capacités d'analyse audio de ChatGPT de manière à ce que l'utilisateur ait le sentiment d'un véritable dialogue avec l'assistant, avec des intonations de voix, la simulation d'émotions ou la possibilité de l'interrompre pour enchainer sur un autre sujet.

GPT-4o améliore ensuite sa capacité de compréhension d'une image et de son contenu. C'est utilisé par exemple dans la nouvelle et première version Mac de ChatGPT qui peut observer l'écran ou une capture qu'on lui soumet et qu'il va commenter, comme le ferait un super Siri.

OpenAI lance ChatGPT pour macOS face à Siri et Spotlight

OpenAI lance ChatGPT pour macOS face à Siri et Spotlight

Dans une autre démo, deux iPhone font chacun tourner GPT-4o. L'un utilise la caméra frontale pour voir ce qui se passe devant son objectif. L'autre assistant lui demande alors de décrire la pièce, la décoration, la personne devant et ce qu'elle est en train de faire (plusieurs autres vidéos de démo sont disponibles ici). Dans une autre démo, c'est un non-voyant qui exploite cette faculté d'analyse d'événements en direct en extérieur dans la rue.

À l'avenir cela pourrait aller beaucoup plus loin et toujours en temps réel. Par exemple, ChatGPT pourrait observer la vidéo d'un match et expliquer ce qui se passe ainsi que les règles de la discipline, a proposé Mira Murati. Pour la traduction en direct, le moteur s'est amélioré sur 50 langues environ et l'opération est deux fois plus rapide. Une personne parlant dans une langue s'adresse à ChatGPT qui traduit l'échange dans une autre langue pour un autre interlocuteur.

Ce volet voix n'est pas encore intégré à l'API de GPT-4o maintenant disponible pour tous. OpenAI veut continuer de l'améliorer auprès d'un cercle restreint d'utilisateurs afin de poser quelques barrières. D'ici un mois les utilisateurs de la formule Plus devraient en disposer en version alpha.

GPT-4o est proposé dès aujourd'hui aux utilisateurs de la formule gratuite de ChatGPT ainsi qu'aux souscripteurs des formules payantes Plus et Teams avec un quota de messages multiplié par 5. Cette limite dépassée, ChatGPT basculera sur un modèle plus ancien, GPT-3.5.

Lire les commentaires →

OpenAI lance ChatGPT pour macOS face à Siri et Spotlight

Florian Innocente |

ChatGPT arrive dans une nouvelle application de bureau qui débute sur macOS. Elle permet d'échanger par texte, audio et peut analyser le contenu de l'écran.

Cette application, une fois ouverte, se convoque au moyen d'un raccourci-clavier (Option + Space) presque comme on le fait pour Spotlight. Dans la fenêtre qui apparait, et qui peut rester affichée en permanence, on saisit ses questions pour échanger avec l'assistant.

On peut lui soumettre une capture d'écran ou une image et le faire travailler sur son contenu : l'analyser, le décrire, le résumer. Avec une autre fonction montrée lors de la démonstration, ChatGPT pour Mac pouvait commenter ce qu'il voyait sur l'écran de l'utilisateur.

L'interaction vocale est de la partie pour poser des questions ou relancer l'assistant en fonction de ses réponses. À terme, OpenAI le dotera d'un moteur plus poussé en exploitant le modèle GPT-4o audio et vidéo annoncé aujourd'hui.

Toutes choses que l'on aurait du mal à faire aujourd'hui avec Siri et Spotlight qui risque de trouver là un sérieux rival pour des tâches n'impliquant pas une trop grande intégration avec macOS. On verra avec macOS 16 comment Apple entend faire progresser son assistant… peut-être avec l'aide d'OpenAI.

Cette application macOS sera suivie d'une version Windows plus tard dans l'année. Elle est d'abord proposée dès aujourd'hui aux abonnés Plus puis sa disponibilité sera étendue aux autres utilisateurs dans les prochaines semaines, même ceux en formule gratuite. La version web de ChatGPT a également été très légèrement remaniée dans son interface.

Lire les commentaires →

macOS 14.5 est disponible en version finale

Florian Innocente |

macOS 14.5 est disponible en téléchargement pour tout le monde. Cette révision n'apporte que des corrections de bugs qu'Apple n'a pas détaillées. Les utilisateurs d'Apple News+ — ce service payant de kiosque à journaux qui n'est pas disponible en France — ont droit à un nouveau jeu de lettres et à un tableau de scores.

macOS Sonoma. Image Apple.

Lire les commentaires →

Classic Marathon : le FPS culte de Bungie disponible gratuitement sur Steam

Stéphane Moussie |

Les amateurs de vieux FPS — pour ne pas dire les vieux amateurs de FPS — vont être aux anges en apprenant que Marathon déboule sur Steam. Jeu culte des années 1990 qui a fait ses débuts sur Mac, le FPS futuriste est désormais accessible facilement et gratuitement sur la boutique de Valve.

Classic Marathon tourne très bien sur un MacBook Air M1. Image MacGeneration.

Classic Marathon nous (re)plonge dans un vaisseau spatial où il va falloir zigouiller des aliens pour rester en vie. Le jeu est fidèle à l’original, avec juste quelques options de confort en plus (HUD adapté pour les écrans ultra-large, 60 i/s avec interpolation, audio 3D…). Cette version est basée sur Aleph One, un moteur open source maintenu par des fans. Pas besoin d’avoir une machine de guerre pour faire tourner correctement le jeu, un Mac Apple Silicon ou Intel avec 4 Go de mémoire et 100 Mo de stockage suffit.

Marathon avait servi pour Apple de réponse au carton de Doom sur PC, arrivé un an plus tôt. Le titre de Bungie s'était démarqué par son scénario élaboré et par ses nouvelles mécaniques devenues depuis incontournables (rechargement des armes, armes à double maniement…). Classic Marathon 2 et Classic Marathon Infinity seront disponibles prochainement. Bungie prépare un reboot de la saga qui sera axé multijoueur… Et qui ignorera malheureusement le Mac.

Lire les commentaires →

L'IA et les modèles de langage peuvent compresser du texte de façon très efficace

Pierre Dandumont |

Un développeur a effectué une petite expérience très intéressante récemment : il a employé un grand modèle de langage (LLM, ce qui est souvent appelé IA, même si c'est un abus de langage) pour compresser du texte. Et le résultat est assez impressionnant, malgré quelques limites.

Les IA peuvent compresser le texte où apparaît ce lapin.

L'exemple porte le nom de Drink Me, pour une bonne raison : Julian a effectué ses essais sur le premier chapitre du livre Les Aventures d'Alice au pays des merveilles. Il a employé llaman.cpp, un logiciel open source qui peut utiliser les modèles LLaMA de Meta.

La décompression en cours.

Le fonctionnement exact est expliqué dans son sujet, mais l'idée est de ne stocker que le nécessaire pour que le logiciel puisse générer le texte à partir des informations stockées dans le modèle. Sur le premier chapitre du livre, qui contient 11 994 caractères, la version compressée ne nécessite que 986 caractères, soit 8 % seulement de la valeur d'origine. C'est très nettement mieux que les programmes de compression classiques, mais avec évidemment quelques contraintes et limites.

Un problème de taille

Le premier défaut est évident : la puissance nécessaire est élevée, et sur plusieurs niveaux. Il a en effet fallu créer le modèle lui-même, et tant la compression que la décompression nécessitent beaucoup de mémoire vive et une bonne puissance de calcul. Le second défaut est un peu différent : la compression est beaucoup moins efficace si le modèle ne contient pas les données au départ (le post d'origine de Julian passe de 3 436 à 2 691 caractères). Ce défaut peut être présenté dans l'autre sens : si le texte à compresser a été employé pour créer le modèle — ce qui est a priori le cas de la version originale d'Alice's Adventures in Wonderland —, la compression est extrêmement efficace.

Cet autre post montre bien les gains : le modèle LLaMA-3-8B (8 milliards de paramètres) permet d'obtenir un fichier 58,4 x plus petit pour le même premier chapitre ou 131 x plus petit pour un texte très courant comme le contenu de la licence GPL v2. Mais pour du texte produit par l'auteur, les résultats sont plus faibles (4,4 x, 5,76 x ou 6,93 x). Dans tous les cas, la compression avec les outils classiques comme GZIP (certes plus rapide) est nettement moins efficace, avec des fichiers environ 2 x plus petits que les originaux.

Dans la pratique, il ne s'agit évidemment pour le moment que d'une sorte de démonstration technologique. Mais qui sait, peut-être que les sociétés qui développent les grands modèles de langage pourraient s'intéresser à cette solution dans le futur, pour ajouter une nouvelle corde à l'arc de « l'IA ».

Lire les commentaires →

Avec les modules LPCAMM2, Apple pourrait proposer de la RAM amovible sur les Mac

Pierre Dandumont |

Depuis quelques années, Apple emploie de la mémoire vive de type LPDDR, qui permet une consommation plus faible et des fréquences plus élevées, mais avec un défaut : elle n'est pas amovible et n'existe pas en barrettes. Mais ce point a été réglé : les premiers PC équipés d'un module LPCAMM2 arrivent enfin.

Un module LPCAMM2 Crucial.

Le LPCAMM2 (pour Low-Power Compression-Attached Memory Module) permet enfin l'intégration de la mémoire LPDDR sur un support amovible. Avec cette technologie, il est donc possible de garder les avantages de la LPDDR — fréquence, bande passante, consommation — tout en réglant son principal défaut.

Le LPCAMM2 — le 2 signifie qu'il s'agit de la version standardisée — débarque donc dans des PC portables. Les premiers modules sont disponibles à la vente et offrent 32 Go ou 64 Go de mémoire pour un prix intéressant : 195 et 368 €. Pour rappel, Apple facture 230 € pour le passage de 8 à 16 Go sur un MacBook Air. MacBook Air qui — par ailleurs — pourrait parfaitement intégrer le module. En effet, le LPCAMM2 travaille sur un bus 128 bits comme la mémoire intégrée dans les Mac équipés d'une puce M3 classique, et la fréquence de la mémoire est même plus élevée (7 500 MT/s, contre 6 400 MT/s chez Apple).

Le module est plus compact que les anciens emplacements SO-DIMM.

Bien évidemment, cette technologie n'est pas parfaite, pour deux raisons. Premièrement, elle se limite à un bus 128 bits, quand Apple est passé à 192, 256, 384 ou même 512 bits avec certaines des variantes de ses puces M3. Deuxièmement, même si le module est fin (4,5 mm), il est tout de même plus épais qu'une mémoire placée directement sur le système sur puce. De même, il mesure 34 x 78 mm, ce qui est certes plus compact que deux emplacements SO-DIMM classiques, mais demande tout de même des aménagements dans certains châssis.

Dans la pratique, même dans le monde PC, le LPCAMM2 est pour le moment présent uniquement dans un PC portable Lenovo, le ThinkPad P1 Gen 7. C'est un modèle de grande taille, équipée d'un écran de 16 pouces, et la mémoire soudée — qui nécessite moins de place — devrait donc rester la norme dans les PC portables de 13 pouces.

Lire les commentaires →

Pages