Sur eBay, certains vendent des prototypes ou des smartphones obtenus parfois par des moyens détournés. Et un iPhone 16 Pro Max 256 Go sous iOS 18.1 a déjà été proposé sur le site.
Comme souvent avec ce type de vente, tant le vendeur que l'acheteur risquent de recevoir des messages des avocats d'une certaine firme de Cupertino, au vu des messages indiqués sur les stickers. Il s'agit en effet d'un modèle de test et nous pouvons par ailleurs noter qu'Apple interdit aux testeurs de faire des benchmarks en citant spécifiquement Geekbench, et recommande de ne pas l'oublier dans les lieux publics (un bar ?).
Le prix indiqué est de 2 000 $, mais comme le vendeur acceptait les offres, il est peut-être parti pour un prix moins élevé… ou plus élevé.
Vous croyiez avoir tout vu ? Vous n’aviez encore rien vu. Apple a envoyé à Wired une image inédite créée avec Image Playground, le générateur d’images intégré à Apple Intelligence. Le sujet n’a pas été choisi au hasard : cet adorable petit chien prêt à souffler des bougies est inspiré de Bailey, la chienne de Craig Federighi.
Le responsable de l’ingénierie logicielle d’Apple a généré lui-même cette image à l’occasion de l’anniversaire de son animal de compagnie. Si Wired se félicite de publier la première image générée avec Image Playground qui ne fasse pas partie des ressources marketing d’Apple, cet exemple ne permet pas pour autant d’évaluer la technologie. Quelle instruction textuelle exacte a été utilisée ? Cette image a-t-elle générée du premier coup ou après plusieurs essais ? Le chiot ressemble-t-il vraiment à Bailey ?
Le texte « AI-GENERATED IMAGE » en plein milieu de l’image n’est pas d’origine, il a été ajouté par Wired, qui identifie systématiquement les images générées par des IA. Les images créées avec Image Playground ne comprendront pas de logo ni de texte soulignant leur caractère « artificiel », seules leurs métadonnées comprendront une trace de leur provenance.
Le générateur d’images ne fait pas partie des premières fonctionnalités d’Apple Intelligence en bêta dans iOS 18.1 et macOS 15.1. Il pourrait arriver dans iOS 18.2 et macOS 15.2 à la fin de l’année. Il va donc permettre de créer des images à partir de commandes textuelles ou bien en se basant sur la photo d’une personne. Il sera accessible via une application autonome ainsi qu’à l’intérieur de diverses apps (Messages, Pages, Keynote, Freeform et apps tierces compatibles avec la nouvelle API Image Playground).
Les images générées par Apple Intelligence ne peuvent appartenir qu’à trois styles graphiques (animation, illustration ou esquisse), une limitation justifiée par Apple par la volonté de ne pas produire de deep fake.
Après les images, les IA génératives s’attaquent aux vidéos. Si la présentation du Sora d’OpenAI a fait grand bruit en début d’année, Adobe ne compte pas rester sur le côté et a dévoilé un nouvel outil bien pratique pouvant créer un clip vidéo à partir d’images fixes ou d’une description textuelle. Ce modèle sous la bannière Firefly avait été brièvement aperçu au mois d’avril dernier, mais on a désormais une vague idée des résultats proposés.
En pratique, l’utilisateur peut entrer la description d’une scène et demander à l’affiner grâce à différents paramètres : ratio de l’image, nombre d’images par secondes, mouvement et angle de caméra, vitesse, etc. On peut aussi y voir comment l’IA pourra générer des plans en se basant sur une image fixe, ce qui pourrait permettre aux monteurs en mal de plans de meubler grâce à du B-roll. La démo montre également une fonction pour Premiere permettant à l’IA de créer une scène manquante en cas de plan un poil trop court dans la timeline.
Les vidéos générées sont convaincantes, mais pas vraiment représentatives étant donné qu’Adobe a sélectionné les meilleurs résultats. Le spectateur n’aura sans doute pas le temps de remarquer les défauts vu que les vidéos générées sont limitées à 5 secondes, ce qui peut paraître peu face à un Sora pouvant monter jusqu’à une minute. Adobe garde l’avantage d’avoir un modèle uniquement entraîné sur du contenu libre de droits ou sous licence, ce qui devrait permettre aux vidéos de Firefly d’être commercialisables. Ce n’est pas le cas de Sora : on se souvient de la grimace de la CTO d’OpenAI quand on lui a demandé si son modèle avait été entraîné sur des vidéos YouTube.
On notera que l’entreprise insiste sur le fait que le modèle n’a pas été formé sur les contenus des utilisateurs de ses services, ce qui vient répondre à une polémique ayant éclaté au début de l’été. Ce modèle vidéo sera lancé en bêta plus tard dans l’année en tant qu’application Firefly. Adobe voudrait par la suite l’intégrer à son Creative Cloud, Experience Cloud et Adobe Express.
Quel point commun peut-il bien y avoir entre Cultura, Boulanger, Truffaut et DiviaMobilités (le gestionnaire des transports publics de Dijon) ? On peut déjà en voir un : tous ont été piratés au cours de ces derniers jours.
En creusant un peu plus, on se rend compte que chacune de ces enseignes se défausse sur un prestataire peu vigilant, sans pour autant le nommer directement. Comme le remarque Next.ink, le pirate proposant les données est aussi le même pour les quatre sites, ce qui tend à confirmer l’hypothèse d’un sous-traitant défaillant.
Aucune de ces marques n’a donné de précisions sur la méthode employée, mais les données personnelles de plusieurs centaines de milliers de clients sont dans la nature, allant même jusqu’à 1,5 millions concernant Cultura, comprenant nom, prénom, adresse e-mail, adresse physique, numéro de téléphone, etc. Tous ces sites assurent cependant que les données bancaires sont restées à l’abri de ce vol massif.
Reste cependant une question : le prestataire fautif gère-t-il d’autres sites importants, et si oui, lesquels ? Sont-ils eux aussi touchés, sans pour autant avoir communiqué sur la fuite ? Il est probable que nous assistions dans les jours à venir à d’autres annonces de ce type.
Cela nous rappelle que la vigilance reste de mise sur Internet, et qu’il est plus que recommandé d’avoir un couple identifiant/mot de passe différent pour chaque site consulté. Bien entendu, il est aussi fortement conseillé de changer le mot de passe des sites touchés.
Comme chaque année, le consortium qui gère la norme Unicode ajoute de nouveaux caractères. Et dans la version 16.0, vous trouverez notamment huit nouveaux emojis, parce qu'il faut bien le dire, c'est ce qui intéresse les gens.
On retrouve donc un visage fatigué avec des cernes (Face with Bags Under Eyes), des empreintes digitales, une éclaboussure, un légume racine (au sens large), un arbre sans feuilles, une harpe, une pelle et un nouveau drapeau, celui de l'île de Sercq. Si vous avez l'impression de les avoir déjà vus, c'est normal : la liste publiée en bêta en mai 2024 listait déjà les emojis en question, sans le drapeau.
Comme l'explique Emojipedia, la présence d'un nouveau drapeau est une entorse à la règle qui prévaut depuis 2022 sur le fait que les drapeaux ne sont plus acceptés (nous sommes désolés pour nos amis bretons) mais le cas de l'île de Sercq est visiblement particulier.
Le monde ne se résume pas aux emojis
Unicode 16.0 ne se résume pas aux emojis : il y a 5 185 nouveaux caractères dans la norme. Il est donc maintenant possible (ou presque) d'écrire en Garay, Khema, Kirat Rai, Ol Onal, Sunwar, Todhri ou Tigalari. La nouvelle version ajoute aussi de nombreux hiéroglyphes et des caractères graphiques inspirés d'anciens jeux vidéo.
L'ajout d'Unicode 16.0 dans nos appareils dépend évidemment des mises à jour des différents systèmes d'exploitation. Les nouveaux caractères devraient débarquer progressivement entre fin 2024 et début 2025, et Apple a tendance à ajouter les emojis dans une mise à jour mineure, donc il faut les attendre entre iOS 18.2 et iOS 18.4 (ou macOS 15.2 à 15.4).
Rejoignez le Club iGen
Soutenez le travail d'une rédaction indépendante.
Rejoignez la plus grande communauté Apple francophone !