Tim Cook ne peut pas garantir à 100 % qu’Apple Intelligence ne fera pas de bourdes

Stéphane Moussie |

Apple Intelligence n’échappera pas à un problème qui touche toutes les IA génératives : le système risque d’« halluciner », c’est-à-dire d’inventer un fait et de présenter celui-ci comme vrai. C’est ce qu’a reconnu Tim Cook dans une interview accordée au Washington Post :

  • À quel point êtes-vous convaincu par le fait qu’Apple Intelligence n’hallucinera pas ?
  • Pas à 100 %. Mais je pense que nous avons fait le maximum, y compris réfléchir très sérieusement à l’état de préparation de la technologie dans les domaines où nous l'utilisons. Je suis donc convaincu qu’elle sera de très haute qualité. Mais je dirais en toute honnêteté que ce n'est pas à 100 %. Je ne prétendrais jamais que c'est à 100 %.

Intégré ultérieurement à iOS 18 et macOS Sequoia sur les terminaux compatibles, Apple Intelligence permettra entre autres de générer des réponses toutes faites à des emails, résumer des textes et créer des images. Avant d’exploiter ou de partager ces contenus sortis du cerveau d’Apple, il vaudra donc mieux s’assurer de leur exactitude. Ce serait bête de manger de la colle simplement parce qu’une IA générative le conseille.

Une « réponse intelligente » générée par Apple Intelligence à partir de deux choix. Image Apple.

Les hallucinations sont un problème fondamental des grands modèles de langage qu’aucun scientifique n’a réussi à résoudre pour le moment — une étude affirme même que le problème est inévitable avec les technologies actuelles.

Mais iOS 18 et macOS Sequoia n’auront pas seulement de la matière grise venant de Cupertino, ils pourront aussi donner la parole à ChatGPT, un service opéré par OpenAI. Apple va mettre en place quelques mesures pour que les utilisateurs sachent à quel service ils s’adressent : si Siri n’est pas capable de répondre à une question, il demandera explicitement s’il peut passer le relai à ChatGPT. La fenêtre de ChatGPT comprendra un petit message conseillant de vérifier les infos importantes.

Alors que des employés d’OpenAI ont récemment publié une lettre ouverte pour mettre en garde contre les dangers des IA génératives, des dangers que le CEO Sam Altman ferait passer au second plan, Tim Cook n’apparait pas gêné par ces remous : « Nous avons tout examiné et tout pris en considération, et nous avons conclu que c’était dans le meilleur intérêt de nos utilisateurs de les choisir. »

avatar Madalvée | 

Pourtant Siri marchait b… euh, oui, c'est plus prudent.

avatar Scooby-Doo | 

@Madalvée,

« Pourtant Siri marchait b… euh, oui, c'est plus prudent. »

Depuis quand Tim Cook a greffé des jambes à Siri avant même de penser à l'équiper d'une cervelle ?

😁

avatar Fids0769 | 

Normal. Du moment qu’on parle d’IA générative le risque Zéro n’existe pas sur les hallucinations.

avatar Furious Angel | 

Je trouve qu’on est dans une précipitation dingue avec l’IA. Ça n’a pas encore prouvé sa pertinence (BEAUCOUP d’erreurs, de conseils dangereux, de conneries totales) mais tout le monde a peur d’être en retard et se jette dessus. C’est pas très rassurant. D’autant que la pertinence de beaucoup de choses reste à démontrer.

(Et je parle d’usages grands publics, c’est sûrement génial pour des développeurs ou des métiers précis, mais pour monsieur et madame tout le monde j’ai des doutes)

avatar MacoGeek | 

@Furious Angel

Ça fait le coup pour toutes les innovations. Il y a bien des gens qui ont dépensé des millions dans les NFT… ici, on trouve quand même beaucoup plus d’usage, même si, je te rejoins, c’est pas utile pour le quotidien mais plutôt pour des usages précis et on essaye de le tordre dans tous les sens et parfois (souvent) bêtement.

Mais ça reste pas pire que d’investir dans les NFT😂

avatar Furious Angel | 

@MacoGeek

Oui bon, si on compare aux NFT aussi… 😅

avatar MachuPicchu | 

@MacoGeek

Les NFT ne sont pas une “innovation” mais, comme les cryptomonnaies, une arnaque.

avatar roccoyop | 

Tiens, un sachant ! 🤣

Ehh ben franchement, vu ce que me rapportent les cryptos, j'adore ce genre d'arnaque et j'en redemande à la pelle !

Si tu connais d'autres "arnaques", je suis super intéressé.

avatar Sillage | 

@roccoyop

La crypto n’est basée sur rien, ce n’est que pure spéculation sur l’offre et la demande.

Pour que l’un gagne, un autre perd. D’où l’arnaque évoquée. La bourse est dans un sens un peu meilleure que la crypto, car basée sur quelque chose.

avatar roccoyop | 

@Sillage

Ah ok… je ne suis pas là pour convaincre qui que ce soit du contraire. 👍🏻

avatar BingoBob | 

@MachuPicchu

Les NFT ne sont pas une “innovation” mais, comme les cryptomonnaies, une arnaque.

J’aurai du écouter mon meilleur ami quand il y a 10 ans, il avait acheté 3 bitcoin. Il me l’avait proposé en plus !
Vendu il y a 2 ans, juste avant la guerre en Ukraine. Il a payé la moitié de son appart en 1 minute.

avatar Nietzsche | 

@Furious Angel

Faut distinguer les LLM et l’IA des petites choses qui améliorent la vie numérique.

avatar Furious Angel | 

@Nietzsche

Oui mais la grosse nouveauté médiatique ce sont les LLM (et l’équivalent pour les images), c’est ça qui génère du buzz. Le reste de l’IA, ça existait depuis longtemps

avatar Nietzsche | 

@Furious Angel

Bien sûr. Et je rejoins totalement votre avis.

avatar echarbon44 | 

@Furious Angel

Pas tout à fait d’accord. Avec l’IA classique on ne fait pas de compréhension des textes complets ou même de vidéos. Si cela existait on ne parlerait pas de GenAi .
Alors oui, ce n’est pas parfait aujourd’hui et même Yann Lecun le reconnaît, mais on a fait des progrès. Il existe plein de pistes pour améliorer sur l’existant.
L’IA Gen a permis de redonner un coup de fouet à la recherche et développement dans l’IA et c’est déjà une avancée, sauf à dire que tout est nul.

avatar Brice21 | 

@Furious Angel

Il n’y a pas que les LLM. Je pense que les modèles à diffusion sont tout aussi intéressants et transformatifs (Dell-e, Imagen, Stable Diffusion, Sora, …).

avatar Scooby-Doo | 

@Stéphane Moussie,

Tim Cook est honnête sur ce sujet !

AI peut vouloir dire aussi: Accident Industriel comme avec Google Gemini qui nous en a fait de bien bonnes !

👌

Même si ChatGPT “semble” mieux fonctionner que les autres LLMs, il faut toujours rester sur ses gardes.

ChatGPT est une GenIA contrainte.

Certains chercheurs ont prouvé que cette contrainte pouvait permettre de la mettre en défaut et par exemple de révéler sa mémorisation !

Certaines GenIA non contraintes sont plus résistantes aux attaques mais peuvent tout autant halluciner !

On n'est pas sorti de l'auberge il me semble…

La colle, c'est bon ! Mangez-en !

😁

avatar fleeBubl | 

Pour Lamarck, on a beau prendre Laplace, on est pas sorti de Lagrange, après avoir joué l’Hermite
🙂‍↔️

avatar Scooby-Doo | 

@fleeBubl,

« Pour Lamarck, on a beau prendre Laplace, on est pas sorti de Lagrange, après avoir joué l’Hermite. »

😁

Fred est en grande forme ! L'air revigorant des Alpes suisses ?

😉

avatar Brice21 | 

@fleeBubl

Quelqu’un peut traduire ?

avatar fleeBubl | 

Sammy😬
il faut se fier au génie des alpages 🙂‍↔️

avatar MacoGeek | 

Bien sûr que c’est inévitable. C’est basé sur des probabilités pas sur des faits.
Il faudrait inventer autre chose ou trouver à le combiner. Mais je doute qu’on y arrive. Il suffit de voir comment nous, humain, nous nous comportons. On hallucine aussi, à être persuadé de choses totalement fausse/irréelles. Peut-être qu’on trouvera à mettre une dose de doute dans leurs réponses ?

avatar Scooby-Doo | 

@MacoGeek,

« Bien sûr que c’est inévitable. C’est basé sur des probabilités pas sur des faits. »

https://datascientest.com/large-language-models-tout-savoir

J'attire votre attention sur la section :

« Quels sont les limites et défis à relever ? »

👌

avatar IsaPain | 

Timy Tim, la crème de la crème de la palabrerie aussi creuse qu’un tronc de baobab millénaire.

avatar Darkgam3rz | 

@IsaPain

🤣🤣🤣

avatar Scooby-Doo | 

@IsaPain,

« Timy Tim, la crème de la crème de la palabrerie aussi creuse qu’un tronc de baobab millénaire. »

C'est vraiment de vous ou c'est une réponse donnée par Apple Intelligence ?

😁

avatar IsaPain | 

@Scooby-Doo

Je te rappelle qu'AAPL Intellingen$ce ne parle que le californien.

Si tu avais demandé à ChatGéPéTé, tu aurais su à l'intant T que cette réponse ne pouvait provenir que d'un humain non affidé à la cau$e de Timy. 🤖

avatar echarbon44 | 

Les hallucinations sont surtout liés à la possibilité de generer des fausses réponses à une question. Il existe plein d autres usages à l’IA generative, comme l’extraction d’informations dans une grande masse de données, les possibilités de résumer des contenus comme du texte ou de la vidéo. Je ne parle pas des possibilités de traduire des conversations et peut être bientôt en direct.
Bref, tout le monde se focalise sur les erreurs, mais l’engouement pour se genre de technos est justifié pour aussi des raisons pratiques.

It’s my humble opinion.

avatar Tom PostProd | 

@echarbon44

Tout à fait d’accord. Apple se concentre sur les points forts des IA génératives : résumé, reformulation, correction, etc.
Ils les utilisent pour de l’amélioration de texte et évitent les usages qui créent du contenu et/ou font des recherches (disons que Siri semble renvoyer vers ChatGPT pour ces cas-là !).

Cet angle réduit considérablement les risques d’hallucinations.

De même, en ne proposant que 3 styles d’images, toutes « dessinées », Apple évite les erreurs grossières sur les images photo-réalistes (et leurs mains à 6 doigts, etc.).

C’est très malin !

avatar Pierre.321 | 

Utiliser de la colle n’est pas idiot et la réponse de ChatGPT est tout à fait valable car déjà utilisée par l’industrie agroalimentaire, voici sa réponse quand la question est bien posée :

Dans l'industrie alimentaire, divers agents de liaison et additifs sont utilisés pour coller le jambon et d'autres produits de charcuterie. Les principaux incluent :

1. Transglutaminase : Une enzyme qui lie les protéines entre elles, formant une texture cohésive sans affecter le goût.

2. Gélatine : Une protéine dérivée du collagène animal, utilisée pour sa capacité à gélifier et à lier les morceaux de viande.

3. Carraghénanes : Des polysaccharides extraits d'algues rouges, utilisés pour améliorer la texture et la consistance des produits carnés.

4. Amidons modifiés : Utilisés pour leur capacité à absorber l'eau et à former un gel, aidant à maintenir les morceaux de viande ensemble.

5. Phosphates : Ces composés chimiques aident à retenir l'eau dans les produits carnés, améliorant ainsi leur texture et leur cohésion.

Ces additifs sont soigneusement réglementés pour assurer leur sécurité et leur efficacité dans les produits alimentaires.

avatar geruil | 

Le but des IA génératives c’est de gagner du temps ? Mais combien de temps allons nous mettre pour vérifier ce qu’elle dit ?

avatar Hasgarn | 

@geruil

C’est à toi de leur demander un truc qui n’appelle pas de vérification.
Sinon, pose la question à Google, pas à Chat GPT

avatar zearno | 

@geruil
C'est à mon avis sur ce plan qu'on doit apprendre à l'utiliser. Pour le moment, j'utilise beaucoup les LLM (principalement ceux que j'ai installé en local) pour des tâches simples de résumer d'articles et/ou traduction. Là dessus, j'estime que les outils apportent un niveau de confiance qui permet de ne pas être obliger de refaire le travail derrière.

Pour les sujets plus complexes et qui demanderai, en effet, une attention particulière, je pense que les LLM peuvent donner de bonnes pistes pour démarrer l'exploration de ces sujets, le reste du travail étant l'affaire de notre intelligence.

Ca pourrait être intéressant de comparer nos manière d'utiliser ces modèles d'ailleurs.

avatar geruil | 

Merci pour ton retour intéressant avec ton expérience. Je vais me pencher davantage sur le sujet ;)

avatar vidok91 | 

Tim Cook admettant une faiblesse… J’hallucine !
J’hallucine… donc je suis une IA !
Et comme j’aime faire des tours de mon quartier, je suis une IA qui tourne en local. Donc écolo.

avatar yod75 | 

Merci tu as fait ma journée

avatar Jeamy | 

IA de Tom Cook est en panne depuis qu’il est en poste et il en fait des bourdes

avatar cedzic | 

😂

avatar pariscanal | 

L action flambe 😎

avatar Antoine360 | 

En parlant de colle... Google did it again!
https://www.theverge.com/2024/6/11/24176490/mm-delicious-glue

avatar zearno | 

@Antoine360
Ce qui fait mal pour Google c'est la comparaison avec les autres (Perplexity et ChatGPT dans l'article).

avatar Boboss29 | 

Je me demande si la suite cloud de iwork permettra d'utiliser  Intelligence ? Ça pourrait être une solution pour celles et ceux n'ayant pas de machines compatibles ?

avatar marc_os | 

le système risque d’« halluciner », c’est-à-dire d’inventer un fait et de présenter celui-ci comme vrai

Cette phrase montre une incompréhension de l' « IA » que je retrouve trop régulièrement.
En effet oui, l'IA peut "inventer" des faits (se tromper) et elle est "responsable", mais non, l'IA n'est pas responsable de la présentation des résultats comme s'ils étaient avérés.
L'IA est "responsable" uniquement des résultats qu'elle génère.
Mais c'est bien l'être humain, le développeur ou plus probablement sa direction qui décide de présenter les résultats de telle ou telle façon.

Si les résultats sont présentés comme "vrais" en toute circonstance, c'est un choix.
Car en vérité, les résultats sont associés normalement à une probabilité de "véracité".
ChatGPT & Co pourraient choisir de présenter leurs résultats avec telle probabilité, par exemple 95%. Ne pas afficher la probabilité est un choix — à mon avis malhonnête, en plus d'être dangereux si des gens prennent pour argent comptant les conseils des ces « IA ».

Probability and Statistics Books for Machine Learning

CONNEXION UTILISATEUR