Une grosse différence fonctionnelle entre Claude et ChatGPT est peu à peu levée par Anthropic. Le chatbot d’OpenAI sait depuis longtemps maintenant utiliser les discussions précédentes pour créer une mémoire de tout ce que vous avez dit et ainsi déduire automatiquement le contexte d’une future question. C’est un aspect qui m’a toujours fait préférer l’outil d’OpenAI au détriment de celui d’Anthropic, car je le trouve bien pratique à l’usage. Si je pose une question de domotique, par exemple, ChatGPT sait que j’utilise Home Assistant et la réponse est donnée dans ce contexte, alors que je devrais tout répéter à chaque fois dans Claude.
En tout cas, j’aurais dû le faire jusque-là, ce n’est plus vrai depuis que Claude a ajouté sa propre mémoire, similaire dans le principe à celle de ChatGPT. Totalement optionnelle, la fonctionnalité permet d’analyser tous vos échanges avec l’intelligence artificielle générative et d’y accéder à tout moment par la suite. On peut demander au chatbot de reconstituer un historique de tâches effectuées, ou alors se baser sur cette mémoire pour ne pas redonner tout le contexte à chaque fois. À noter que chaque projet créé dans Claude dispose de sa propre mémoire distincte de celle des autres projets, ce qui peut être utile pour mieux organiser son travail.
Claude Memory est en réalité disponible depuis le mois de septembre, mais uniquement pour les clients professionnels (comptes Team et Enterprise). La nouveauté du jour est l’extension de la fonctionnalité aux particuliers, même si la mémoire reste réservée pour l’heure aux utilisateurs qui paient un abonnement. La fonction peut être activée dans les réglages par les clients Max qui paient 100 $ par mois, comme les clients Pro qui paient 20 $ par mois ou 200 $ par an. On ne sait pas encore si ce sera aussi vrai pour les clients gratuits à terme, Anthropic ne l’a pas mentionné. Ce serait en tout cas un bon moyen de mettre Claude sur un pied d’égalité avec ChatGPT sur ce point.
Les créateurs de Claude indiquent qu’ils ont renforcé au maximum la sécurité autour de la fonctionnalité, tout en laissant le plus grand contrôle possible aux utilisateurs. Ainsi, comme chez OpenAI d’ailleurs, on peut consulter les informations mémorisées par l’intelligence artificielle et éventuellement retirer des éléments ou corriger des erreurs. Il est aussi possible d’activer des discussions privées, qui ne participeront pas à enrichir la mémoire et qui ne puiseront pas dans l’historique. Enfin, on peut ne jamais activer la mémoire et rester sur l’ancien mode de fonctionnement.
Anthropic ajoute avoir ajusté le fonctionnement de la mémoire intégrée à Claude, pour que les réponses du chatbot restent sûres et utiles notamment dans des contextes potentiellement dangereux, que ce soit pour l’utilisateur ou les autres. Cette mention répond sans doute aux polémiques qui entourent ChatGPT suite au procès lancé après le suicide d’un adolescent qui avait demandé des conseils au grand modèle de langage d’OpenAI.
Après la mort d’un ado de 16 ans, OpenAI cherche des garde-fous efficaces sur fond de procès











