Utilisation des données, intelligence artificielle : Tim Cook appelle à la prudence

Mickaël Bazoge |

Tim Cook profite de la Journée de la protection des données pour faire entendre la petite musique d'Apple sur un sujet qui lui tient particulièrement à cœur. Le patron d'Apple a ainsi lancé hier la conférence CPDP, durant laquelle il a fait le lien entre collecte effrénée des données et extrémisme. Dans une interview pour Fast Company, il reprend bien évidemment le même discours, en y ajoutant tout de même deux ou trois choses intéressantes.

Tim Cook en 2018 à Bruxelles. Merci S.

À une personne qui lui dirait qu'il se fiche de savoir comment sont exploitées ses données, le CEO d'Apple répondrait que la collecte d'un volume toujours plus important d'informations peut pousser un utilisateur à l'auto-censure. « J'essaie de faire réfléchir la personne à ce qui se passerait dans un monde où il saurait qu'il est constamment sous surveillance », décrit Tim Cook. « Quels changements va-t-il apporter à son comportement ? Qu'est-ce qu'il ne ferait plus du tout ? ».

Cet utilisateur pourrait aussi se désintéresser volontairement de sujets qui le passionnent, sachant que ce qu'il fait sur le web serait surveillé en permanence. Personne ne devrait aspirer à un tel monde, martèle-t-il. Selon Tim Cook, les gens qui entendent ce discours commencent alors à s'interroger sur ce qu'ils font et recherchent sur internet. Ils se disent : « Je n'ai pas vraiment envie que d'autres personnes sachent ce que je regarde sur le web, parce que tel sujet m'intéresse ». Passée cette période de réflexion, l'importance du respect de la confidentialité devrait tomber sous le sens.

Un autre sujet abordé dans cette interview, et sur lequel on a finalement peu entendu Tim Cook, c'est la peur que l'intelligence artificielle ne provoque des dégâts considérables — une crainte entretenue régulièrement par Elon Musk. Le patron d'Apple estime que l'IA, dont Apple fait un grand usage dans ses produits, « peut être utilisée pour de mauvaises choses et que ces mauvaises choses peuvent être amplifiées par la technologie ». Il poursuit : « Nous devons avoir de l'IA éthique, comme nous avons de la collecte des données éthique ».

Accédez aux commentaires de l'article