Apple prépare son CDN pour distribuer ses contenus sur Internet

Florian Innocente |

Apple est sérieusement affairée à construire son propre CDN, écrit StreamingMediaBlog. Cet acronyme désigne les Content Delivery Networks. Des réseaux de serveurs appartenant à des sociétés spécialisées, reliés aux points névralgiques d'Internet. Ils permettent à une entreprise qui en loue l'usage, de voir ses contenus distribués de manière plus efficace à travers le monde quels que soient les volumes de requêtes.

Chez Apple, les contenus à rendre disponibles sans heurts sont nombreux et variés : App Store, Apple Store, iCloud, iTunes Store, bandes-annonces de films et le site du fabricant. Depuis juillet 1999, Apple travaille avec Akamai. À l'époque il s'agissait de lancer le QuickTime TV Network pour envoyer audio et vidéo sur Internet. Puis est venu s'ajouter un autre acteur du domaine, Level 3.

Une partie du centre de commande d'Akamai

StreamingMediaBlog explique que ce petit milieu du CDN a observé depuis l'an dernier une recrudescence d'embauches par Apple de spécialistes de haut niveau. Des recrues qui forment une équipe constituée l'année dernière, et dont l'objectif est de mettre en place un CDN maison, non plus uniquement pour les besoins internes mais vers les clients de la Pomme.

Les informations sont encore trop succinctes pour savoir jusqu'où vont les ambitions d'Apple dans le domaine et ce qu'elle veut faire précisément. Certains échos parlent d'une volonté d'améliorer les performances d'iCloud. En prenant en charge tout ou partie de cette activité, Apple s'assurait un contrôle plus large encore. Toute la chaîne de transmission, depuis ses serveurs vers ceux des fournisseurs d'accès Internet de ses utilisateurs, seraient sous sa supervision.

Akamai a indiqué en octobre dernier que son plus gros client dans la distribution de contenus - dont il n'a pas donné le nom - avait prévu de renégocier sa facture, après plusieurs années de statu quo. Il a aussi admis que cela aurait un impact sur plusieurs résultats trimestriels. Akamai avait connu à cette époque un boost dans cette partie de son activité grâce à la distribution d'iOS 7. Il semble que le client en question n'est autre qu'Apple.

En constituant un CDN destiné aux échanges vers l'extérieur, Apple ne ferait qu'appliquer une méthode déjà en oeuvre chez d'autres grandes sociétés, observe StreamingMediaBlog. Citant pêle-mêle Microsoft, Google, Netflix, Yahoo, Twitter et Facebook qui ont tous, à des degrés divers, mis en place de telles installations. Cela prend néanmoins du temps. Il a fallu 18 mois au moins pour que les CDN de Microsoft, YouTube ou NetFlix reprennent suffisamment de trafic à leurs partenaires pour que ceux-ci en ressentent les effets, ce qui ne les empêche pas de continuer à fournir des prestations à ces clients.


Tags
avatar patrick86 | 

Toute l'ironie du Cloud : on veut centraliser, mais on est obligé de redonder nu peu partout si on veut que ça fonctionne bien.
Autant laisser le maximum de données possibles (partage de contenus, publications web, données, contenus musiques, films, etc.) en périphérie du réseau.

avatar AirForceTwo | 

Comment peut-on laisser les films en périphérie ? En réhabilitant les vidéoclub à Pantin ? :-)

Plus sérieusement, comment laisser ce type de données en périphérie ?
Et pour la publication Web, c'est quoi la périphérie ? Héberger les sites à la maison ?

avatar patrick86 | 

"Comment peut-on laisser les films en périphérie ? En réhabilitant les vidéoclub à Pantin ? :-)

Plus sérieusement, comment laisser ce type de données en périphérie ?"

Qu'on se comprenne bien. Le serveur d'un magasin numérique de contenu numérique tel qu'iTunes est en périphérie du réseau. C'est un ordinateur (certes gros) qui est connecté à Internet, et qui permet aux client de télécharger leurs achats de ce serveur vers leurs machine.
Achter un album sur iTunes ou commander le CD chez un disquaire et se le faire livrer par la poste, ça revient schématiquement au même.
On peut difficilement faire autrement, sauf à intégrer à iTunes un partage en P2P (ce qui augmenterait considérablement l'efficacité du truc).

Par contre, poster la video de son chat qui se casse la gueule dans la baignoire (ou de son chien qui danse) sur YouTube, c'est mettre son contenu sur un serveur central (du 'réseau' qu'est YouTube), au lieu de la partager depuis sa machine (à soi).
En Anglais on appelle ce le 'cloud', en français le 'Minitel'.

"Et pour la publication Web, c'est quoi la périphérie ? Héberger les sites à la maison ?"

Oui.

La périphérie, c'est tout ce qui est autour d'Internet. C'est-à-dire toutes les machines qui y sont connectées.
Sauf qu'à tout héberger sur des gros serveurs, on recentre le réseau et ça créé du trafic important à des endroits précis.

Si on hébergeait nos vidéo chez nous au lieu de les mettre sur YouTube, il n'y aurait pas besoin de gros data center, de systèmes de redondances. On aurait pas de problèmes d'interconnexions sous dimensionnées entres YouTube et des opérateurs, etc.

avatar patrick86 | 

@HyperBallad :

Je remet là un commentaire que j'avais posté ailleurs sur ce sujet :

Le Cloud (ou Minitel 2.0 pour parler Français) est une Régression parce que c'est un retour aux système centrés qu'il y avait avant (principalement Minitel en France).
C'est la perte de la maitrise, du contrôle (par SOI-même) de ses données, de l'autonomie de sa machine pour des tâches de base qui n'ont aucune raison d'être dépendantes d'une connexion réseau.
C'est la surcharge inutiles des réseaux informatiques pour stocker sur un autre continent des données qui n'ont aucune raison particulière d'être ailleurs que sur MA machine (et ses DD de sauvegarde).
C'est la porte ouverte à toute(s) utilisation(s) possible(s) des données à l'insu de leurs propriétaires.
C'est la possibilité pour l'entreprise qui tient le système, de contrôler beaucoup plus facilement de qui y est fait.
C'est des datacenters gigantesques qui consomment des énormes quantités d'énergie, alors que JE maitrise les heures où MON ordinateur consomme ou pas.
C'est la possibilité extrêmement facilité de mettre un utilisateur sous écoute : avec Internet fallait scruter sa connexion ou perquisitionner son disque dur : avec le cloud, suffi d'aller voir sur le serveur qui tient ses données.
C'est la facilité accrue pour les entreprises de monétiser leurs utilisateurs qui deviennent les produits.

C'est TOUT le contraire de ce que permet Internet tel qu'il a été voulu est mis en place au départ (un réseau NEUTRE et LIBRE).

Le but d'Internet est de permettre à quiconque d'émettre autant que de recevoir ; d'héberger mon site web, mon serveur mail sur MA machine : d'avoir la possibilité de communiquer par messagerie instantanée DIRECTEMENT entre les machines concernées, SANS passer par un serveur central à Pétaouchnok ; de savoir OÙ sont stockées SES données et qui y a accès : etc.
Bref. Tout un tas d'usages vachement cool et quasiment impossible avec le Minitel.

--

La formulation à retenir est :
- avec le minitel, on avait l'intelligence au centre est des terminaux débiles autours ;
- avec Internet, on a mis l'intelligence en périphérique et un réseau idiot au milieu.

--

iClouds pourraient très bien être basés sur des petits serveur que chaque utilisateur/famille aurait chez lui/elle.
Certains services pourraient même être en Peer To Peer.

--

Le fond de la réponse est RÉGRESSION.

avatar oomu | 

C'est tout à fait exacte.

Le cloud est une régression vers le minitel.

La où l'industrie aurait du continuer la tendance originale vers l'auto-hébergement, des outils simples pour faire son service en ligne, de la redondance par un FAI (pourquoi pas ?) et des petits nas/modem élégant hébergeant nos photos, cv, œuvres, blogs, commentaires, "tweets", opinions pour le réseau internet, jusqu'à ce qu'on les enleve soit même.

Il est tout à fait possible de faire des services décentralisés mais avec un annuaire/index permettant de naviguer de contenus en contenus (et qui oui visuellement aurait été tel Facebook)

Les coûts n'auraient pas été cachés, vous auriez maitrisé comment et pourquoi vos contenus sont mis en ligne et copiés, sans devoir se plier à un chantage sur votre vie personnelle.

Bref que les contenus soient en périphérie. Et non sur des serveurs qui lentement semblent devenir le Centre du réseau, voir le réseau lui même.

-
Sur un pur plan technique, un serveur Facebook ou youtube sont en périphérie aussi. Mais leurs importances, les accord passés avec les FAI, leur impact sur la santé du réseau et donc les solutions mises en œuvre les rendent, progressivement, de plus en plus spécifique, différents d'un ordinateur personnel connecté à internet, et donc oui, centraux : une part inhérente d'Internet, contrairement à ce qu'est internet conceptuellement.

avatar patrick86 | 

" l'auto-hébergement, des outils simples pour faire son service en ligne, de la redondance par un FAI (pourquoi pas ?)"

C'est par exemple ce que propose FDN.
Ils aident leurs abonnés-adérents à mettre en place leurs serveurs mails, web, etc. et proposent un relai sur le serveur de l'association, pour ceux qui veulent pouvoir éteindre leur machine de temps en temps, ou simplement un peu plus de fiabilité. On peut même héberger son serveur mail sur le serveur de l'assoc (c'est pas juste un compte sur un service en place si j'ai bien compris).

Accessoirement ils proposent d'avoir une ou PLUSIEURS adresse IP publiques fixes (du moment que la demande est raisonnable et que la ICANN accepte).

"Il est tout à fait possible de faire des services décentralisés mais avec un annuaire/index"

On a même un exemple commercial connu : FaceTime qui fonctionnait en P2P (avant que VirnetX ne passe par là).

avatar AirForceTwo | 

Merci pour les informations très complètes ! Ça donne envie d'acheter un NAS.

Moi-même, j'ai toujours trouvé les systèmes d'emails hébergés (Yahoo, Gmail, etc.) contradictoires avec ce que devrait être internet. Pour moi, un courriel qui m'est destiné devrait arriver directement chez moi, pas sur un serveur au bout du monde.

Le problème est la fiabilité toute relative des connexions internet résidentielles. Pour les courriels il faut un backup MX, c'est loin d'être donné et on perd un peu la beauté de la chose...

avatar patrick86 | 

"Moi-même, j'ai toujours trouvé les systèmes d'emails hébergés (Yahoo, Gmail, etc.) contradictoires avec ce que devrait être internet. Pour moi, un courriel qui m'est destiné devrait arriver directement chez moi, pas sur un serveur au bout du monde."

C'est d'ailleurs le principe originel de la chose. Une adresse email, c'est nom-de-l'utilisateur@le-nom-de-la-machine

"Le problème est la fiabilité toute relative des connexions internet résidentielles."

Et les capacités encore très médiocres chez bien beaucoup de monde.
L'ADSL ne permet pas d'émettre convenablement. Il a été choisi massivement parce que les opérateurs sont partis du principe qu'on avait pas besoin d'émettre…

--

FDN propose le MX : http://www.fdn.fr/Mail.html

avatar lmouillart | 

Si tu utilise du P2P, alors tu n'a strictement aucune maîtrise, d'où tes données vont et de qui y a accès.
Si tu utilise en plus des listes de confiance pour réduire les hôtes sur lesquels tu distribue tes données, alors il faut :
- gérer la liste de ces systèmes de confiances
- être sûr qu'ils ne soient pas tous éteins en même temps.

Il faut donc souvent avoir un serveur central + les différents pairs.
Le P2P est souvent bête et ne se soucis pas tellement de la géographie des pairs.

Si tu souhaite de la recherche sur ce réseau alors il faut des nœuds de démarrage et au niveau des premiers niveau de pairs, qu'ils soient disponible le plus possible.

---
Si tu veux une machine auto-hébergé alors celle-ci doit être allumée non pas quand toi tu veux, mais quand les personnes qui accèdent aux données dessus, le désirent. A moins de dire aux personnes avec qui tu partage les ressources que la vidéo sera disponible ce lundi entre 18h30 et 22h, mardi indispo (j'ai piscine), etc ... c'est pratique comme tout :-). Idem pour la réception de tes mails.

---
En P2P les entreprises peuvent aussi très bien monétiser les données des clients, de la même manière en self hosting.
Le mode de financement dépends de la stratégie des sociétés informatiques et pas de l'architecture des réseaux.

---
La migration des utilisateurs d'une constellation de services à quelques un très gros consolidés est principalement due :
à la crise de 90
à la mort de tout un tas de sociétés qui proposaient des pourriciels et qui sont toutes mortes plus ou moins rapidement après des migration massives d'utilisateurs.

Pour le reste c'est l'évolution normal d’internet, au début éclaté, puis ensuite consolider pour réduire les coûts (dépenses, énergie, etc ...).

Les opérateurs râles car la valeur ajouté qu'ils nous vendaient ne sera plus émis par eux, mais directement par ces fournisseurs de contenus. Les opérateurs retrouvent donc leur rôle de vendeur de tuyaux et râlent car cela baisse le revenu par abonné.

---
Un serveur à la maison ? Ça chauffe, ça fait du bruit, ça coûte cher, il faut s'en occuper, ...

avatar patrick86 | 

Je ne vois pas le P2P remplacer les serveurs d'iTunes, mais venir en complément.

On voit très vite le gain que ça amènerait pour les sorties d'OS X et iOS : les premiers téléchargent depuis le serveur central, puis les autres peuvent récupérer en P2P, et là on limite l'engorgement, voire accélère les téléchargements.

"Si tu utilise du P2P, alors tu n'a strictement aucune maîtrise, d'où tes données vont et de qui y a accès."

Si, on peut.
FaceTime fonctionnait en P2P, c'est pas pour autant que n'importe qui pouvait se connecter à un appel en court.

T411 mesure le ratio de chaque utilisateur.

--

"Si tu veux une machine auto-hébergé alors celle-ci doit être allumée non pas quand toi tu veux, mais quand les personnes qui accèdent aux données dessus, le désirent."

Oui, et c'est très exactement la même chose avec le Minitel-Cloud : le serveur qui tient les données de tout le monde doit être disponible en permanence.

--

"En P2P les entreprises peuvent aussi très bien monétiser les données des clients"

Une entreprise ne peut pas faire commerce direct ou dérivée des données, si elles ne transitent pas par ses infrastructures ni n'y sont stockées. Il faut un accès aux données, avoir un regard dessus, pour en tirer quelque chose.
Google ne pourrait pas cibler ses pubs sur la base des mails, si elle n'y avaient pas accès. Elle ne pourrait pas les analyser.
Elle ne peut que facturer un service, on est alors dans une relation beaucoup plus saine.

Ou alors, on fait du DPI, mais là on entre pour de bon dans l'espionnage pur et simple.

--

"La migration des utilisateurs d'une constellation de services à quelques un très gros consolidés est principalement due :
à la crise de 90
à la mort de tout un tas de sociétés qui proposaient des pourriciels et qui sont toutes mortes plus ou moins rapidement après des migration massives d'utilisateurs."

Je ne pense pas. C'est surtout dû à la mise en avant de solutions plus faciles, mais centralisées.
Quand le webmail est apparu, c'était plus simple que d'installer son truc chez soi.
C'est plus simple que faire du Skyblog que d'installer Apache sur sa machine.
Etc.
Donc progressivement, des gens qui s'hébergeaient ont été attirés vers les solutions proposées par des "faiseurs de Minitel", parce que plus facile à faire.

Sauf que, comme le souligne oomu, proposer un appareil intégrant serveur Web, mail, video, etc. et qui permette de publier une photo aussi facilement que sur Facebook, c'est PARFAITEMENT faisable.
Ça existe en plus, je pense notamment aux NAS Synology.

--

"Pour le reste c'est l'évolution normal d’internet, au début éclaté, puis ensuite consolider pour réduire les coûts (dépenses, énergie, etc ...)."

Non. AVANT Internet il y avait des réseaux fermés, disparates, plus ou moins compatibles entre eux… Avant Internet, on avait ce qu'on appelait pas encore du cloud computing, mais qui était exactement la même chose.
Bref, des réseaux tous pourris.

Internet = Interconnected Networks
Internet, c'est le truc sur lequel tout le monde s'est mis d'accord sur la façon d'interconnecter les réseaux.
Internet EST un énorme maillage de très nombreux réseaux.
Quand tu connectes une nouvelle machine dans nouvelle maison au xDSL ou à la Fibre, tu créé un petit bout d'Internet qui n'existait pas avant.

Internet est un réseau NEUTRE, idiot, que ne fait que transporter les données. À son origine du moins.

C'est le problème des gros services centralisés (Youtube, Facebook, etc). Leurs très grosses tailles imposent des gestions particulières, des infrastructures adaptées, des très gros liens de peering avec les FAI, etc.

Le Cloud computing n'économise PAS d'énergie.
Prétendre, qu'un transfert systématique de masses de données sur des serveurs distants, que les infrastructures réseaux nécessaires au fonctionnement de Facebook ou YouTube, que la surcroissance du trafic de données liées au cloud, etc., permetteraient d'économiser de l'énergie est une absurdité.

Une page web équivalente à un mur Facebook, visitée par 5 gus par jour, ça tient sur un Raspberry Pi.

Mettre un panneaux solaire sur chaque maison pour alimenter la machine qui sert de serveur, c'est beaucoup moins contraignant que de construire des centrales photovoltaïques pour alimenter des data-centers.

--

"Les opérateurs râles car la valeur ajouté qu'ils nous vendaient ne sera plus émis par eux, mais directement par ces fournisseurs de contenus. Les opérateurs retrouvent donc leur rôle de vendeur de tuyaux et râlent car cela baisse le revenu par abonné."

Les opérateurs râlent/râlaient parce qu'Internet amenait un modèle économique différent de celui du téléphone, Minitel et télévision. À savoir une facturation aux deux bouts par celui qui diffuse.

Sur Internet, on paie une bande passante, quel que soit le sens.
Que le contenu soit payant ou gratuit, l'opérateur — idéalement — s'en fou.

L'opérateur n'est — ou n'était — plus l'intermédiaire de facturation.

Sur le Minitel, on ne payait pas une facture au service qu'on consultait, mais uniquement à France Télécom.

Alors oui, quand Orange constate qu'ils dépensent des milliards pour construire un réseau, pendant que Meetic se remplie bien les poches en se touchant l'asticot, y'a une tentation qui vient rapidement : taxer.

---

"Un serveur à la maison ?

Oui. N'importe quel PC peut le faire.

"Ça chauffe, ça fait du bruit"

Un serveur n'est PAS nécessairement un machin très cher en 2U dans une armoire.
Un Mac Mini, ça chauffe pas et ne fait pas tant de bruits que ça, et c'est bien suffisant (en terme de capacité) pour une grosse majorité des gens. (La télé fait beaucoup plus de bruit !)

"ça coûte cher,"

Ça dépend ce qu'on veut héberger.
C'est pas cher un Raspberry Pi.

Le Cloud coute HORRIBLEMENT CHER. On le pait d'une manière ou d'une autre.

"il faut s'en occuper, ..."

On est capable de faire des trucs suffisamment autonomes pour ne pas nécessiter un administrateur réseau BAC+5 présent en permanence, assisté d'un Bac+2 à mi-temps et secondé d'un stagiaire 6 mois sur 12.

---

Sur ce sujet, je conseille généralement les très bonnes conférences de Benjamin Bayart.

avatar lmouillart | 

"Une page web équivalente à un mur Facebook, visitée par 5 gus par jour, ça tient sur un Raspberry Pi."
En l'état actuelle de FB, il faudrait 1.5 millards de Raspberry PI, par rapport au DC Facebook je suis pas certain que ce soit plus économique.

"Sur ce sujet, je conseille généralement les très bonnes conférences de Benjamin Bayart."
Certes, mais d'un coté on parle de réseaux associatifs avec des serveurs fait de bric et de broc et tout à gérer et de l'autre un truc ou tu mets un pseudo, et un mot de passe (et rien que ca c'est déjà souvent bien trop compliqué), et des solutions qui sont utilisés par 1, 2 millards de personnes.

Du self hosting tu auras ta GoogleBox ou AppleBox, tu auras accès aux données qu'Apple ou Google souhaite te donner, il n'y a pas la moindre raison qu'il n'y ai pas autant de pub.
899€ la solution Apple en self hosting, sans pub, 10€ l'achat de nouveaux services
50€ la Googlebox + 50€ / ans + pub.
et les habituels 5% sur une solution libre.
Il ne faut pas croire que parce que tu as un appareil électronique chez toi, il t'appartient forcement, par exemple le compteur EDF, ou la Freebox.

Je ne vois toujours pas la relation entre modèle économique et l'architecture d'un réseau, physique ou logique.

avatar patrick86 | 

"En l'état actuelle de FB, il faudrait 1.5 millards de Raspberry PI, par rapport au DC Facebook je suis pas certain que ce soit plus économique."

Sauf que si on tient compte que des anciennes données seront supprimées régulièrement selon la volonté des utilisateurs, ce que Facebook ne fait PAS, la croissance du volume total à stoker ne serait pas aussi importante qu'elle ne l'est pour Facebook.

"mais d'un coté on parle de réseaux associatifs"

Le réseau c'est celui d'un opérateur de collecte.

"avec des serveurs fait de bric et de broc"

Faut se sortir de la tête qu'un serveur serait nécessairement un énorme machin très cher dans une salle machine. C'est FAUX.
Sur Internet, n'importe quel ordinateur est un serveur ET un client.

Accessoirement, FDN est le plus vieux FAI Français.

Avec cette phrase, je ne citais pas spécialement FDN, mais le gars qui a été président de FDN pendant plusieurs années et a travaillé chez la plupart des gros opérateurs français. Il les connaît et connaît assez bien le secteur.

---

Si tu achètes un MacMini, il serra à toi.

la Applebox existe déjà, c'est un Mac sous OS X Serveur.
Manque juste à intégrer à OS X Serveur les mêmes fonctions que iCloud, pour en faire un serveur monCloud.
Restera les autres fonctions avancées pour ceux qui veulent plus.

--

"Je ne vois toujours pas la relation entre modèle économique et l'architecture d'un réseau, physique ou logique."

Un réseau neutre ne permet pas de filtrer/taxer les contenus.
Si le réseau est neutre, l'opérateur ne peut que transporter selon la bande passante qu'il fourni, l'ensemble des contenus, quelque soit la source, le prix et le destinataire ; que ce soit du Mozart acheté sur iTunes Store ou du porno.

Typiquement, SFR est capable de brider une connexion 3G/4G au delà d'un certain quota et uniquement pour les abonnés d'un certain forfait, sauf pour YouTube, parce que son réseau n'est PAS neutre. SFR a dans son réseau du matériel de filtrage, au quel y dit "quand M. Dupond aura consommé X Go de data, tu lui bridera TOUT comme un port, SAUF pour YouTube que tu lui laissera passer comme il faut".

C'est pareil avec les forfaits mobiles qui ne donnent accès qu'à Facebook et Twitter (à une époque c'était MSN).

On peut aussi brider le P2P.

Or, la neutralité d'un réseau est aussi lié à son architecture physique. Pour filtrer, il faut des filtres, du matériel dans le réseau pour dire "toi tu passes pas".
Pour taxer, la méthode classique consiste à menacer celui qui a le contenu à diffuser d'une panne du lien entre son réseau et celui de l'opérateur. Mais si un accord ne concerne que certains forfaits, il faut y associer un filtrage.

Un réseau centré est beaucoup plus facile à filtrer.

--

Avec le Minitel, France Télécom diffusait du contenu et des services. Elle facturait celui voulait diffuser son service, et l'abonné qui accédait au truc (et payait à la minute).
La télé payante c'est pareil : y'a celui qu'à le contenu qui paye pour être diffusé, et celui qui paye pour recevoir.
Téléphone idem.

Sur Internet, le modèle originel est une facturation au débit (ou à la bande passante), et peut importe si on diffuse ou reçoit principalement.
C'est comme ça que fonctionne le quota de data sur l'internet mobile : il englobe download et upload sans distinction.

En téléphonie (avec ton abonnement FT) tu payes pour être appelé (autant que les gens en ont envie), mais quand toi tu appelles, tu payes à la minute.
C'est toujours pareil avec les forfaits "illimités", même si on le ressent beaucoup moins parce que la limite est discrète : 3h max par appel et 500 correspondants max par mois (250 mobiles + 250 fixes).

avatar Silverscreen | 

On se demande également si les captations d'infos par la NSA y sont pour quelque chose… Il est possible qu'Apple désire accroître son contrôle sur l'information qui provient/arrive à ses serveurs car, à un moment ou un autre, le fait de savoir ses infos "en sureté" sera un critère déterminant pour les clients.

Pour l'instant, Apple est considérée comme largement écoutée par la NSA, que ce soit via un accord officieux ou, officiellement, contre son gré, et j'imagine qu'en termes d'image, c'est un association dont Apple se passerait bien.

Secundo, je vois bien Apple désirer maitriser de bout en bout le streaming 4k quand il en sera question (Apple TV ?), afin d'avoir un avantage compétitifs sur ses concurrents…

avatar patrick86 | 

"On se demande également si les captations d'infos par la NSA y sont pour quelque chose… Il est possible qu'Apple désire accroître son contrôle sur l'information qui provient/arrive à ses serveurs car, à un moment ou un autre, le fait de savoir ses infos "en sureté" sera un critère déterminant pour les clients."

C'est la réflexion que je me faisais aussi. Il est vrai qu'en passant par des CDN, Apple laisse des données de ses utilisateurs sur des serveurs autres que les siens.
Ça peut être une manière de réduire la liste des partenaires auxquels sont transmis certaines données personnelles.

avatar Kimaero | 

Je n'y connais rien du tout à ça, mais si Apple héberge ses services chez d'autres sociétés, pourquoi construit-elle d'énormes Datacenters un peu partout ?

avatar patrick86 | 

@Kimaero :

Les services et boutiques numériques d'Apple sont bien hébergés sur ses data center.
Les CDN sont là pour servir de relais, pour rapprocher les données de leurs utilisateurs.

On peut comparer ça à la mémoire vive d'un PC, ou même aux fichiers caches : ça sert à accéder plus rapidement à certaines données.

Les CDN sont des gros caches de données. Ils ne font stocker des copies de l'original.

avatar Mecky | 

@ patrick86

Bravo, je ne peux que « plussoyer » cette description détaillée des dérives du Cloud; sujet qui commence à chauffer sur tous les forums ! Il nous faut continuer à vulgariser cette problématique pour qu'un maximum d'utilisateur en soit instruit et puisse ainsi décider en connaissance de cause !

@ MacGé

Un peu hors sujet, il devient vraiment agaçant de devoir charger la page d'un sujet pour lire les 3 dernières lignes qui le compose ! Lorsque celui-ci est très long, je conçois qu'il ne soit pas repris dans son entièreté sur la Une. Mais là, il me semble qu'il y a de l'abus. Volonté de multiplier les clics générateurs de pub ?

avatar anne.62 | 

Expédié sous 2 à 4 semaines sur amazon... Va falloir être patient !

CONNEXION UTILISATEUR