Chapitre 4.3.2
CDN - Content Delivery Network
À la fin des années 90, le web commence à prendre de l'ampleur. Les pages, jusqu'alors composées de texte, intègrent de plus en plus d'images, de vidéos
et de scripts pour dynamiser la navigation. Par conséquent, elles deviennent plus lourdes et lentes à charger.
Chaque média qu'un navigateur veut afficher provoque l'envoi d'une requête vers les serveurs.
À cette époque, la majorité des sites web reposent sur quelques serveurs physiques, souvent regroupés dans un même centre de données.
La redondance géographique est rare, les connexions transatlantiques sont lentes, et la bande passante est très coûteuse.
En cas de pic de trafic, les serveurs tombent et les systèmes deviennent inaccessibles.
Akamai
Les sites web, notamment ceux subissant un fort trafic, cherchent à réduire la charge
sur leur infrastructure tout en assurant une bonne qualité de service et la disponibilité rapide de leur contenu.
Un ingénieur du MIT, Tom Leighton, travaille sur la distribution efficace de contenu sur Internet.
Son étudiant, Daniel Lewin, met au point un algorithme pour déterminer le meilleur chemin réseau et répliquer les fichiers à plusieurs endroits.
La solution : placer des serveurs un peu partout dans le monde, proches des utilisateurs, et y stocker temporairement les fichiers les plus demandés.
En 1998, ils cofondent Akamai Technologies, considérée comme la société fondatrice du CDN moderne.
Rapprocher géographiquement les utilisateurs et les serveurs permet de réduire la distance et le nombre d'équipements traversés par
les données.
En diminuant la latence réseau, c'est-à-dire le délai que met une requête pour aller de l’utilisateur jusqu’au serveur,
on réduit aussi le temps total de transfert des données.
Pour que ça fonctionne, les sites doivent configurer leur nom de domaine pour qu'il soit résolu par le CDN.
Le CDN analyse la position géographique de l'utilisateur et indique au navigateur le serveur le plus proche à qui envoyer
ses requêtes pour charger les médias. Ensuite, soit le CDN a la ressource demandée déjà en cache et peut répondre directement au navigateur, soit il retransmet
la requête aux serveurs du site. C'est désormais le CDN qui absorbe la majeure partie de la charge des requêtes.
Démocratisation des CDN
À cette époque, le web mondial connaît ses premières crises.
Certains événements planétaires, comme les élections américaines de 2000 ou les Jeux Olympiques de Sydney, provoquent des afflux massifs de visiteurs sur les sites d’actualités.
CNN.com, par exemple, se retrouve plusieurs fois inaccessible à cause de serveurs saturés.
Ces pannes montrent les limites du modèle centralisé avec un seul serveur pour répondre à la planète entière.
Il devient urgent de trouver un moyen de répartir le contenu.
CNN, Yahoo ou Apple font partie des premiers clients d'Akamai.
Ils utilisent les CDN pour absorber sans problème les pics de trafic lors d’événements mondiaux, démontrant la puissance du système.
Avec la montée de la vidéo et du e-commerce dans les années 2000, les CDN se sont démocratisés et sont devenus incontournables.
En quelques années, ils sont passés d’une solution de secours pour sites surchargés à une infrastructure universelle, présente derrière presque chaque image, vidéo ou fichier en ligne.
Avec le temps, les CDN se sont améliorés pour devenir plus que de simples systèmes de cache.
Google, Amazon, Cloudflare, Fastly, Microsoft, Akamai, Tencent, OVH, Scaleway... sont en concurrence pour développer des systèmes intelligents, capables d’adapter leurs réponses selon la connexion de l’utilisateur, d’exécuter du code, ou de retourner des versions différentes selon le type d’appareil, la localisation, la langue etc...
On ne parle donc plus seulement de diffusion, mais de traitement distribué au plus près de l’utilisateur.
