Beaucoup d’entre nous connaissent les principes fondateurs des échanges pair à pair (en anglais peer to peer et son accronyme P2P). Le concept du P2P a connu un immense succès dans le domaine des échanges de fichiers (légaux et surtout illégaux). Loin des débats d’actualité, cette technologie est en train de se préparer à occuper le devant de la scène, légale.
La fibre au secours du P2P
Peu efficace à ses débuts, la technologie P2P a fait d’immenses progrès : on contrôle maintenant mieux les ressources disponibles sur chaque machine prenant part au réseau P2P. L’avènement de la fibre optique renforce la pertinence du modèle en apportant de la bande passante de l’usager vers l’Internet : la fameuse voie montante. C’est cette voie qui aujourd’hui fait cruellement défaut à nos liaisons ADSL (avec son « A » comme asymétrique).
Pour l’anecdote, certains diront que les producteurs de contenus ont fait pressions sur les fournisseurs d’accès pour que cette asymétrie soit propice à la consommation de contenus et non à la production par tout un chacun qui caractérise si bien le Web 2.0.
Des tuyaux qui ne peuvent pas s’étendre à l’infini
Le volume d’information qui transitent sur le réseau Internet ne fait qu’augmenter de jour en jour. Ce volume est devenu tellement importants qu’on en arrive aujourd’hui à la limite physique des équipements réseaux. Cette difficulté engendre des coûts importants chez les opérateurs télécom et les fournisseurs d’accès. Dès qu’il s’agit de faire transiter d’importante quantité de données : vidéos sur Internet, téléchargement de programmes ou mise à jour, le P2P a son rôle a joué pour réduire la facture.
En France, le réseau Internet est en étoile : la province à ses branches, au centre nous avons la capitale. Diffuser une vidéo revient à utiliser le tuyaux du datacenter de la région parisienne – ou de l’étranger – vers l’abonné. Dans ce cas précis un mécanisme P2P évolué permet de faire transiter ce même fichier depuis abonnés du même quartier, de la même ville ou de la même région qui ont déjà téléchargé ce fichier. On est dans la logique même du cloud computing, loin du modèle centralisé que tout le monde pratique aujourd’hui.
Le bénéfice pour le fournisseur d’accès se situe dans les investissements réduits des équipements réseaux qu’il devra déployer pour son coeur de réseau situé dans la capitale. Il y gagne aussi si ce fichier devait arriver d’un endroit situé ailleurs que sur son réseau ou depuis les liens privilégiés qu’il a pu contractualisé par échange de liens (peering).
P2P 2.0, ça a déjà commencé
Au niveau des éditeurs, on a bien saisi aussi l’intérêt de cette technologie. Editeurs de jeux ou diffuseurs de vidéos, ils ont déjà intégré des modules P2P dans les programmes d’installation tels que World Of Warcraft ou dans les lecteurs multimédia de Joost et Spotify.
Les futures challenges se trouve dans l’usage des médias comme la vidéo. Autant un fichier à télécharger ou un morceau de musique peut être télécharger dans n’importe quel ordre de façon à réduire le temps de téléchargement, autant une vidéo a besoin d’être lue depuis le début dans la majorité des cas. Une équipe de chercheurs de Téléfonica (opérateur télécom historique espagnol) ont mis au point des algorithmes de partage P2P qui permettent de faciliter le déplacement dans les vidéos (seeking). Baptisé Kangaroo, le nouvel algorithme devrait aider à la mise en place de service de vidéo à la demande en haute définition tout en maîtrisant le trafic sur les infrastructures réseau des opérateurs.
De nombreux autres acteurs s’intéressent à cette nouvelle génération de P2P que j’appellerais P2P 2.0. On notera la discrète annonce d’Adobe à ce sujet dans le cadre d’une intervention à la conférence Streaming Media. Fort du déploiement de son player, Adobe a de forte chance de porter la technologie à très grande échelle.
Les intéressés sont nombreux : fournisseurs d’accès, opérateurs, plateforme de diffusion CDN, mais aussi des sites à fort trafic comme YouTube, Dailymotion, Hulu mais aussi des iTunes Store ou AmazonVOD.