J’ai fait des bons au plafond lorsque j’ai croisé des articles sur la toile comparant des méthodes très différentes de mesure du débit internet des accès en France.
Voici un billet pour mieux comprendre combien il est difficile de travailler avec ces données.
La méthode DegroupNews
L’équipe DegroupNews/DegroupTest est clairement documentée sur la page ad-hoc :
Ces résultats sont tirés de l’ensemble des tests de débits effectués par les utilisateurs sur le site DegroupTest (serveur hébergé chez OVH à Roubaix) du 1er juillet au 31 décembre 2011, soit 3 670 936 tests. Source : DegroupTest
Il est intéressant de noter la proportion des tests par technologie, ainsi on verra apparaitre très peu de trafic depuis les terminaux mobiles alors que c’est un trafic en forte augmentation chez les opérateurs et chez les diffuseurs de services.
La méthode « State of the Internet »
La méthode est décrite par David Belson, le directeur de publication du rapport « State of The Internet ». A lire en anglais : Where does « State of the Internet » data come from? Laissons parler la partie la plus représentative :
[…] one trillion requests for content each day from users in over 200 countries/regions around the world (238 in the second quarter, to be exact). These content requests are serviced by over 100,000 servers deployed across more than 1,000 networks in 75 countries. This immense amount of traffic provides Akamai with a massive data set that we are able to analyze
Pour répondre au manque de clarté évoquée par DegroupNews, les mesures ne tiennent pas compte de la télévision ni des autres services « gérés » sur le réseau IP de l’opérateur en même temps que la consommation internet. C’est une capture de tranche de vie, voilà tout. D’ailleurs, il ne s’agit pas de mesure, mais d’analyse du trafic réel envoyé sur la plateforme, du plus petit fichier de quelques octets aux plus larges avec les vidéos et logiciels diffusés électroniquement (mise à jour de Windows, de Mac OS X, d’anti-virus).
Et pour les curieux de la plomberie en arrière boutique, oui, cette vitesse dépend complètement de la qualité d’interconnexion des uns et des autres, la distance réseau ayant une relation direct avec la latence et les débits.
Si la France est particulière comme le souligne DegroupNews, en matière de triple-play, il n’en demeure pas que les Etats-Unis ont une longueur d’avance sur les services en ligne (Netflix et Apple TV/iTunes en tête), du fait justement de ce manque d’offre triple-play chez eux.
A noter aussi, que les résultats s’appliquent à tous les moyens de connexion qu’on trouve chez les utilisateurs : ADSL, fibre, mobile, clé 3G, accès entreprise ou universitaire etc… et depuis une multitude de réseaux, interne au backbone de l’ISP, proche ou externe, dépendamment des situations. Le mot réseau ici est donc assez inadapté, il s’agit plus d’une plateforme connectée à des centaines de réseaux différents, dans des lieux géographiques différents.
Conclusion ?
Il n’y en a pas. Les deux méthodes sont très différentes et il serait idiot de les comparer les unes aux autres. Il est plus intéressant de regarder les tendances ou d’en débusquer de nouvelles. J’avais lu lors de la diffusion de la précédente édition du State of The Internet que certaines baisses de débit pourraient être lié au boom des connexions mobiles/tablettes qui remplace petit à petit nos ordinateurs. Ca me paraissait une très bonne analyse, reflet des changements profonds qui s’opèrent dans notre société.
Les fournisseurs d’accès fixe et mobile connaissent parfaitement tout cela, ils ont parfaitement raison de ramener à la raison des analyses fantaisistes qu’on voit parfois sur la toile. Les analyses plus réalistes sont plus complexes à appréhender, voir de bons exemples du coté de Stéphane Bortzmeyer par exemple.
* *
*
Voir aussi
- IP-Label : hausse de la qualité d’Internet en France chez 01Net (20 mars 2012)
- Le blog du globe trotteur du peering