Qui veut la peau d’Internet ?

Qu’est-ce que la neutralité du net ?

Dans son rapport de septembre 2010, l’ARCEP a indiqué qu’«un réseau est neutre lorsqu’il permet d’envoyer et de recevoir le contenu de son choix ((Si certains types de données devaient être prioritaires pour des raisons techniques, le principe de neutralité vise à garantir qu’il n’y ait pas de discrimination (soit de distinction partiale) entre des flux de données de même nature)), d’utiliser tout type de services et d’applications, et de connecter tout type de matériel et de logiciels en bénéficiant d’une qualité de service suffisante et transparente.»

La neutralité du Net suppose «l’idée que les acteurs du réseau ne peuvent opérer aucune discrimination en fonction des émetteurs des contenus qui y sont diffusés, de leurs récepteurs et de la nature des contenus elle-même.»

Ce qui veut dire ?

* «Imaginez que, pour mieux réguler son trafic, la RATP réserve ses métros entre 17h30 et 19 heures aux seuls travailleurs. Les habitants qui voudraient emprunter le métro pour faire leurs courses ou rendre visite à des amis ne pourraient le faire que dans l’après-midi. La RATP irait à l’encontre de la « neutralité » de son réseau.

* Si le groupe Hachette décidait un jour que certains journaux politiques n’ont pas leur place dans ses kiosques, il irait, de même, à l’encontre de la neutralité du réseau de distribution de la presse.

* Enfin, si le service postal ouvrait le courrier pour décider de ce qui est prioritaire et ce qui n’est pas, il sortirait de sa nécessaire neutralité.» ((Exemples recueillis sur Rue 89))


Les discriminations que vise à exclure la neutralité du Net

«La neutralité du Net fait d’Internet un réseau multidirectionnel et décentralisé, dont la gestion exclut toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise. C’est cette liberté de transmission d’un bout à l’autre de l’architecture communicationnelle qui met tous les utilisateurs d’Internet sur un pied d’égalité, leur permettant de recevoir et de distribuer l’information de leur choix, et ce quel que soit leurs ressources financières ou leur statut social. La neutralité du Net fait également d’Internet un espace d’innovation «sans permis», dans lequel n’importe quelle petite entreprise peut librement distribuer de nouveaux services sur Internet, même lorsque ces derniers entrent en compétition avec des acteurs économiques établis.» ((Dossier complet de la Quadrature du Net))

La neutralité du Net est donc un principe fondateur d’Internet qui exclut :

* Toute discrimination quant aux récepteurs : les opérateurs pourraient être tentés de développer des offres d’accès Internet garantissant un débit minimal, même en période de congestion du réseau. Cet accès ‘prioritaire’ se ferait au détriment de tous les autres. Cette discrimination peut également consister en un accès plus rapide aux réseaux, engendrant ainsi l’avènement d’un Internet à 2 vitesses.

* Toute discrimination quant aux émetteurs : les fournisseurs d’accès pourraient également favoriser tel ou tel site en offrant vers son contenu un accès plus rapide ou mieux référencé que chez le concurrent. Force est de constater que Google Vidéos offre en moyenne deux fois plus de liens vers Youtube (qu’il détient) que vers DailyMotion.

* Toute discrimination quant aux contenus : ces mêmes opérateurs pourraient décider de bloquer certains sites en fonction de leurs contenus ou tout au moins d’en limiter l’accès si ces derniers utilisent trop de bande passante. ((ibidem))  Ou, pour reprendre l’exemple de Google, utiliser leur omniprésence sur le réseau afin de mettre en valeur artificiellement certaines informations (voir, à cette adresse, les travaux de Ben Edelman, professeur à l’université d’Harvard).

Pour Tim Berners-Lee, garantir la neutralité du Net permet de réguler le réseau comme un bien public :

«Sur un plan conceptuel, si le Web était destiné à devenir une ressource universelle, il devait se développer sans entraves. Techniquement, il suffisait d’un seul point de réglementation centralisée pour que ceci devienne rapidement un goulot d’étranglement limitant le développement du Web, et le Web n’aurait jamais pu se développer.» ((Tim Berners-Lee, Weaving the Web : The Original Design and Ultimate Destiny of the World Wide Web by Its Inventor, 1999, p. 99))

La neutralité du net, objet de nombreux débats ((http://www.lemonde.fr/technologies/article/2010/04/14/la-neutralite-du-net-en-debat_1333301_651865.html))

Le 30 juin 2010, la Commission européenne lançait une consultation publique sur des questions liées à la neutralité de l’internet. ((Les réponses qui y ont été apportées sont toujours consultables ici))
Il s’agissait de déterminer si les fournisseurs pouvaient être autorisés à adopter certaines pratiques en matière de gestion du trafic Internet (privilégier un certain type de trafic par rapport à un autre) ; si l’Union européenne devait garantir l’existence de conditions équitables sur le marché de l’Internet (imposer une régulation) ou si c’était au secteur concerné d’agir (régulation sectorielle ou autorégulation).

L’ARCEP (Autorité de régulation des communications électroniques) a organisé un colloque sur la neutralité des réseaux (Network Neutrality) en avril 2010. Les actes qui en résultent ont été publiés et sont disponibles en PDF. En effet, pour l’ARCEP, il était nécessaire de participer à la réflexion mondiale sur ce sujet complexe et dont les enjeux sont considérables.

Tandis qu’une proposition de loi avait été déposée par le PS, ((http://pro.01net.com/editorial/524852/le-ps-propose-une-loi-sur-la-neutralite-du-net/)) une députée UMP cherchait parallèlement à faire imposer aux opérateurs le respect des principes de neutralité des réseaux. ((http://www.numerama.com/magazine/17799-laure-de-la-raudiere-ump-veut-imposer-le-respect-de-la-neutralite-du-net.html))

Pourquoi de telles réflexions ?

«Le débat se pose depuis que les opérateurs craignent une “saturation du réseau” : pour l’éviter tout en maintenant une ouverture complète du réseau, il faudrait investir (fibre optique, réseau 4G…). Une solution moins onéreuse pour les opérateurs consisterait à ‘gérer’ la pénurie : répartir la bande passante en fonction de critères discriminatoires. ((Ibidem)) Cette alternative irait à l’encontre de cette fameuse neutralité».

D’autres développements peuvent justifier des dérogations à cette neutralité. ((http://fr.wikipedia.org/wiki/Neutralité_du_réseau#D.C3.A9veloppements_mettant_en_cause_la_neutra))

Toutefois, la Quadrature estime que déroger à la neutralité du Net reviendrait à porter atteinte à la libre concurrence, à l’innovation ainsi qu’à certaines libertés fondamentales. ((Pour des justifications politiques et socio-économiques de la neutralité du Net : Ibidem))

Une réflexion internationale

La neutralité du Net est à l’étude non seulement au Royaume-Uni ((http://www.ecrans.fr/La-neutralite-du-net-bientot,11354.html)) mais également aux Etats-Unis d’où viennent les principaux bouleversements de cette notion.


Une nouvelle donne

Si ce n’était un secret pour personne, l’ARCEP a indiqué le mois dernier que Google était en position dominante sur le marché de la publicité liée aux moteurs de recherche (on remarquera le nombre d’affaires croissant impliquant son service AdWords). ((http://www.liberation.fr/economie/01012307983-google-en-position-dominante-en-france))

Sans compter que le moteur de recherche a pu être pointé du doigt pour avoir cherché à ‘oublier’ la neutralité du Net. ((http://eco.rue89.com/2010/08/05/google-est-pret-a-oublier-la-neutralite-du-net-161127 et http://www.lemonde.fr/technologies/article/2010/08/13/neutralite-du-net-google-defend-son-accord-avec-verizon_1398757_651865.html )) et que l’opacité entretenue par ce dernier serait susceptible de porter atteinte à la concurrence et/ou à la neutralité du Net. C’est précisément sur cette éventualité que la Commission Européenne enquête. ((http://www.lemonde.fr/technologies/article/2011/01/05/l-enquete-de-la-commission-europeenne-contre-google-a-commence_1461118_651865.html)) Notons que Google vient de prendre des mesures visant à améliorer la protection du droit d’auteur sur ses services de par un filtrage des résultats pointant sur des contenus illégaux. ((http://www.lepoint.fr/high-tech-internet/google-va-cacher-les-sites-pirates-lors-des-recherches-02-12-2010-1270211_47.php))

De plus, pour la Quadrature du Net, il est clair que «de nombreux opérateurs de télécommunications souhaitent remettre en cause la neutralité du Net dans le but de développer des modèles économiques fondés sur une gestion discriminatoire du trafic Internet. Les fournisseurs de contenu et de services qui seraient en mesure de payer continueraient de bénéficier des pleines capacités du réseau, tandis que le reste d’Internet se verrait ralenti.

De même, des gouvernements chercheraient à mettre en place des techniques de filtrage du réseau en vue d’établir le contrôle dont ils jouissent sur les médias traditionnels.»  A en croire certains auteurs, force serait de constater que Wikileaks a amené les gouvernements à repenser les moyens de contrôle / filtrage qu’ils auraient sur le Web. ((http://www.mediapart.fr/club/blog/olivier-ertzscheid/131210/geopolitique-du-web))

Par ailleurs, le collectif estime que «la censure du Net progresse dangereusement, à mesure qu’un nombre croissant de gouvernements démocratiques proposent ou mettent en œuvre des mécanismes de filtrage (ou de blocage) de sites pour contrôler Internet.

Qu’il s’agisse de jeux en ligne, de contenus violents ou pédopornographiques, mais encore de propos diffamatoires ou de violations du droit d’auteur ((http://www.numerama.com/magazine/17764-la-commission-europeenne-ouvre-la-porte-au-filtrage-contre-le-piratage.html)) contre lesquels il est parfaitement inefficace, ce mode de régulation est profondément dangereux du point de vue des libertés fondamentales. Il participe d’une reprise en main politique d’Internet.

En effet, le blocage de sites Internet serait par nature imprécis (faisant courir le risque de “censure collatérale” de sites parfaitement licites), et mettrait ainsi en danger la liberté d’expression et de communication.»

L’entité postule pour la préservation de la neutralité du réseau, dans lequel aucun acteur ne devrait / pourrait décider unilatéralement de bloquer tel ou tel flux.

Enfin, il faut souligner l’adoption d’une loi relative à la neutralité du Net par la Commission fédérale des communications (FCC) il y a deux semaines.

Si le texte voté garantit à tous les citoyens américains un accès à Internet, il permet dans le même temps aux FAI d’offrir un service plus rapide aux usagers, moyennant un surplus financier. Cette loi les autorise à facturer leurs services aux consommateurs en fonction de leur usage en bande passante. En effet, si l’interdiction du filtrage des contenus légaux est posée en principe, cette nouvelle réglementation admet une facturation variable selon l’usage des consommateurs (cette surfacturation traduisant le droit reconnu aux FAI de réguler leurs réseaux pour éviter les risques de saturation) qu’il s’agisse de l’Internet fixe ou mobile.

Droit leur est également donné de facturer les éditeurs de contenus mais également les abonnés qui nécessitent une large bande passante (téléchargements et contenus en streaming). ((Vers la fin de l’Internet en illimité et une priorisation du trafic ? : http://www.degroupnews.com/actualite/n5693-neutralite-internet-filtrage-usa-gouvernement.html))

Quid de la position de la France ?

Alors que la question de la neutralité des réseaux se veut de plus en plus présente sur la scène des débats internationaux, la position française semble s’affirmer clairement. Si des initiatives politiques (tant de gauche que de droite, comme nous l’avons évoqué ci-dessus) tendent à assurer le respect de la neutralité des réseaux par les opérateurs techniques, une tendance de fond est néanmoins perceptible depuis quelques années.

En effet, si le discours politique se positionne clairement en faveur de la défense des droits du citoyen, il s’accompagne invariablement de la notion de « contrôle nécessaire » du cyberespace, présenté comme un prérequis incontournable à la liberté et la protection de tout un chacun sur le Réseau des réseaux. Ce soucis inquisiteur n’a été que renforcé par les récentes révélations du site Wikileaks et ses conséquences internationales.

On peut illustrer cette position française par le discours présidentiel du 13 février 2009 sur la politique familiale, au palais de l’Elysée. Alors que le spectre de la pédopornographie plane, le Président déclare : ” Je souhaite que les fournisseurs d’accès bloquent les sites pédopornographiques et illégaux recensés sur une liste noire. J’ai le plus grand respect pour la liberté. Mais un site pédopornographique, ce n’est pas de la liberté. Et il n’y a aucune raison que les fournisseurs d’accès permettent l’accès à des sites pédopornographiques. »  « On peut parfaitement assurer la liberté, qui est tout à fait nécessaire, et en même temps assurer le devoir de protection des plus vulnérables. Je ne vois pas pourquoi les règles ne seraient pas les mêmes que les règles dans la société parce que ce serait Internet. Internet n’est pas hors de l’État de droit. Il ne faut pas laisser accessibles des sites pédopornographiques pour que des désaxés puissent entrer en contact avec des mineurs. Notre devoir, c’est de les protéger et d’aider les familles dans ce travail de protection“. Cette position trouve son écho chez plusieurs politiques au pouvoir, comme en témoigne ce récent discours d’Eric Besson.

Contrôler pour protéger ? L’intention est louable et on ne peut plus légitime, mais le moyen envisagé peut prêter à discussion. La mise en place de listes noires (ou « blacklists »), visant à fixer à l’avance la liste des sites internet ne devant plus être accessibles à l’internaute français, est en effet sujet à caution.

Pour mémoire on peut rappeler le malheureux exemple australien, victime en mars 2009 d’une indiscrétion du site « Wikileaks.org ». Il y était révélé la liste des 2395 sites internet bloqués par les FAI locaux sur injonction de l’ACMA ((The Australian Communications and Media Authority – http://www.acma.gov.au)) dans le but de lutter contre la pédopornographie. De nombreux liens figurant sur « cette liste noire » n’auraient manifestement jamais dus s’y trouver, à l’instar du site d’une agence de voyage ou de celui d’un dentiste (pour le détail, voir à cette adresse). ((Wikileaks.org – http://mirror.wikileaks.info)) Certaines sources avancent jusqu’à 68% de sites bloqués par cette liste n’ayant rien à voir avec la lutte contre la pédopornographie. Fondé ou pas, ce chiffre est quoi qu’il en soit révélateur du malaise relatif à ce genre de pratiques.

Cet exemple illustre clairement la crainte des opposants des « cyber listes noires » : elles sont par nature non exhaustives, facilement contournables et au final fort peu efficaces. Quoi de plus simple en effet pour le gestionnaire d’une adresse illégale que d’en modifier légèrement les caractéristiques afin de contourner le filtre. Sans même évoquer la terrible tentation que les gouvernements pourraient avoir de glisser au sein de cette liste noire, noyés au milieu de milliers d’autres, quelques liens politiquement gênants pour les dirigeants en place.

Face à cette suspicion, cette présomption de culpabilité systématiquement rencontrée par les Etats désireux d’appliquer ces pratiques de filtrage, la publication de ces fameux documents pourrait apparaître comme un gage de bonne foi. A défaut d’être efficace, le système serait au moins transparent.

La position française est affirmée, au-delà du discours présidentiel, dans l’article 4 de la « loi d’orientation et de programmation pour la performance de la sécurité intérieure » ((Ou LOPPSI)). Cet article, adopté par le Sénat en seconde lecture, confirme la volonté française de lutter contre la pédopornographie par la mise en place d’une liste de sites interdits, bloqués par les fournisseurs d’accès. Cette liste serait élaborée et entretenue par l’office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (ou « OCLCTIC »), organe policier en charge des affaires de cybercriminalité. Les fournisseurs d’accès auront ensuite l’obligation de s’y soumettre par le blocage effectif des adresses concernées, selon des modalités techniques laissées à leur appréciation.

Liste a priori non publique, blocage administratif sans intervention de l’autorité judiciaire… autant d’éléments qui ne vont pas calmer les inquiétudes des défenseurs de la neutralité d’internet.

La position française face à l’Union Européenne.

La position française ne dénote cependant pas dans le contexte européen actuel, bien au contraire.

En effet, la lutte contre la pédopornographie fait l’objet de discussions approfondies au niveau de l’Union. Mêmes maux, même remède : là encore la solution de listes noires visant à bloquer l’accès aux sites diffusant des images illégales est préconisée.

Dans cette communication de la Commission Européenne en date du 29 mars 2010, on relèvera cette mesure phare : « Des dispositifs devraient être mis au point afin de bloquer l’accès aux sites web à caractère pédopornographique. ».

Dans la même logique, on peut également consulter ce rapport du 22 décembre 2010 de la commission ((Rapport  de la commission au parlement européen, au conseil, au comité économique et social européen et au comité des régions, relatif à l’application de la directive 2004/48/CE du Parlement européen et du Conseil du 29 avril 2004 relative au respect des droits de propriété intellectuelle)). On peut y lire, concernant la lutte contre les atteintes au droit d’auteur sur internet, que la « Commission pourrait examiner comment impliquer plus étroitement les intermédiaires, compte tenu de leur position favorable pour contribuer à prévenir les infractions en ligne et à y mettre fin ».

Nous ne sommes plus dans le domaine de la lutte contre la pédopornographie, mais les solutions envisagées sont similaires : impliquer les intervenants techniques, à savoir les fournisseurs d’accès, afin de faire bloquer certains contenus jugés illégaux.

Pourtant les études diverses et variées se multiplient pour arriver à la même conclusion : le blocage des sites, des domaines ou des adresses IP est inefficace. Un exemple supplémentaire pour illustrer ce propos est cette étude du 28 septembre 2010 menée par le groupe de travail allemand « AK Zensur » concernant les sites bloqués par les autorités danoises et suédoises. Leurs conclusions sont sans appel : seuls 2% des sites concernés contenaient des images pédopornographiques. Les 98% restants étaient des sites effacés, non attribués ou, pour 3,6% d’entre eux, simplement légaux.

S’attaquer aux conséquences plutôt qu’aux sources du problème, à défaut d’être efficace, présente néanmoins l’avantage d’être plus simple à aborder pour les décideurs. Et on peut au moins  reconnaître aux « listes noires » l’avantage d’être intellectuellement satisfaisantes pour le néophyte.

Au final, que ce soit pour des raisons politiques, des intérêts financiers ou simplement technologiques, la notion de neutralité d’internet est fortement mise à mal, à un moment où l’accès à ce réseau est élevé au rang de droit fondamental, au même titre que l’accès à l’éducation, par le Parlement européen. ((http://www.europarl.europa.eu/sides/getDoc.do?type=TA&reference=P6-TA-2009-0194&format=XML&language=FR))

Une vision d'un futur possible pour nos réseaux...

Le futur d'internet ?

Stéphane Isidore

Tweet about this on TwitterShare on Facebook

3 thoughts on “Qui veut la peau d’Internet ?

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.