dimanche 6 novembre 2011

Ce qu'il faut savoir à propos du WEB: deuxième partie

Deuxième partie : Les enjeux de l’Internet

Deuxième partie : Les enjeux de l’Internet
Les enjeux économiques
L’Internet est non seulement un point de convergence des contenus numériques, des médias et des technologies médiatiques, mais également celui de deux modèles commerciaux. La complexité de la création des sites Web des années 1990 a favorisé l’implantation des grandes entreprises, puisqu’il fallait alors des investissements importants pour publier des contenus sur le Web et les gérer. C’était alors l’affaire de professionnels. Aujourd’hui, n’importe quelle petite entreprise peut s’afficher sur le Web avec un minimum de connaissances en informatique. Qui plus est, avec les solutions de paiement en ligne comme Paypal et les sites de commerce électronique dont fait partie Ebay, il est possible de faire des affaires à l’étranger aussi facilement qu’à l’échelle locale. Ainsi, le commerce électronique, avec l’évolution du Web vers la convivialité, n’est plus l’apanage des grands joueurs du marché. Qui plus est, il n’est plus nécessaire de vendre un gros volume de produits ou de services pour rentabiliser les investissements liés à l’exploitation d’un système de vente sur le Web, ce qui favorise l’émergence de commerces spécialisés et de services personnalisés. Spécialisation et personnalisation sont également favorisées par l’ouverture d’un marché mondial aux vendeurs qui s’établissent sur le Web.
Le Web est donc le point de rencontre d’un modèle axé sur le commerce de masse, selon lequel les grosses entreprises, pour bénéficier d’économies d’échelle, produisent en grande quantité un nombre plus limité de produits, et d’un autre modèle axé sur la vente à faible volume d’un nombre varié de produits. Dans l’article What is Web 2.0Tim O’Reilly rend compte d’une nouvelle stratégie qu’emploient les entreprises du Web, qui correspondent aux caractéristiques du Web 2.0. Alors que les entreprises du Web des années 1990 ciblaient un nombre limité de gros clients, les entreprises du Web 2.0, à l’aide de systèmes automatisés de gestion des commandes et des services, limitant les frais de main d’œuvre onéreux, parviennent à rejoindre ce que l’on appelle les clients de la longue traîne, c’est-à-dire des clients disséminés sur le Web, plus difficiles à rejoindre et ayant le plus souvent des besoins spécifiques. O’Reilly oppose la compagnie DoubleClick à Google Adsense, servant toutes deux d’intermédiaires entre les annonceurs et les gestionnaires de sites Web en intégrant sur les sites des bannières publicitaires. DoubleClick concentre ses efforts sur un nombre limité de sites importants, qui attirent un grand nombre de visiteurs aux besoins variés. À l’opposé, Google AdSense est implanté sur une multitude de sites peu fréquentés, le plus souvent des pages personnelles, situés sur la longue traîne. Plutôt que d’offrir un public indifférencié à des commanditaires vendant des produits concernant l’ensemble des consommateurs (publicité de masse), Google AdSense sélectionne des annonces de produits spécialisés qui sont en adéquation avec le contenu du site où elles paraissent, donc, avec les goûts des visiteurs du site.
Dans les médias traditionnels, il y a une dichotomie entre, d’une part, les médias locaux commandités par des commerçants locaux et, d’autre part, les médias nationaux financés par des entreprises nationales et transnationales. Il est en effet plus facile de gérer une campagne nationale en annonçant dans quelques gros médias nationaux qu’en annonçant dans une multitude de médias régionaux. À l’opposé, le Web permet, grâce à des services publicitaires comme Google AdSense, d’annoncer tant à l’échelle locale que nationale ou mondiale, grâce à la reconnaissance de l’adresse IP des visiteurs d’un site (c’est-à-dire l’adresse identifiant l’ordinateur ou l’interface employé pour accéder à l’Internet) et à une lecture des mots clés du site. Par exemple, une page personnelle consacrée à un auteur de science-fiction peut arborer une bannière publicitaire annonçant une librairie indépendante située dans la ville où se trouve le visiteur ou, au contraire, attirer tous les visiteurs, indifféremment de leurs goûts littéraires ou de leur localisation, sur le site d’une marque de boisson gazeuse transnationale, bue tant par les amateurs de Philip K. Dick que par Nikos Kazantzakis. Dans les deux cas, la gestion des bannières et de leur contenu est automatisée et ne demande pas plus d’effort de la part de l’annonceur. La seule différence entre la PME et l’entreprise transnationale est le budget investi, donc le nombre de visiteurs qu’ils sont en mesure d’attirer sur leur site.
Avec le phénomène de convergence technologique, l’Internet est devenu un enjeu économique majeur, puisque les médias tendent désormais, comme nous l’avons vu en début de conférence, à transmettre leurs contenus sur un même support. À ce titre, il n’est pas étonnant que des compagnies d’édition de contenus audiovisuels et des compagnies œuvrant dans le secteur de la télécommunication fusionnent, à l’instar de Time Warner et de AOL, en 2000 (séparés en 2009).
Mondialement, l’industrie des médias a généré des revenus de 123 milliards de dollars en 2008, une baisse de 7,5 % par rapport à 2007. Sur ce total, 21,7 milliards sont générés par Google qui, à l’inverse, connaît un gain de 31 % (16, 5 de dollars en 2007). Et ces chiffres sont maigres par rapport à l’industrie des télécommunications, dont 19 % du revenu annuel mondial (273,73 milliards) provient du secteur de l’Internet.
Au Canada, la publicité en ligne représente un revenu de 1,6 milliard de dollars en 2008, soit 11 % de l’assiette publicitaire totale, ce qui place l’Internet au 3e rang des médias les plus financés par la publicité. Selon Prévisions TMT Deloitte 2010, la proportion pourrait atteindre 15 % en 2011.
Les revenus additionnés des cinq sites Web les plus prospères représentent 57,67 milliards de dollars, avec Google en tête. Notons que trois de ces sites sont cités par O’Reilly comme étant représentatifs du Web 2.0. Les médias sociaux tirent plutôt bien leur épingle du jeu, compte tenu de leur création récente. Ainsi, le site MySpace, fondé en 2003 et classé au 18e rang, a généré des revenus de 800 millions de dollars en 2009. Facebook et YouTube, fondés en 2004 et 2005, ont gagné chacun 300 millions de dollars et se placent respectivement aux 24 et 25e rangs, bien qu’ils soient aux 2e et 3e rangs des sites les plus visités, derrière Google (sources:Alexa Top 500 Global Sites et Income Diary). Il y a eu un engouement pour les médias sociaux dans la sphère économique. Le magnat de la presse Rupert Murdoch a acheté MySpace pour 580 millions de dollars en 2006 et Google a acheté YouTube pour 1,775 milliard de dollars la même année. Cependant, on constate qu’en comparaison de leur popularité et du nombre de visiteurs qu’ils attirent, les médias sociaux génèrent peu de revenus. Par exemple, Facebook ne génère, en 2009, que 0,75 $ par membre inscrit. Quant au site YouTube, s’il peut se vanter de diffuser quotidiennement 100 millions de vidéos, on constate que le ratio revenu / visiteur n’est que de 0,8 cent.
À l’image de la télévision, l’Internet est le point de rencontre de trois types de financement. Le premier est l’abonnement, qui profite aux opérateurs et aux fournisseurs d’accès. Le second est le paiement à l’usage, notamment lorsqu’il s’agit d’acheter des contenus audiovisuels, de l’information ou de la bande passante supplémentaire, à quoi s’ajoute le commerce électronique de biens physiques et de services, qui, en 2008, a connu une hausse de 26 %, pour totaliser 30 milliards de dollars, puis 37,5 en 2009. Le troisième est la publicité. Les revenus générés par la publicité sont sans commune mesure avec les abonnements, qui profitent notamment au secteur des télécommunications, lequel, comme nous l’avons vu plus haut, est particulièrement lucratif. À la lumière des chiffres que nous avons évoqués, nous constatons que les médias sociaux, dont les revenus dépendent de la publicité, sont peu rentables en proportion de leur fréquentation. Cela pourrait s’expliquer par le partage de l’assiette publicitaire avec les médias traditionnels, qui reposent eux-mêmes sur ce type de financement. Par exemple, en 2006, aux États-Unis, la télévision représente 33 % des contenus médiatiques consommés, mais 38 % des revenus publicitaires, alors que l’Internet n’obtient que 5 % des revenus pour une consommation médiatique équivalente. À l’échelle mondiale, le financement publicitaire de l’Internet connaît néanmoins une croissance fulgurante, puisque de 2000 à 2006, les revenus ont presque triplé et le pourcentage du budget publicitaire total attribué à l’Internet est passé de 2,29 % à 5,8 % pour la même période (source: Le Journal du Net). Précisons que cette croissance d’effectue essentiellement aux dépends de la presse écrite.
Après l’éclatement de la bulle de l’Internet, dans les années 2000-2001, certains financiers ont craint que le Web 2.0 ne connaisse, après un effet de mode passager, une crise similaire. La disparité entre la valeur financière des entreprises de l’Internet et leur faible capacité de capitalisation est en partie la cause de cette crise sectorielle. La situation semble se répéter avec les médias sociaux. À titre d’exemple, Facebook affirmait valoir 15 milliards de dollars en 2007, alors qu’elle n’a généré que 125 millions de dollars de revenus. En 2009, Facebook a été estimé à 3,7 milliards en 2009, avec trois fois plus de membres inscrits. Après l’achat de YouTube, en 2005, Eric Schmidt, le président de Google, a reconnu avoir fait une offre trois fois supérieure à sa valeur estimée, convaincu que la vente de YouTube entraînerait une surenchère et qu’il fallait y mettre le prix. En contrepartie de la surenchère et de l’engouement dont ils font l’objet, les médias sociaux ne perçoivent qu’environ 5 % des revenus publicitaires générés sur l’Internet.
En résumé, l’Internet est un secteur particulièrement lucratif pour l’industrie des télécommunications. Le financement des sites Web par les revenus publicitaires et le commerce en ligne sont, en comparaison, marginaux. Les enjeux économiques de l’Internet semblent donc se rapporter à son infrastructure davantage qu’à ses contenus et les médias sociaux, fleurons du Web 2.0, paraissent artificiellement gonflés par l’effet de mode, alors qu’ils ne parviennent pas à capitaliser sur leur succès. Cela nous fait dire que la valeur économique actuelle de l’Internet, à l’image du téléphone, réside dans le transport de l’information et de la communication - le contenant - et non dans ses contenus, bien que l’édition de contenus audionumériques et la transmission de données conservent un grand potentiel commercial, en particulier avec la télévision IP, l’édition électronique et la radio sur le Web, qui remplacent graduellement les médias traditionnels.

Les enjeux politiques
En 2008, les Amis du Centre Simon Wiesenthal pour l’étude de l'Holocauste, un regroupement de citoyens, a dénoncé un site Web contenant des propos haineux envers le peuple juif auprès du fournisseur d’accès canadien qui l’hébergeait. Ce dernier a fermé le site qui contrevenait à sa politique d’utilisation de l’Internet.
Pour lutter contre le téléchargement illégal de contenus musicaux, la Recording Industry Association of America (RIAA) a poursuivi environ 35 000 personnes en justice depuis 2003. En 2009, suite à des frais judicaires trop élevés, elle renonce à poursuivre les pirates et s’en remet aux FAI, lesquels auront pour mandat d’avertir les usagers fautifs et de leur retirer leur accès au réseau Internet.
Le jugement des actes criminels ne repose donc plus, dans ces situations, sur la loi du pays où l’acte est commis, mais sur les règlements des fournisseurs d’accès et des hébergeurs impliqués, règlements qui s’inspirent, il est vrai, de la législation, mais qui possèdent leurs caractéristiques propres. Il en ressort qu’une telle délégation remet entre les mains d’organisations non élues et privées un pouvoir appartenant traditionnellement à l’État. Ajoutons qu’au-delà de la lutte contre la cybercriminalité, les FAI et les hébergeurs peuvent être des outils de censure efficaces. Les gouvernements, en faisant pression sur eux, sont en mesure d’éliminer certains contenus indésirables sur le Web. Par exemple, le gouvernement canadien est parvenu à faire fermer deux sites Web, en décembre 2009, par le FAI allemand Serverloft. Les sites en question parodiaient les engagements canadiens pris lors de la conférence de Copenhague. Ils ne violaient aucune loi et la demande gouvernementale ne reposait sur aucune décision judiciaire; cependant, ils mettaient le gouvernement dans l’embarras sur une question sujette à controverse.
Ces modes de contrôle du Web sont légaux, car ils concernent la liberté d’une entreprise d’offrir ou non un service à des individus. Néanmoins, les répercussions sur le plan de la liberté d’expression sont majeures, car l’Internet tendra, à l’avenir, à devenir le principal support des médias et de la communication, de même qu’il constitue un excellent outil de diffusion des idées, accessible tant aux mouvements sociaux qu’aux entreprises transnationales.
Les hébergeurs de sites Web et les médias sociaux sont en position d’imposer de sévères mesures de censure qui dépassent le cadre législatif des pays démocratiques en matière de liberté d’expression. Prenons par exemple la loi C-19, qui définit l’interdiction pénale de l’obscénité. Il y est écrit :
Aux fins de la présente loi, toute chose est obscène lorsqu’une de ses caractéristiques dominantes est l’exploitation indue de l’un ou l’autre ou de plusieurs des éléments suivants, à savoir le sexe, la violence, le crime, l’horreur ou la cruauté, au moyen de représentations dégradantes de l’homme ou de la femme ou de toute autre façon.
On constate que la définition laisse place à l’interprétation, mais les juges qui ont à trancher sur le sujet évaluent l’obscénité à l’aune de ce qu’ils considèrent comme le seuil de tolérance de l’ensemble de la société canadienne en la matière et selon des cas de jurisprudence. Cependant, les hébergeurs de sites Web et les plateformes des médias sociaux acceptent de diffuser des contenus dans la mesure où ils respectent leurs propres exigences en matière d’obscénité, données parmi l’ensemble de leurs règlements habituellement contenus dans la rubrique « Conditions d’utilisation ». Notons que ces exigences sont souvent définies de manière floue et subjective, comme c’est le cas pour MySpace. Sur cette plateforme, la nudité est interdite au même titre que la pornographie et la violence gratuite. Si les contenus obscènes sont, à juste titre, proscris, on peut se demander si l’interdiction édictée par MySpace de publier des contenus incitant à la bigoterie ou renfermant des thèmes de mauvais goût, sont pertinents.
Si des contenus sont signalés par un usager de l’Internet comme étant offensants, l’hébergeur peut décider de fermer le site où ils figurent. De telles décisions font en sorte que le seuil de tolérance envers les contenus potentiellement obscènes n’est pas consensuel, mais repose sur le jugement d’un usager, celui qui signale l’offense, et sur celui de l’employé ou du responsable du serveur d’hébergement qui déterminera s’il y a lieu ou non de bloquer le contenu offensant. Cela, en s’appuyant sur des critères vagues et appelant des jugements de valeurs. Ainsi, les décisions reposent sur un seuil de tolérance potentiellement plus faible que ce que tolèrerait, par exemple, la législation canadienne.
La liberté d’expression concerne uniquement les rapports entre l’individu, un organisme ou une entreprise et l’État; elle ne se rapporte donc pas aux relations entre les individus et les entreprises privées. Ainsi, selon leurs règlements propres, les hébergeurs et les plateformes des médias sociaux peuvent décider de bloquer, sous la pression de leurs membres, de simples visiteurs ou de gouvernements, des contenus politiques, des critiques subversives et des sujets qui font l’objet de controverse, lorsqu’ils reçoivent des plaintes de la part des usagers. D’une part, il est dans leur intérêt, d’un point de vue commercial, de ne pas se couper d’une partie de leur clientèle en laissant des contenus choquants circuler librement. D’autre part, certaines législations peuvent considérer ces entreprises comme les responsables des contenus qu’elles hébergent. En effet, les hébergeurs de sites Web gratuits et les plateformes des médias sociaux sont majoritairement financés par les publicités diffusées sur les pages de leurs usagers. Le fait qu’ils dégagent des bénéfices de leurs contenus les rend solidaires de ceux-ci. C’est ainsi qu’en 2007, le Tribunal de grande instance de Paris a condamné MySpace à verser des dommages et intérêts à un humoriste dont les sketches étaient diffusés illégalement sur sa plateforme par l’un de ses membres. Ces règlements ont été établis de manière à protéger juridiquement les hébergeurs et les plateformes des médias sociaux, cependant, en expulsant du Web les sujets sensibles, ceux-ci contribuent à renforcer le statu quo au sein de la société et à limiter la diversité des opinions.
Les moteurs de recherche ont eux aussi leur rôle à jouer dans la censure de certains contenus sur l’Internet. C’est le cas de Yahoo!, de MSN Spaces et de Googlequi bloquent, dans leur version chinoise, les résultats de certains mots clés jugés politiquement sensibles par Beijing. Google a cessé ce procédé en mars 2010. Le moteur de recherche Yahoo! a, quant à lui, contribué à l’arrestation de dissidents par le gouvernement chinois en divulguant les informations de connexion de certains de ses membres.
La censure chinoise n’est pas un cas unique de pression gouvernementale sur le contrôle des contenus. Ainsi, pour la seule période de juillet à décembre 2009, Google affirme avoir reçu 291 demandes de suppression de contenus de la part du Brésil (dont 156 par décision de la Court), 188 pour l’Allemagne (109 par décision de la Court), 142 pour l’Inde (1 par décision de la Court) et 123 pour les États-Unis (44 par décision de la Court). Le Canada est moins exigeant à ce chapitre, avec 42 demandes (2 par décision de la Court). Les demandes sont respectées dans 76,3 à 94,1 % des cas mentionnés ici.
Au-delà de ces formes évidentes de censure, les moteurs de recherche exercent un contrôle sur l’information véhiculée sur le Web. Précisons d’abord que les sites non référencés (ou, dans les cas de censure, simplement bloqués ou filtrés) par les moteurs de recherche ne sont généralement accessibles aux internautes qu’en tapant l’adresse du site; ils font alors partie, comme 70 à 75 % de l’ensemble des sites, du Web profond, et sont pour ainsi dire inaccessibles aux visiteurs qui ne les connaissent pas déjà par une autre source.
Google contrôle 68,6 % du marché des moteurs de recherche. En considérant que la richesse du Web réside dans ses contenus informatifs et que les moteurs de recherche sont les outils les plus performants et les plus exhaustifs pour extraire ces contenus, on constate que la richesse du Web souffre du quasi-monopole de Google, car, en exagérant à peine, ce qui n’existe pas pour Google, n’existe pas non plus pour les usagers du Web - et on parle ici des trois-quarts des pages qui y figurent. Les concurrents de Google n’offrent pas de réelle alternative à ce sujet, puisque leurs algorithmes de recherche sont similaires et que les résultats se recoupent d’un moteur à l’autre.
Le fait que des fournisseurs d’accès Internet, des moteurs de recherche et des hébergeurs de sites Web aient entre leurs mains la possibilité, d’une part, de limiter la circulation de l’information et des opinions sur l’Internet et, d’autre part, d’interdire l’accès à l’Internet pour certains citoyens appelle, selon nous, la mise sur pied d’organismes publics internationaux de surveillance et de réglementation de l’Internet. De plus, il faudrait légiférer pour faire de l’accès à l’Internet un droit universel, car dans notre société actuelle, il est indissociable de la liberté d’expression, du droit à l’information et du droit à la communication. En Finlande, l’accès à l’Internet à haut débit est un droit opposable depuis 2009. Cette décision devrait, selon nous, servir d’exemple auprès des autres États.
Que reste-t-il pour les mouvements sociaux et les citoyens ?
Pour certaines personnes, l’Internet est considéré comme un instrument démocratique au service du droit à la communication. Les médias sociaux offrent aux individus sans formation dans le domaine de l’informatique la possibilité d’éditer des contenus sur le Web. On constate cependant que cette possibilité ne donne pas pour autant de visibilité aux mouvements sociaux, aux citoyens, à leurs idées ou à leurs revendications. Cela, notamment, pour deux raisons importantes.
La première raison, c’est que la visibilité des contenus figurant sur le Web dépend de l’architecture des sites et des budgets des propriétaires de ces sites. Ainsi, pour apparaître dans les premières pages de résultats des moteurs de recherche, il faut qu’un site réponde dans sa structure à leurs méthodes d’indexation, soit leur façon de lire les pages Web pour en retirer les mots clés importants. S’il est à la portée de tout le monde de générer des contenus sur le Web, il est difficile d’organiser ces contenus de manière à rendre leur visibilité optimale. C’est l’affaire de spécialistes du Web, lesquels chargent des honoraires souvent proportionnels à l’amélioration de la visibilité du site. Il est également possible d’acheter des espaces publicitaires sur le Web, dont les coûts correspondent au nombre de visiteurs que ces espaces attirent sur le site publicisé, ou d’acheter des mots clés sur les moteurs de recherche, afin d’apparaître en tête des pages de résultats. Les organismes sans but lucratif et les groupes de citoyens n’ont généralement pas les moyens de s’offrir de tels procédés, contrairement aux entreprises. Sachant que le Web compte près de 207 millions de sites différents et 1000 milliards de pages Web, on comprend que la compétition est difficile sur le plan de la visibilité.
La seconde raison est que si les médias sociaux peuvent, du jour au lendemain, faire d’un inconnu une célébrité, grâce à l’effet de « buzz » entraîné par le partage de contenus entre les utilisateurs, on constate que les contenus qu’ils mettent sur le devant de la scène sont majoritairement une affaire de divertissement populaire. C’est le cas, par exemple, des cinq vidéos les plus vus sur YouTube en 2009 : le premier est la prestation d’une chanteuse, les second et troisième, des vidéos amateurs humoristiques, le quatrième est la bande-annonce d’un film hollywoodien et le cinquième est une publicité. Les 30 pages les plus populaires sur Facebook concernent des vedettes, des athlètes, des produits alimentaires, des émissions et des films grand public.

La gouvernance du Web
L’article L'ACTA, le traité secret qui doit réformer le droit d'auteur, publié le 25 janvier 2010 sur le site Le Monde.fr, fait état de négociations qui pourraient limiter les droits des citoyens en ce qui concerne l’Internet. Depuis 2007, un certain nombre d’États, une dizaine à l’époque, 39 aujourd’hui, parmi lesquels on retrouve le Canada, les États-Unis et l’Union européenne, œuvrent, en dehors de tout débat public et sans observateurs indépendants, à la création d’un traité international appelé l'Anti-counterfeiting Trade Agreement (ACTA). Ce traité viserait notamment à établir des normes internationales en matière de droits d’auteur. L’absence de transparence dans les négociations est critiquée tant par le Parlement européen que le Sénat américain. Selon certains documents de travail de la Commission européenne, publiés par Wikileaks et par la Quadrature du Net - dont l’authenticité est cependant niée par la Commission européenne, mais qui correspondrait à une fuite - les points de discussion concerneraient, entre autre, les deux points suivants : le premier est l'obligation pour les FAI de divulguer aux organismes lésés dans leurs droits d’auteurs l’identité des propriétaires d’adresses IP, lorsqu’ils sont impliqués dans le téléchargement illégal de contenus, sans mandat judiciaire. Le deuxième est la possibilité, pour les douaniers, de confisquer le matériel électronique contenant des fichiers téléchargés illégalement. Si, au regard de leur provenance, ces documents sont sujets à caution, les tractations concernant l’ACTA sont bien réelles et inquiétantes, dans la mesure où les décisions qui y seront prises auront un impact sur les usagers de l’Internet sans qu’il y ait eu de consultation ni de débat publics.
Dans un article publié sur son site officiel, Danger international pour la liberté d’expression sur Internet, datant du 25 janvier 2010, Reporter Sans Frontière déplore l’opacité des négociations de l’ACTA qui, selon l’organisme, pourrait menacer la liberté d’expression sur l’Internet. À cet effet, il demande des explications aux gouvernements impliqués, concernant la mise en place de filtres automatiques hors de toute décision judiciaire, l’interdiction pour certains contrevenants d’accéder à l’Internet et l’interdiction de contourner des procédés de filtrage ou de blocage imposés sur l’Internet, ce qui constitue, selon lui, un obstacle légal pour les citoyens qui tentent de contourner les mesures de censure dans des pays comme l’Iran et la Chine.
Reporter Sans Frontière soulève un point inquiétant en mentionnant que l’industrie américaine a eu accès aux documents de travail, contrairement au Parlement européen, dans la mesure où elle s’engage à ne divulguer aucune information. Un tel privilège, accordé à des acteurs privés, alors qu’ils sont refusés à une institution dont les membres sont élus, est, en première analyse, révélateur de la centralité du secteur économique dans ce dossier, aux dépends des droits et libertés des citoyens.
L’opacité des négociations de l’ACTA est, dans une certaine mesure, à mettre parallèle avec la gouvernance de l’Internet. Bien que le réseau des réseaux soit un support mondial d’information et de communication sur lequel naviguent environ 1,5 milliard de personnes, on constate que les décisions qui le concernent sont prises par un nombre limité de personnes, concentré pour l’essentiel aux États-Unis, sont lieu de naissance.
Sur le plan de la gouvernance de l’Internet, il y a tout d’abord lInternet Corporation for Assigned Names and Numbers (ICANN), qui est responsable de l’attribution des adresses IP et des noms de domaines. Il s’agit d’une organisation internationale qui était liée, de sa création, en 1998, jusqu’en septembre 2009, au Département américain du Commerce. Son statut est sujet à controverse, car certains pays l’accusent de demeurer sous l’influence du gouvernement américain. Un certain nombre de pays voudrait que l’ICANN devienne un organisme affilié à l’ONU, alors que certaines ONG suggèrent qu’elle adopte la forme d’une coopérative.
Ensuite, il y a l’Internet Engineering Task Force (IETF), un groupe informel qui élabore les standards sur lesquels repose l’Internet. Il est ouvert à tout le monde, sans nécessiter d’adhésion et se répartit en plusieurs groupes de travail. L’IETF est coordonné par l'Internet Engineering Steering Group (IESG). L’architecture de l’Internet et son développement à long terme sont assurés par un comité de l’IETF, l’Internet Architecture Board (IAB). L’Internet Engineering Task Force gère les « request for comments » (RFC), des documents décrivant les éléments techniques de l’Internet. Les RFC sont issus d’initiatives provenant d’experts techniques et sont discutés et approuvés ou non par l’ensemble des usagers de l’Internet. Certains RFC deviennent des standards de l’Internet. L’IETF, l’IESG et l’IAB relèvent de l’Internet Society (ISOC), une association américaine créée en 1992, qui regroupe aujourd’hui 20 000 membres issus de 170 pays. Cette association est vouée à la promotion et à la coordination du développement de l’Internet. Au-delà de son fonctionnement démocratique, on retient que seuls les professionnels de l’informatique sont en mesure de réellement s’impliquer dans le développement de ces standards, bien qu’ils aient un impact sur l’ensemble des usagers de l’Internet.
Enfin, il y a le World Wide Web Consortium (WC3), créé en 1994 par Tim Berners-Lee, l’un des principaux fondateurs du Web. Il s’agit d’un organisme chargé de standardiser les technologies à la base du Web. Sa gestion est assumée par le European Research Consortium for Informatics and Mathematics, le Massachusetts Institute of Technologyl'Institut national de recherche en informatique et en automatique et l'Université KeioLe HTTP, le XML et le URL sont des standards établis par le WC3.
Ces organisations portent en elles certains vestiges des premiers développements de l’Internet, à une époque, dans les années 60 à 90, où il était un moyen d’échanger de l’information entre divers centres de recherche et d’où les intérêts commerciaux étaient absents. Les usagers étaient également les concepteurs de l’Internet, ainsi, les enjeux étaient purement fonctionnels et pratiques, non pas économiques ni politiques, bien que des enjeux idéologiques et militaires aient été à la source de l’ARPANET, l’ancêtre de l’Internet. Dans un tel contexte, les groupes de travail ne nécessitaient pas de hiérarchie formelle et les décisions étaient prises de manière consensuelle, puisque l’on élaborait un projet collectif. Cependant les organisations que nous venons de présenter, bien qu’elles reposent sur une structure décisionnelle interne démocratique, ne correspondent plus à ce que l’Internet est devenu depuis les 15 dernières années. C’est-à-dire que les enjeux sociaux, politiques, économiques et culturels actuels liés à l’Internet sont trop importants pour que sa gestion et sa réglementation s’appuient sur des professionnels de l’informatique et sur des organisations qui échappent au contrôle des citoyens et aux concertations publiques.
À cet égard, l'Union internationale des télécommunications (UIT) a créé, en 2003, le Sommet mondial sur la société de l'information (SMSI), où des représentants des gouvernements, des entreprises et de la société civile recherchent des solutions pour lutter contre l'inégalité de l'accès à l'information à l’aide des nouvelles technologies de l’information et de la communication (les NTIC), dont l'Internet est le plus utilisé. Lors du second sommet à Tunis, en 2005, la résolution a été prise de créer un Forum sur la gouvernance de l'Internet, qui a eu lieu à Athènes, en 2006. Une telle initiative rend compte du potentiel que possède l’Internet en tant qu’instrument de développement socioéconomique, d’éducation, de promotion de la diversité culturelle, de multilinguisme et de démocratisation. Notons que le Sommet survient dans un contexte de fracture numérique. En effet, il existe un net déséquilibre entre l’accès à l’Internet en Occident et dans les pays en voie de développement. Si l’Internet connaît, en 2009, un taux de pénétration de 76,2 % en Amérique du Nord, celui de l’Afrique est inférieur à 9 % et ce, même après une croissance de 1800 % depuis l’an 2000, comparativement à 140 % pour les Nord-américains.

Enjeux pour les consommateurs
Avec un taux de pénétration des foyers canadiens de 67,1 % en 2008, l’Internet est aujourd’hui un service incontournable. Au regard de la concentration des FAI, il devient important, pour les consommateurs, de surveiller la réglementation et l’évolution du marché, de sorte que l’Internet demeure un service accessible à un coût raisonnable pour l’ensemble de la population.
Présentement, plusieurs manœuvres de la part du gouvernement et des FAI sont en cours, qui modifient les règles du jeu au mépris des consommateurs.
Tout d’abord, on retrouve la modulation du trafic Internet, qui consiste, pour les FAI, à ralentir le réseau à certaines heures, afin d’éviter qu’il soit surchargé. Pour les consommateurs, attirés par la rapidité des connexions vantée par les FAI, la modulation du trafic Internet revient à payer un prix trop élevé, en considération du fait qu’ils reçoivent un service inférieur à celui qu’ils ont commandé. Les entreprises Bell, Rogers et Shaw emploient toutes trois cette méthode, qu’elles légitiment de deux façons. D’une part, elles prétendent qu’elles ne pénalisent que les usagers qui s’adonnent au partage en pair-à-pair de contenus piratés. D’autre part, elles affirment que cette méthode permet un partage plus équitable des réseaux en évitant que des usagers n’abusent du téléchargement et n’alourdissent l’ensemble des réseaux de l’Internet au mépris des usagers qui sont moins gourmands en bande passante.
Ensuite, on retrouve les limites de téléchargement. Les FAI ont ainsi progressivement changé les forfaits Internet illimités, afin de les remplacer par des services ayant des limites de téléchargement fixes, de manière à pouvoir facturer la bande passante excédentaire consommée à la pièce.
Enfin, les principaux FAI louent leurs lignes hautes-vitesse aux petits FAI. Leur position dominante sur le marché leur permet de charger aux petites entreprises des prix élevés, de façon à limiter leur compétitivité. Dans l’article Le Canada, un pays du tiers monde, l’auteurLyes Arfas explique qu’en 2008, le CRTC a tenté de contraindre Bell, Télus et Rogers de baisser leurs tarifs pour permettre aux petits FAI d’offrir des services compétitifs à leurs clients. Pour le CRTC, il s’agissait de protéger la qualité et l’accessibilité de l’Internet à haut débit, alors que Bell, Télus et Rogers se défendaient en affirmant que ces tarifs visaient à récupérer une part de leurs investissements liés aux infrastructures. La décision du CRTC a été renversée par le gouvernement fédéral en 2009. Selon Lyes Arfas, l’intervention du fédéral contribue à renforcer la situation de quasi-monopole des grands fournisseurs de services Internet haute vitesse, ce qui se traduit, pour les consommateurs, par des tarifs plus élevés et par un ralentissement des innovations technologiques, puisque les compagnies seront en mesure de retarder la mise en marché de nouveaux services, de manière à mieux rentabiliser les anciens. Qui plus est, cette configuration du marché permet au gouvernement de mieux contrôler l’Internet en limitant le nombre d’acteurs auprès desquels intervenir.

Aucun commentaire:

Enregistrer un commentaire