Les
enjeux économiques
L’Internet
est non seulement un point de convergence des contenus numériques, des médias
et des technologies médiatiques, mais également celui de deux modèles
commerciaux. La complexité de la création des sites Web des années 1990 a favorisé
l’implantation des grandes entreprises, puisqu’il fallait alors des
investissements importants pour publier des contenus sur le Web et les gérer.
C’était alors l’affaire de professionnels. Aujourd’hui, n’importe quelle
petite entreprise peut s’afficher sur le Web avec un minimum de connaissances
en informatique. Qui plus est, avec les solutions de paiement en ligne comme
Paypal et les sites de commerce électronique dont fait partie Ebay, il est
possible de faire des affaires à l’étranger aussi facilement qu’à l’échelle
locale. Ainsi, le commerce électronique, avec l’évolution du Web vers la
convivialité, n’est plus l’apanage des grands joueurs du marché. Qui plus
est, il n’est plus nécessaire de vendre un gros volume de produits ou de
services pour rentabiliser les investissements liés à l’exploitation d’un
système de vente sur le Web, ce qui favorise l’émergence de commerces
spécialisés et de services personnalisés. Spécialisation et personnalisation
sont également favorisées par l’ouverture d’un marché mondial aux vendeurs
qui s’établissent sur le Web.
Le Web
est donc le point de rencontre d’un modèle axé sur le commerce de masse,
selon lequel les grosses entreprises, pour bénéficier d’économies d’échelle,
produisent en grande quantité un nombre plus limité de produits, et d’un
autre modèle axé sur la vente à faible volume d’un nombre varié de produits.
Dans l’article What is Web
2.0, Tim O’Reilly rend compte d’une nouvelle stratégie
qu’emploient les entreprises du Web, qui correspondent aux caractéristiques
du Web 2.0. Alors que les entreprises du Web des années 1990 ciblaient un
nombre limité de gros clients, les entreprises du Web 2.0, à l’aide de
systèmes automatisés de gestion des commandes et des services, limitant les
frais de main d’œuvre onéreux, parviennent à rejoindre ce que l’on appelle
les clients de la longue traîne, c’est-à-dire des clients disséminés sur le
Web, plus difficiles à rejoindre et ayant le plus souvent des besoins
spécifiques. O’Reilly oppose la compagnie DoubleClick à Google Adsense,
servant toutes deux d’intermédiaires entre les annonceurs et les
gestionnaires de sites Web en intégrant sur les sites des bannières
publicitaires. DoubleClick concentre ses efforts sur un nombre limité de
sites importants, qui attirent un grand nombre de visiteurs aux besoins
variés. À l’opposé, Google AdSense est implanté sur une multitude de sites
peu fréquentés, le plus souvent des pages personnelles, situés sur la longue
traîne. Plutôt que d’offrir un public indifférencié à des commanditaires
vendant des produits concernant l’ensemble des consommateurs (publicité de
masse), Google AdSense sélectionne des annonces de produits spécialisés qui
sont en adéquation avec le contenu du site où elles paraissent, donc, avec
les goûts des visiteurs du site.
Dans
les médias traditionnels, il y a une dichotomie entre, d’une part, les médias
locaux commandités par des commerçants locaux et, d’autre part, les médias nationaux
financés par des entreprises nationales et transnationales. Il est en effet
plus facile de gérer une campagne nationale en annonçant dans quelques gros
médias nationaux qu’en annonçant dans une multitude de médias régionaux. À
l’opposé, le Web permet, grâce à des services publicitaires comme Google
AdSense, d’annoncer tant à l’échelle locale que nationale ou mondiale, grâce
à la reconnaissance de l’adresse IP des visiteurs d’un site (c’est-à-dire
l’adresse identifiant l’ordinateur ou l’interface employé pour accéder à
l’Internet) et à une lecture des mots clés du site. Par exemple, une page
personnelle consacrée à un auteur de science-fiction peut arborer une
bannière publicitaire annonçant une librairie indépendante située dans la
ville où se trouve le visiteur ou, au contraire, attirer tous les visiteurs,
indifféremment de leurs goûts littéraires ou de leur localisation, sur le
site d’une marque de boisson gazeuse transnationale, bue tant par les
amateurs de Philip K.
Dick que par Nikos
Kazantzakis. Dans les deux cas, la gestion des bannières et de
leur contenu est automatisée et ne demande pas plus d’effort de la part de
l’annonceur. La seule différence entre la PME et l’entreprise transnationale
est le budget investi, donc le nombre de visiteurs qu’ils sont en mesure
d’attirer sur leur site.
Avec le
phénomène de convergence technologique, l’Internet est devenu un enjeu
économique majeur, puisque les médias tendent désormais, comme nous l’avons
vu en début de conférence, à transmettre leurs contenus sur un même support.
À ce titre, il n’est pas étonnant que des compagnies d’édition de contenus
audiovisuels et des compagnies œuvrant dans le secteur de la
télécommunication fusionnent, à l’instar de Time Warner et de AOL, en 2000
(séparés en 2009).
Mondialement,
l’industrie des médias a généré des revenus de 123 milliards de dollars
en 2008, une baisse de 7,5 % par rapport à 2007. Sur ce total, 21,7
milliards sont générés par Google qui, à l’inverse, connaît un gain de
31 % (16, 5 de dollars en 2007). Et ces chiffres sont maigres par rapport à
l’industrie des télécommunications, dont 19 % du revenu
annuel mondial (273,73 milliards) provient du secteur de
l’Internet.
Au
Canada, la publicité en ligne représente un revenu de 1,6 milliard de dollars
en 2008, soit 11 % de l’assiette publicitaire totale, ce qui place l’Internet
au 3e rang des médias les plus financés par la publicité.
Selon Prévisions TMT Deloitte 2010, la
proportion pourrait atteindre 15 % en 2011.
Les
revenus additionnés des cinq sites Web les plus prospères représentent 57,67
milliards de dollars, avec Google en tête. Notons que trois de ces sites sont
cités par O’Reilly comme étant représentatifs du Web 2.0. Les médias sociaux
tirent plutôt bien leur épingle du jeu, compte tenu de leur création récente.
Ainsi, le site MySpace, fondé en 2003 et classé au 18e rang,
a généré des revenus de 800 millions de dollars en 2009. Facebook et YouTube,
fondés en 2004 et 2005, ont gagné chacun 300 millions de dollars et se
placent respectivement aux 24 et 25e rangs, bien qu’ils
soient aux 2e et 3e rangs des sites les plus
visités, derrière Google (sources:Alexa Top
500 Global Sites et Income
Diary). Il y a eu un engouement pour les médias sociaux dans
la sphère économique. Le magnat de la presse Rupert Murdoch a acheté MySpace
pour 580
millions de dollars en 2006 et Google a acheté YouTube
pour 1,775
milliard de dollars la même année. Cependant, on
constate qu’en comparaison de leur popularité et du nombre de visiteurs
qu’ils attirent, les médias sociaux génèrent peu de revenus. Par exemple,
Facebook ne génère, en 2009, que 0,75 $ par membre inscrit. Quant au site
YouTube, s’il peut se vanter de diffuser quotidiennement 100 millions de
vidéos, on constate que le ratio revenu / visiteur n’est que de 0,8 cent.
À
l’image de la télévision, l’Internet est le point de rencontre de trois types
de financement. Le premier est l’abonnement, qui profite aux opérateurs et
aux fournisseurs d’accès. Le second est le paiement à l’usage, notamment
lorsqu’il s’agit d’acheter des contenus audiovisuels, de l’information ou de
la bande passante supplémentaire, à quoi s’ajoute le commerce électronique de
biens physiques et de services, qui, en 2008, a connu une hausse de 26
%, pour totaliser 30 milliards de dollars, puis 37,5 en 2009. Le
troisième est la publicité. Les revenus générés par la publicité sont sans
commune mesure avec les abonnements, qui profitent notamment au secteur des
télécommunications, lequel, comme nous l’avons vu plus haut, est
particulièrement lucratif. À la lumière des chiffres que nous avons évoqués,
nous constatons que les médias sociaux, dont les revenus dépendent de la
publicité, sont peu rentables en proportion de leur fréquentation. Cela
pourrait s’expliquer par le partage de l’assiette publicitaire avec les
médias traditionnels, qui reposent eux-mêmes sur ce type de financement. Par
exemple, en 2006, aux États-Unis, la télévision représente 33 % des contenus
médiatiques consommés, mais 38 % des revenus publicitaires, alors que
l’Internet n’obtient que 5 % des revenus pour une consommation médiatique
équivalente. À l’échelle mondiale, le financement publicitaire de l’Internet
connaît néanmoins une croissance fulgurante, puisque de 2000 à 2006, les
revenus ont presque triplé et le pourcentage du budget publicitaire total
attribué à l’Internet est passé de 2,29 % à 5,8 % pour la même période
(source: Le Journal
du Net). Précisons que cette croissance d’effectue essentiellement
aux dépends de la presse écrite.
Après
l’éclatement de la bulle de l’Internet, dans les années 2000-2001, certains
financiers ont craint que le Web 2.0 ne connaisse, après un effet de mode
passager, une crise similaire. La disparité entre la valeur financière des
entreprises de l’Internet et leur faible capacité de capitalisation est en
partie la cause de cette crise sectorielle. La situation semble se répéter
avec les médias sociaux. À titre d’exemple, Facebook affirmait valoir 15
milliards de dollars en 2007, alors qu’elle n’a généré que 125 millions de
dollars de revenus. En 2009, Facebook a été estimé à 3,7
milliards en 2009, avec trois fois plus de membres inscrits. Après
l’achat de YouTube, en 2005, Eric Schmidt, le président de Google, a
reconnu avoir fait une offre trois fois supérieure à sa valeur estimée,
convaincu que la vente de YouTube entraînerait une surenchère et qu’il
fallait y mettre le prix. En contrepartie de la surenchère et de l’engouement
dont ils font l’objet, les médias sociaux ne perçoivent qu’environ 5 % des
revenus publicitaires générés sur l’Internet.
En résumé,
l’Internet est un secteur particulièrement lucratif pour l’industrie des
télécommunications. Le financement des sites Web par les revenus
publicitaires et le commerce en ligne sont, en comparaison, marginaux. Les
enjeux économiques de l’Internet semblent donc se rapporter à son
infrastructure davantage qu’à ses contenus et les médias
sociaux, fleurons du Web 2.0, paraissent artificiellement gonflés par
l’effet de mode, alors qu’ils ne parviennent pas à capitaliser sur leur
succès. Cela nous fait dire que la valeur économique actuelle de l’Internet,
à l’image du téléphone, réside dans le transport de l’information et de la
communication - le contenant - et non dans ses contenus, bien que l’édition
de contenus audionumériques et la transmission de données conservent un grand
potentiel commercial, en particulier avec la télévision IP, l’édition
électronique et la radio sur le Web, qui remplacent graduellement les médias
traditionnels.
Les
enjeux politiques
En
2008, les Amis du
Centre Simon Wiesenthal pour l’étude de l'Holocauste, un
regroupement de citoyens, a dénoncé un site Web contenant des propos haineux
envers le peuple juif auprès du fournisseur d’accès canadien qui l’hébergeait.
Ce dernier a fermé le site qui contrevenait à sa politique d’utilisation de
l’Internet.
Pour
lutter contre le téléchargement illégal de contenus musicaux, la Recording
Industry Association of America (RIAA) a poursuivi environ 35 000 personnes
en justice depuis 2003. En 2009, suite à des frais judicaires trop
élevés, elle
renonce à poursuivre les pirates et s’en remet aux FAI, lesquels
auront pour mandat d’avertir les usagers fautifs et de leur retirer leur
accès au réseau Internet.
Le
jugement des actes criminels ne repose donc plus, dans ces situations, sur la
loi du pays où l’acte est commis, mais sur les règlements des fournisseurs
d’accès et des hébergeurs impliqués, règlements qui s’inspirent, il est vrai,
de la législation, mais qui possèdent leurs caractéristiques propres. Il en
ressort qu’une telle délégation remet entre les mains d’organisations non
élues et privées un pouvoir appartenant traditionnellement à l’État. Ajoutons
qu’au-delà de la lutte contre la cybercriminalité, les FAI et les hébergeurs
peuvent être des outils de censure efficaces. Les gouvernements, en faisant
pression sur eux, sont en mesure d’éliminer certains contenus indésirables
sur le Web. Par exemple, le
gouvernement canadien est parvenu à faire fermer deux sites Web, en décembre
2009, par le FAI allemand Serverloft. Les sites en question
parodiaient les engagements canadiens pris lors de la conférence de
Copenhague. Ils ne violaient aucune loi et la demande
gouvernementale ne reposait sur aucune décision judiciaire;
cependant, ils mettaient le gouvernement dans l’embarras sur une
question sujette à controverse.
Ces
modes de contrôle du Web sont légaux, car ils concernent la liberté d’une
entreprise d’offrir ou non un service à des individus. Néanmoins, les répercussions
sur le plan de la liberté d’expression sont majeures, car l’Internet tendra,
à l’avenir, à devenir le principal support des médias et de la communication,
de même qu’il constitue un excellent outil de diffusion des idées, accessible
tant aux mouvements sociaux qu’aux entreprises transnationales.
Les
hébergeurs de sites Web et les médias sociaux sont en position d’imposer de
sévères mesures de censure qui dépassent le cadre législatif des pays
démocratiques en matière de liberté d’expression. Prenons par exemple
la loi C-19,
qui définit l’interdiction pénale de l’obscénité. Il y est écrit :
Aux
fins de la présente loi, toute chose est obscène lorsqu’une de ses
caractéristiques dominantes est l’exploitation indue de l’un ou l’autre ou de
plusieurs des éléments suivants, à savoir le sexe, la violence, le crime,
l’horreur ou la cruauté, au moyen de représentations dégradantes de l’homme
ou de la femme ou de toute autre façon.
On
constate que la définition laisse place à l’interprétation, mais les juges
qui ont à trancher sur le sujet évaluent l’obscénité à l’aune de ce qu’ils
considèrent comme le seuil de tolérance de l’ensemble de la société
canadienne en la matière et selon des cas de jurisprudence. Cependant, les
hébergeurs de sites Web et les plateformes des médias sociaux acceptent de
diffuser des contenus dans la mesure où ils respectent leurs propres
exigences en matière d’obscénité, données parmi l’ensemble de leurs
règlements habituellement contenus dans la rubrique « Conditions
d’utilisation ». Notons que ces exigences sont souvent définies de manière
floue et subjective, comme c’est le cas pour MySpace. Sur cette plateforme,
la nudité est interdite au même titre que la pornographie et la violence
gratuite. Si les contenus obscènes sont, à juste titre, proscris, on
peut se demander si l’interdiction édictée par MySpace de publier des
contenus incitant à la bigoterie ou renfermant des thèmes de mauvais goût,
sont pertinents.
Si des
contenus sont signalés par un usager de l’Internet comme étant offensants,
l’hébergeur peut décider de fermer le site où ils figurent. De telles
décisions font en sorte que le seuil de tolérance envers les contenus
potentiellement obscènes n’est pas consensuel, mais repose sur le jugement
d’un usager, celui qui signale l’offense, et sur celui de l’employé ou du
responsable du serveur d’hébergement qui déterminera s’il y a lieu ou non de
bloquer le contenu offensant. Cela, en s’appuyant sur des critères vagues et
appelant des jugements de valeurs. Ainsi, les décisions reposent sur un seuil
de tolérance potentiellement plus faible que ce que tolèrerait, par exemple,
la législation canadienne.
La
liberté d’expression concerne uniquement les rapports entre l’individu, un
organisme ou une entreprise et l’État; elle ne se rapporte donc pas aux
relations entre les individus et les entreprises privées. Ainsi, selon leurs
règlements propres, les hébergeurs et les plateformes des médias sociaux
peuvent décider de bloquer, sous la pression de leurs membres, de simples
visiteurs ou de gouvernements, des contenus politiques, des critiques
subversives et des sujets qui font l’objet de controverse, lorsqu’ils
reçoivent des plaintes de la part des usagers. D’une part, il est dans leur
intérêt, d’un point de vue commercial, de ne pas se couper d’une partie de
leur clientèle en laissant des contenus choquants circuler librement. D’autre
part, certaines législations peuvent considérer ces entreprises comme les
responsables des contenus qu’elles hébergent. En effet, les hébergeurs de
sites Web gratuits et les plateformes des médias sociaux sont majoritairement
financés par les publicités diffusées sur les pages de leurs usagers. Le fait
qu’ils dégagent des bénéfices de leurs contenus les rend solidaires de
ceux-ci. C’est ainsi
qu’en 2007, le Tribunal de grande instance de Paris a condamné MySpace à
verser des dommages et intérêts à un humoriste dont les sketches étaient
diffusés illégalement sur sa plateforme par l’un de ses membres. Ces
règlements ont été établis de manière à protéger juridiquement
les hébergeurs et les plateformes des médias sociaux, cependant, en
expulsant du Web les sujets sensibles, ceux-ci contribuent à renforcer le
statu quo au sein de la société et à limiter la diversité des opinions.
La
censure chinoise n’est pas un cas unique de pression gouvernementale sur le
contrôle des contenus. Ainsi, pour la seule période de juillet à décembre
2009, Google
affirme avoir reçu 291 demandes de suppression de contenus de
la part du Brésil (dont 156 par décision de la Court), 188 pour l’Allemagne
(109 par décision de la Court), 142 pour l’Inde (1 par décision de la Court)
et 123 pour les États-Unis (44 par décision de la Court). Le Canada est moins
exigeant à ce chapitre, avec 42 demandes (2 par décision de la Court). Les
demandes sont respectées dans 76,3 à 94,1 % des cas mentionnés ici.
Au-delà
de ces formes évidentes de censure, les moteurs de recherche exercent un
contrôle sur l’information véhiculée sur le Web. Précisons d’abord que les
sites non référencés (ou, dans les cas de censure, simplement bloqués ou
filtrés) par les moteurs de recherche ne sont généralement accessibles aux
internautes qu’en tapant l’adresse du site; ils font alors partie, comme 70 à
75 % de l’ensemble des sites, du Web profond, et sont
pour ainsi dire inaccessibles aux visiteurs qui ne les connaissent pas déjà
par une autre source.
Google
contrôle 68,6 % du marché des moteurs de recherche. En considérant que la
richesse du Web réside dans ses contenus informatifs et que les moteurs de
recherche sont les outils les plus performants et les plus exhaustifs pour
extraire ces contenus, on constate que la richesse du Web souffre du
quasi-monopole de Google, car, en exagérant à peine, ce qui n’existe pas pour
Google, n’existe pas non plus pour les usagers du Web - et on parle ici des
trois-quarts des pages qui y figurent. Les concurrents de Google n’offrent
pas de réelle alternative à ce sujet, puisque leurs algorithmes de recherche
sont similaires et que les résultats se recoupent d’un moteur à l’autre.
Le fait
que des fournisseurs d’accès Internet, des moteurs de recherche et des
hébergeurs de sites Web aient entre leurs mains la possibilité, d’une part,
de limiter la circulation de l’information et des opinions sur l’Internet et,
d’autre part, d’interdire l’accès à l’Internet pour certains citoyens appelle,
selon nous, la mise sur pied d’organismes publics internationaux de
surveillance et de réglementation de l’Internet. De plus, il faudrait
légiférer pour faire de l’accès à l’Internet un droit universel, car dans
notre société actuelle, il est indissociable de la liberté d’expression, du
droit à l’information et du droit à la communication. En
Finlande, l’accès à l’Internet à haut débit est un droit opposable depuis
2009. Cette décision devrait, selon nous, servir d’exemple auprès
des autres États.
Que
reste-t-il pour les mouvements sociaux et les citoyens ?
Pour
certaines personnes, l’Internet est considéré comme un instrument
démocratique au service du droit à la communication. Les médias sociaux
offrent aux individus sans formation dans le domaine de l’informatique la
possibilité d’éditer des contenus sur le Web. On constate cependant que cette
possibilité ne donne pas pour autant de visibilité aux mouvements sociaux,
aux citoyens, à leurs idées ou à leurs revendications. Cela, notamment, pour
deux raisons importantes.
La
première raison, c’est que la visibilité des contenus figurant sur le Web
dépend de l’architecture des sites et des budgets des propriétaires de ces
sites. Ainsi, pour apparaître dans les premières pages de résultats des
moteurs de recherche, il faut qu’un site réponde dans sa structure à leurs
méthodes d’indexation, soit leur façon de lire les pages Web pour en retirer
les mots clés importants. S’il est à la portée de tout le monde de générer
des contenus sur le Web, il est difficile d’organiser ces contenus de manière
à rendre leur visibilité optimale. C’est l’affaire de spécialistes du Web,
lesquels chargent des honoraires souvent proportionnels à l’amélioration de
la visibilité du site. Il est également possible d’acheter des espaces
publicitaires sur le Web, dont les coûts correspondent au nombre de visiteurs
que ces espaces attirent sur le site publicisé, ou d’acheter des mots clés
sur les moteurs de recherche, afin d’apparaître en tête des pages de
résultats. Les organismes sans but lucratif et les groupes de citoyens n’ont
généralement pas les moyens de s’offrir de tels procédés, contrairement aux
entreprises. Sachant que le Web compte près de 207
millions de sites différents et 1000 milliards de pages Web, on
comprend que la compétition est difficile sur le plan de la visibilité.
La
seconde raison est que si les médias sociaux peuvent, du jour au lendemain,
faire d’un inconnu une célébrité, grâce à l’effet de « buzz » entraîné par le
partage de contenus entre les utilisateurs, on constate que les contenus
qu’ils mettent sur le devant de la scène sont majoritairement une affaire de
divertissement populaire. C’est le cas, par exemple, des cinq vidéos les plus
vus sur YouTube en 2009 : le premier est la prestation d’une chanteuse, les
second et troisième, des vidéos amateurs humoristiques, le quatrième est la
bande-annonce d’un film hollywoodien et le cinquième est une publicité. Les
30 pages les plus populaires sur Facebook concernent des vedettes, des
athlètes, des produits alimentaires, des émissions et des films grand public.
La
gouvernance du Web
L’article L'ACTA, le
traité secret qui doit réformer le droit d'auteur, publié le
25 janvier 2010 sur le site Le Monde.fr, fait état de négociations qui
pourraient limiter les droits des citoyens en ce qui concerne
l’Internet. Depuis 2007, un certain nombre d’États, une dizaine à
l’époque, 39 aujourd’hui, parmi lesquels on retrouve le Canada, les
États-Unis et l’Union européenne, œuvrent, en dehors de tout débat public et
sans observateurs indépendants, à la création d’un traité international
appelé l'Anti-counterfeiting Trade Agreement
(ACTA). Ce traité viserait notamment à établir des normes internationales en
matière de droits d’auteur. L’absence de transparence dans les négociations
est critiquée tant par le Parlement européen que le Sénat américain. Selon
certains documents de travail de la Commission européenne, publiés par
Wikileaks et par la Quadrature du Net - dont l’authenticité est cependant
niée par la Commission européenne, mais qui correspondrait à une fuite - les
points de discussion concerneraient, entre autre, les deux points suivants :
le premier est l'obligation pour les FAI de divulguer aux organismes lésés
dans leurs droits d’auteurs l’identité des propriétaires d’adresses IP,
lorsqu’ils sont impliqués dans le téléchargement illégal de contenus, sans
mandat judiciaire. Le deuxième est la possibilité, pour les douaniers, de
confisquer le matériel électronique contenant des fichiers téléchargés
illégalement. Si, au regard de leur provenance, ces documents sont sujets à
caution, les tractations concernant l’ACTA sont bien réelles et inquiétantes,
dans la mesure où les décisions qui y seront prises auront un impact sur les
usagers de l’Internet sans qu’il y ait eu de consultation ni de débat
publics.
Dans un article publié sur son site officiel, Danger
international pour la liberté d’expression sur Internet,
datant du 25 janvier 2010, Reporter Sans Frontière déplore l’opacité des
négociations de l’ACTA qui, selon l’organisme, pourrait menacer la liberté
d’expression sur l’Internet. À cet effet, il demande des explications aux
gouvernements impliqués, concernant la mise en place de filtres automatiques
hors de toute décision judiciaire, l’interdiction pour certains contrevenants
d’accéder à l’Internet et l’interdiction de contourner des procédés de
filtrage ou de blocage imposés sur l’Internet, ce qui constitue, selon lui,
un obstacle légal pour les citoyens qui tentent de contourner les mesures de
censure dans des pays comme l’Iran et la Chine.
Reporter Sans Frontière soulève un point inquiétant en mentionnant que
l’industrie américaine a eu accès aux documents de travail, contrairement au
Parlement européen, dans la mesure où elle s’engage à ne divulguer aucune
information. Un tel privilège, accordé à des acteurs privés, alors qu’ils
sont refusés à une institution dont les membres sont élus, est, en première
analyse, révélateur de la centralité du secteur économique dans ce dossier,
aux dépends des droits et libertés des citoyens.
L’opacité
des négociations de l’ACTA est, dans une certaine mesure, à mettre parallèle
avec la gouvernance de l’Internet. Bien que le réseau des réseaux soit un
support mondial d’information et de communication sur lequel naviguent
environ 1,5 milliard de personnes, on constate que les décisions qui le
concernent sont prises par un nombre limité de personnes, concentré pour
l’essentiel aux États-Unis, sont lieu de naissance.
Sur le
plan de la gouvernance de l’Internet, il y a tout d’abord l’Internet Corporation for Assigned Names and Numbers (ICANN),
qui est responsable de l’attribution des adresses IP et des noms de domaines. Il
s’agit d’une organisation internationale qui était liée, de sa création, en 1998,
jusqu’en septembre 2009, au Département américain du
Commerce. Son statut est sujet à controverse, car certains pays l’accusent de
demeurer sous l’influence du gouvernement américain. Un certain nombre de
pays voudrait que l’ICANN devienne un organisme affilié à l’ONU, alors que
certaines ONG suggèrent qu’elle adopte la forme d’une coopérative.
Ensuite,
il y a l’Internet Engineering Task Force (IETF), un groupe informel qui
élabore les standards sur lesquels repose l’Internet. Il est ouvert à tout le
monde, sans nécessiter d’adhésion et se répartit en plusieurs groupes de
travail. L’IETF est coordonné par l'Internet Engineering
Steering Group (IESG). L’architecture de l’Internet et
son développement à long terme sont assurés par un comité de l’IETF,
l’Internet Architecture Board (IAB). L’Internet Engineering Task Force
gère les « request for comments » (RFC), des documents décrivant les éléments
techniques de l’Internet. Les RFC sont issus d’initiatives provenant
d’experts techniques et sont discutés et approuvés ou non par l’ensemble des
usagers de l’Internet. Certains RFC deviennent des standards de l’Internet.
L’IETF, l’IESG et l’IAB relèvent de l’Internet Society (ISOC), une
association américaine créée en 1992, qui regroupe aujourd’hui 20 000 membres
issus de 170 pays. Cette association est vouée à la promotion et à la coordination
du développement de l’Internet. Au-delà de son fonctionnement démocratique,
on retient que seuls les professionnels de l’informatique sont en mesure de
réellement s’impliquer dans le développement de ces standards, bien qu’ils
aient un impact sur l’ensemble des usagers de l’Internet.
Ces organisations
portent en elles certains vestiges des premiers développements de l’Internet,
à une époque, dans les années 60 à 90, où il était un moyen d’échanger de
l’information entre divers centres de recherche et d’où les intérêts
commerciaux étaient absents. Les usagers étaient également les concepteurs de
l’Internet, ainsi, les enjeux étaient purement fonctionnels et pratiques, non
pas économiques ni politiques, bien que des enjeux idéologiques et militaires
aient été à la source de l’ARPANET, l’ancêtre de l’Internet. Dans un tel
contexte, les groupes de travail ne nécessitaient pas de hiérarchie formelle
et les décisions étaient prises de manière consensuelle, puisque l’on
élaborait un projet collectif. Cependant les organisations que nous venons de
présenter, bien qu’elles reposent sur une structure décisionnelle interne
démocratique, ne correspondent plus à ce que l’Internet est devenu depuis les
15 dernières années. C’est-à-dire que les enjeux sociaux, politiques,
économiques et culturels actuels liés à l’Internet sont trop importants pour
que sa gestion et sa réglementation s’appuient sur des professionnels de
l’informatique et sur des organisations qui échappent au contrôle des
citoyens et aux concertations publiques.
À cet
égard, l'Union
internationale des télécommunications (UIT) a créé, en 2003,
le Sommet mondial sur la société de l'information (SMSI), où des
représentants des gouvernements, des entreprises et de la société civile
recherchent des solutions pour lutter contre l'inégalité de l'accès à
l'information à l’aide des nouvelles technologies de l’information et de la
communication (les NTIC), dont l'Internet est le plus utilisé. Lors du second
sommet à Tunis, en 2005, la résolution a été prise de créer un Forum sur la
gouvernance de l'Internet, qui a eu lieu à Athènes, en 2006. Une telle
initiative rend compte du potentiel que possède l’Internet en tant
qu’instrument de développement socioéconomique, d’éducation, de promotion de
la diversité culturelle, de multilinguisme et de démocratisation. Notons que
le Sommet survient dans un contexte de fracture numérique. En effet, il
existe un net déséquilibre entre l’accès à l’Internet en Occident et dans les
pays en voie de développement. Si l’Internet connaît, en 2009, un taux de
pénétration de 76,2 % en Amérique du Nord, celui de l’Afrique est inférieur à
9 % et ce, même après une croissance de 1800 % depuis l’an 2000,
comparativement à 140 % pour les Nord-américains.
Enjeux
pour les consommateurs
Avec un
taux de pénétration des foyers canadiens de 67,1 % en 2008, l’Internet est
aujourd’hui un service incontournable. Au regard de la concentration des FAI,
il devient important, pour les consommateurs, de surveiller la réglementation
et l’évolution du marché, de sorte que l’Internet demeure un service
accessible à un coût raisonnable pour l’ensemble de la population.
Présentement,
plusieurs manœuvres de la part du gouvernement et des FAI sont en cours, qui
modifient les règles du jeu au mépris des consommateurs.
Tout
d’abord, on retrouve la modulation
du trafic Internet, qui consiste, pour les FAI, à ralentir le
réseau à certaines heures, afin d’éviter qu’il soit surchargé. Pour les
consommateurs, attirés par la rapidité des connexions vantée par les FAI, la
modulation du trafic Internet revient à payer un prix trop élevé, en
considération du fait qu’ils reçoivent un service inférieur à celui qu’ils
ont commandé. Les entreprises Bell, Rogers et Shaw emploient toutes trois
cette méthode, qu’elles légitiment de deux façons. D’une part, elles
prétendent qu’elles ne pénalisent que les usagers qui s’adonnent au partage
en pair-à-pair de contenus piratés. D’autre part, elles affirment que
cette méthode permet un partage plus équitable des réseaux en évitant que des
usagers n’abusent du téléchargement et n’alourdissent l’ensemble des réseaux
de l’Internet au mépris des usagers qui sont moins gourmands en bande
passante.
Ensuite,
on retrouve les limites de téléchargement. Les FAI ont ainsi progressivement
changé les forfaits Internet illimités, afin de les remplacer par des
services ayant des limites de téléchargement fixes, de manière à pouvoir
facturer la bande passante excédentaire consommée à la pièce.
Enfin,
les principaux FAI louent leurs lignes hautes-vitesse aux petits FAI. Leur
position dominante sur le marché leur permet de charger aux petites
entreprises des prix élevés, de façon à limiter leur compétitivité. Dans
l’article Le Canada, un pays du tiers monde, l’auteurLyes Arfas explique qu’en 2008, le CRTC a tenté de
contraindre Bell, Télus et Rogers de baisser leurs tarifs pour permettre aux
petits FAI d’offrir des services compétitifs à leurs clients. Pour le CRTC,
il s’agissait de protéger la qualité et l’accessibilité de l’Internet à haut
débit, alors que Bell, Télus et Rogers se défendaient en affirmant que ces
tarifs visaient à récupérer une part de leurs investissements liés aux
infrastructures. La décision du CRTC a été renversée par le gouvernement
fédéral en 2009. Selon Lyes Arfas, l’intervention du fédéral contribue à
renforcer la situation de quasi-monopole des grands fournisseurs de services
Internet haute vitesse, ce qui se traduit, pour les consommateurs, par des tarifs
plus élevés et par un ralentissement des innovations technologiques, puisque
les compagnies seront en mesure de retarder la mise en marché de nouveaux
services, de manière à mieux rentabiliser les anciens. Qui plus est, cette
configuration du marché permet au gouvernement de mieux contrôler l’Internet
en limitant le nombre d’acteurs auprès desquels intervenir.
|
Aucun commentaire:
Enregistrer un commentaire