Ce qu'il faut savoir à propos du WEB
Introduction
Cette section a pour but de décrire le
développement actuel de l'Internet et son impact sur notre société à
travers une série d’enjeux qu’il représente. Au regard de la convergence
technique qui rapproche les télécommunications et les médias d’information et
de divertissement au point de leur permettre de voyager sous une même forme,
numérique, et sur un même support, l’Internet, nous avons choisi de nous
concentrer sur ce réseau des réseaux, bénéficiaire de l’ensemble des avancées
technologiques en matière d’informatique et d’électronique.
Cette section est divisée en trois parties:
Dans la première partie, nous décrirons l’Internet d’un
point de vue technique, tel qu’il se dessine aujourd’hui, avec l’avènement
récent du Web 2.0, et tel qu’il pourrait se présenter dans un avenir proche,
selon les recherches dont le Web et l’Internet font l’objet.
Dans la seconde partie, nous décrirons les enjeux actuels
de l’Internet, sur les plans économique, social et politique.
Enfin, dans la troisième partie, nous tenterons d’établir
quelques perspectives concernant l’Internet, sur un axe allant du potentiel
démocratique vers un instrument de contrôle social.
Première partie: contexte actuel et développements des technologies
médiatiques
L’infrastructure
de l’Internet
Lorsqu’il
s’agit d’appréhender le phénomène de l’Internet, nous devons distinguer
l’infrastructure de ses contenus.
Voyons
d’abord l’infrastructure de l’Internet. L’Internet est surnommé le « réseau
des réseaux », car il est constitué d’une multitude de réseaux
interconnectés. À l’échelle globale, on retrouve le « backbone » - son
squelette - qui est un réseau de fibre optique reliant entre eux les villes,
les pays et les continents. Le « backbone » est le réseau ayant le plus dense
débit binaire (la bande-passante).
Aux
niveaux local et national, on retrouve les opérateurs, qui élaborent leurs
propres réseaux reliés à l’Internet. Parmi eux figurent les fournisseurs
d’accès à l’Internet (FAI). Leur taille et leur répartition dépendent de la
place qu’ils occupent sur le marché, suivant un mouvement de concentration. À
cet effet, les principaux FAI nationaux desservaient la moitié des abonnés
canadiens en 1997. En 2003, les principaux FAI, issus de la
câblodistribution et des télécommunications, soit Bell, Rogers, Shaw, Telus
et Vidéotron, occupaient près des deux-tiers du marché, dont le quart pour la
seule compagnie Bell (source: Industrie Canada). Les FAI
servent d’intermédiaires entre les usagers et l’ensemble des réseaux de
l’Internet.
À cet
ensemble de réseaux, il faut ajouter les serveurs, qui sont constitués
d’ordinateurs et de logiciels. Les serveurs se répartissent sur l’échelle de
la planète et permettent d’entreposer l’ensemble de l’information disponible
sur l’Internet, que ce soit les sites Web, les courriels, les bases de
données, etc. L’ensemble de l’infrastructure que nous venons de décrire se dresse
en intermédiaire entre les usagers. Cependant, lorsque les usagers partagent
des contenus entre eux, selon le principe du pair-à-pair, l’information
ne transite pas par un serveur, mais passe directement d’un usager à un
autre, leurs ordinateurs respectifs tenant lieu de serveurs.
Les FAI
offrent différentes technologies pour permettre aux usagers de circuler sur
l’Internet. Elles répondent à différentes contraintes techniques et à divers
besoins de la part des usagers. Si ces technologies convergent toutes
aujourd’hui vers l’Internet, elles provenaient auparavant de secteurs des
communications distincts. Pour la connexion sans-fil, on retrouve le
satellite, l’accès haut-débit par ondes hertziennes (par exemple, le WiMAX et le Wi-Fi) et la téléphonie sans-fil. Pour la connexion par
fil, on retrouve les réseaux téléphoniques et les réseaux de
câblodistribution. Les compagnies sont actuellement en train de moderniser
leurs infrastructures, afin de permettre un débit binaire plus important et
une vitesse de transmission plus rapide. Ainsi, les réseaux téléphoniques et
les réseaux de câblodistribution passent progressivement à la fibre optique,
en remplacement des fils de cuivre pour le téléphone et des câbles coaxiaux
pour la câblodistribution. Présentement, seuls les principaux axes des
réseaux et certaines villes sont équipés de fibre optique, car son
implantation est coûteuse. Pour donner une idée, l’acheminement de la fibre
optique chez l’abonné coûtait 1500 $ par foyer parisien, en 2008. Ainsi, les
services offerts par les fournisseurs d’accès dans les zones moins densément
peuplées sont plus lents, car le raccordement qui se fait chez l’abonné est
constitué de câbles coaxiaux ou de fils de cuivre de moindre efficacité. Dans
ces zones, la connexion par satellite est à privilégier.
Aujourd’hui,
la “FTTH” ou “Fiber To The Home”, qui désigne le réseau de fibre optique à
domicile, est disponible dans les grands centres urbains aux États-Unis, au
Canada, en Australie et dans certains pays d’Europe et d’Asie du Sud-Est.
Cette implantation permettra, lorsqu’elle sera généralisée, une convergence
complète de la téléphonie, de la télévision (par le biais de la télévision
IP) et de l’Internet sur un support unique, la fibre optique. En attendant, des
solutions intermédiaires ont été établies, telles l’ADSL, qui permet la
transmission simultanée d’une conversation téléphonique et de données
numériques en employant deux bandes de fréquence différentes disponibles sur
les fils de cuivre qui relient l’abonné au réseau téléphonique.
L’amélioration
de la résolution des téléviseurs, avec les technologies ACL, plasma et LED,
permet de faire de ceux-ci des périphériques intéressants pour la navigation
sur le Web. On estime que 80 à 90 % des téléviseurs commercialisés par Sony
en 2010 pourront être branchés sur l’Internet. On revient à ce que les
initiatives issues des câblodistributeurs, pensons notamment à Vidéoway,
offraient dans les années 90. Cependant, les contenus disponibles aujourd’hui
par la télévision IP ne sont pas limités aux services offerts par le
câblodistributeur, puisqu’il devient possible de consulter l’ensemble des
contenus disponibles sur le Web. De plus, l’interactivité devient réelle,
alors que dans les années 1990, les services tels que Vidéoway n’offraient
essentiellement que des choix prédéterminés et limités, gérés par
informatique, sous couvert d’interactivité.
Présentement,
du point de vue de la modernisation des réseaux, les fournisseurs d’accès
Internet canadiens, pensons notamment à Vidéotron et à Bell, se retrouvent
face à un dilemme. D’une part, la généralisation de la FTTH est nécessaire
pour répondre à la demande du marché pour l’acheminement rapide de contenus
numériques toujours plus lourds. Dans ce cadre, les entreprises ne peuvent
laisser un tel marché à la concurrence. D’autre part, les investissements
nécessaires sont si importants que les fournisseurs d’accès à Internet
tentent de reporter à plus tard la généralisation de la FTTH en offrant des
solutions temporaires.
Parmi
ces solutions, outre l’ADSL, on retrouve le développement de techniques de
compression des données numériques toujours plus performantes, en particulier
pour les contenus vidéo, qui sont les fichiers les plus volumineux. Les
algorithmes de compression s’appellent des « codecs ». Parmi les plus connus,
on retrouve le MPEG et le DivX, pour les vidéos, et le MP3 pour la musique.
On distingue les modes de compression des fichiers numériques selon qu’ils
sont ou non destructifs, c’est-à-dire selon qu’ils dégradent ou non la
qualité du fichier. Une autre solution consiste à alléger les réseaux de
l’Internet en imposant des limites de téléchargement mensuelles aux usagers.
Une fois le quota dépassé, l’information excédante est facturée en sus. La
dernière solution est la modulation du trafic Internet. Il s’agit de ralentir
volontairement le réseau en-dehors des heures de bureau, de façon à ne pas
nuire à l’usage professionnel de l’Internet.
Le rôle
de l’Internet consiste essentiellement à véhiculer des contenus, de
l’information. Si, dans les premiers temps, les contenus véhiculés sur
Internet prenaient une forme écrite, leur nature est aujourd’hui multiple.
Nous parlons de l’Internet comme du réseau des réseaux, mais nous pourrions
tout aussi bien dire qu’il s’agit du média des médias. En effet, s’il faut
entendre par média tout moyen de communication transmettant des messages,
nous remarquons que l’Internet est porteur de contenus médiatisés de tous les
types, pour peu que ces contenus soient traduits dans le langage binaire,
donc qu’ils soient numériques. Ainsi, les images fixes ou en mouvement, les
sons, les écritures et même les odeurs peuvent être transmis sur l’Internet
(notons cependant que les diffuseurs et les numériseurs d’odeurs en sont
encore au stade du prototype).
Cette
multitude d’informations nécessite des logiciels pour être fabriquée,
diffusée, filtrée et lue. Si la modernisation des réseaux a permis une
accélération de la vitesse de transmission des contenus et un débit accru,
les logiciels et les interfaces ont, quant à eux, évolué vers la convivialité
et permettent plus aisément les interactions sociales, comme sur Facebook, et
le travail collaboratif, à l’image de Wikipédia. C’est essentiellement ce qui
caractérise le Web 2.0.
Le Web
2.0
Bien
qu’un grand nombre de personnes tende à amalgamer le Web et l’Internet, l’un
et l’autre sont distincts. Le World Wide Web est une des applications qui
figurent sur l’Internet, au même titre que la messagerie instantanée et le
courrier électronique. Cette application permet de consulter des pages de
contenus sur des sites à l’aide d’un logiciel de navigation et repose sur la
structure de l’hypertexte, c’est-à-dire un système d’organisation de
l’information dans lequel des textes sont reliés entre eux par des nœuds
appelés « hyperliens ». Avec l’avènement des documents non textuels comme les
photographies, les vidéos et la musique, on parle aussi d’hypermédias. Le Web
a popularisé l’Internet en rendant la consultation de ses contenus plus
accessible au grand public. C’est à partir de la seconde moitié des années
1990 qu’il connaît un réel essor.
Pour
rendre compte de l’évolution du Web depuis le début des années 2000, certains
spécialistes de l’Internet emploient le concept de Web 2.0. Le terme ne fait pas l’unanimité dans le milieu. Certains le
considèrent comme un terme de marketing. D’autres le voient comme une
tentative arbitraire de fixer une série d’évolutions graduelles dont
certaines étaient présentes dès le début du Web. Enfin, certains appuient le
concept de Web 2.0 qui, selon eux, rend compte d’un changement de paradigme.
Aujourd’hui encore, sa définition demeure floue. Cependant, le terme a le
mérite de fédérer un ensemble de pratiques sous une seule bannière et
d’offrir un état des lieux du Web actuel.
Le
concept Web 2.0 est apparu en 2003, à la suite d’une concertation entre O’Reilly Media, MediaLive et le journaliste John Battelle, dans le but
de créer une conférence sur les nouveaux développements du Web.
L’article What is Web 2.0 ?, de Tim O’Reilly
(2005), rend compte de cette concertation et circonscrit le phénomène.
Selon O’Reilly, les entreprises œuvrant dans le secteur de l’Internet
qui ont survécu à l’effondrement de la « bulle Internet », en 2000-2001,
possédaient un certain nombre de points en communs, qui constituent en
quelque sorte l’essence du Web 2.0. Dans What is Web 2.0 ?,
premier texte à rendre compte explicitement du phénomène, O’Reilly énonce
sept caractéristiques du Web 2.0, qu’il oppose à ce qu’il appelle le Web 1.0,
soit le modèle de développement du Web des années 1990.
En gros, le phénomène repose principalement sur les usagers du
Web. Les interfaces qui leur sont proposés doivent être souples. Les
entreprises doivent tabler sur les services plutôt que sur la vente de
logiciels et s’intéresser autant à la périphérie du marché qu’à son centre,
en suivant le principe de la longue traîne (nous y reviendrons). Elles
doivent s’appuyer sur l’intelligence collective des usagers et considérer
ceux-ci comme des co-développeurs, car c’est leur participation qui enrichit
les services offerts sur le Web.
O’Reilly oppose la rigidité des premiers sites Web, qui étaient mis à
jour peu fréquemment par leurs créateurs, à la souplesse et à la
convivialité des sites et des applications du Web 2.0, fréquemment
transformés et enrichis par les usagers de ces sites. Ensuite, il oppose la
vision d’un Web reposant sur la publication issue des annonceurs et la
passivité des consommateurs, à la vision d’un Web axé sur la participation
active des usagers aux contenus. Enfin, il oppose la place centrale occupée
par les logiciels de navigation, pensons à Netscape, à l’importance des
services provenant des plateformes Web, parmi lesquels se trouve Google. Sur
ce plan, notons que dans les années 1990, des compagnies de développement de
logiciels comme Microsoft ont tenté de cloisonner le Web en imposant leur
standard, afin de dominer le marché. De nombreuses guerres de standards ont
parsemé l’histoire des médias ; notons cependant que l’interconnexion des
réseaux de l’Internet et la multitude des usagers, des services et des
contenus offerts sur le Web, interdisaient à moyen terme une telle guerre,
sous peine de transformer la navigation en casse-tête insoluble.
Le Web
2.0 implique la participation des usagers sur de nombreux plans.
Premièrement, sur le plan de la création individuelle de contenus (les blogs,
par exemple) ou collective (pensons à Wikipédia), ou encore les possibilités
de réponses, de critiques et de commentaires de l’ensemble des sites de type
Web 2.0. Deuxièmement, sur le plan du référencement, avec le principe de la
folksonomie (soit le classement des contenus sur le Web à l’aide de mots
clés, basée sur la collaboration des usagers), et du partage de contenus,
avec l’échange pair-à-pair ou les sites comme Flickr, You Tube et MySpace.
Troisièmement, sur le plan de la sociabilité, avec les réseaux sociaux tels
que Facebook et Twitter. D’un point de vue technique, les points à retenir
sont les applications et interfaces Web qui permettent aux usagers
d’interagir entre eux ou avec le contenu des pages Web.
Nous
élaborerons davantage le phénomène du Web 2.0 lorsqu’il sera question des
enjeux liés à l’Internet, mais auparavant, nous aimerions décrire les
évolutions prévues du Web pour les années à venir.
Les
futurs du Web
Contrairement
à l’expression Web 2.0, qui désignait une évolution du Web en cours, le
concept de Web 3.0, qui ne fait pas non plus l’unanimité auprès des
spécialistes de l’Internet, désigne l’avenir du Web et rend compte de
plusieurs avenues possibles sur lesquelles des chercheurs travaillent déjà
actuellement. Il faut garder en tête que seule une évolution suffisamment
importante du Web pour entraîner un changement de paradigme peut être
désignée sous le nom de Web 3.0 et que le terme, tout comme celui de Web 2.0,
est flou, sujet à débat et est tout autant un terme de marketing qu’un terme
désignant une réalité technique.
Le Web 3.0 rend
compte de sept développements en cours ou à venir : le Web sémantique, le Web
ubiquitaire, le Web symbiotique, l’Internet des objets, le Web 3D, le Web OS
et le Web Squared.
Il ne
suffit pas que le Web offre des contenus, il faut également que ces contenus
soient organisés entre eux, qu’ils puissent être récupérés et lus par des
usagers ou par des machines. Les moteurs de recherche actuels, tels que
Google, recherchent des mots-clés à travers les textes des pages Web. Ces
textes sont en langage naturel, c’est-à-dire dans des langues courantes comme
le Français. Le Web sémantique repose plutôt sur un
langage formel, un métalangage, qui attribue une signification aux données
qui figurent sur le Web, ce qui permet aux logiciels et aux machines
d’interpréter les contenus. Le Web sémantique vise donc à rendre le Web
intelligent par le biais de métadonnées d’ordre contextuel et pourrait
permettre aux machines de communiquer entre elles en-dehors d’une
intervention humaine.
Le Web ubiquitaire et le Web symbiotique rendent
compte de la présence croissante de l’Internet dans notre société. Si, dans
les premières années du Web, les usagers dépendaient d’une connexion et d’un
poste fixes, ils peuvent aujourd’hui accéder à l’Internet de pratiquement
partout, par le biais de postes mobiles et sans-fil. Dans les années à venir,
l’environnement physique et le cyberespace tendront donc à se confondre, à
entrer en symbiose. Une autre dimension du Web ubiquitaire repose sur le
principe de la communication entre les objets dans l’environnement. Des
technologies permettent déjà ce type de communication, tels le GPS, la
radio-identification ou RFID (basée sur des puces transmettant de
l’information à distance) et les relevés biométriques. Le transport des
informations fournies par ces objets sur le Web amène une multitude d’usages.
Cela
nous conduit à l’Internet des objets. Ce développement
de l’Internet déborde le Web et repose sur la convergence du Web sémantique
et de l’ubiquité des réseaux et de l’accès aux réseaux. L’expression fait
référence à la possibilité, pour les objets, de communiquer entre eux de
manière autonome. Voici deux applications concrètes de ce type de
technologie. La première application est alimentaire. Une puce RFID intégrée
à l’emballage d’un aliment vendu en magasin sait que son contenu sera périmé
dans deux jours. Sans consultation ni intervention humaine, le produit se met
de lui-même en solde pour une vente rapide. La deuxième application est
vestimentaire. Dans le même magasin, un code-barres figure sur l’étiquette d’un
vêtement. Un client désireux de mieux connaître le produit photographie le
code-barres avec son cellulaire. Un système intelligent interprète le code
sur l’image, qui lui révèle l’identité de l’objet, puis le cellulaire
récupère sur le Web une série d’informations sur le produit.
Le Web 3D réfère
à la transformation en trois dimensions de l’environnement du Web. Cela offre
aux internautes la possibilité d’évoluer dans un environnement virtuel
réaliste. Outre les jeux de rôle qui gagneront en complexité, du point de vue
des interactions entre les joueurs, le Web 3D offre l’opportunité aux
commerçants de faire connaître plus en détails leurs produits.
Le Web OS s’appuie
sur le développement d’un système d’exploitation figurant directement sur le
Web, plutôt que sous forme logicielle, comme c’est le cas avec Windows. Il
s’agit d’un bureau en ligne que l’usager personnalise selon ses besoins. Le
Web OS permet d’émanciper l’internaute vis-à-vis de l’ordinateur.
Enfin,
le Web Squared, ou Web au carré, ne
fait pas partie du Web 3.0, mais désigne l’étape intermédiaire qui sépare le
Web 2.0 du futur Web. Le Web Squared s’applique aux développements qui vont
dans le sens d’un rapprochement entre le Web et la réalité et une
émancipation du Web par rapport à l’ordinateur comme point d’accès aux
réseaux.
|
Aucun commentaire:
Enregistrer un commentaire