dimanche 6 novembre 2011

Ce qu'il faut savoir à propos du WEB: première partie

Ce qu'il faut savoir à propos du WEB

Introduction
Cette section a pour but de décrire le développement actuel de l'Internet et son impact sur notre société à travers une série d’enjeux qu’il représente. Au regard de la convergence technique qui rapproche les télécommunications et les médias d’information et de divertissement au point de leur permettre de voyager sous une même forme, numérique, et sur un même support, l’Internet, nous avons choisi de nous concentrer sur ce réseau des réseaux, bénéficiaire de l’ensemble des avancées technologiques en matière d’informatique et d’électronique.
Cette section est divisée en trois parties:
Dans la première partie, nous décrirons l’Internet d’un point de vue technique, tel qu’il se dessine aujourd’hui, avec l’avènement récent du Web 2.0, et tel qu’il pourrait se présenter dans un avenir proche, selon les recherches dont le Web et l’Internet font l’objet.
Dans la seconde partie, nous décrirons les enjeux actuels de l’Internet, sur les plans économique, social et politique.
Enfin, dans la troisième partie, nous tenterons d’établir quelques perspectives concernant l’Internet, sur un axe allant du potentiel démocratique vers un instrument de contrôle social.


Première partie: contexte actuel et développements des technologies médiatiques

L’infrastructure de l’Internet
Lorsqu’il s’agit d’appréhender le phénomène de l’Internet, nous devons distinguer l’infrastructure de ses contenus.
Voyons d’abord l’infrastructure de l’Internet. L’Internet est surnommé le « réseau des réseaux », car il est constitué d’une multitude de réseaux interconnectés. À l’échelle globale, on retrouve le « backbone » - son squelette - qui est un réseau de fibre optique reliant entre eux les villes, les pays et les continents. Le « backbone » est le réseau ayant le plus dense débit binaire (la bande-passante).
Aux niveaux local et national, on retrouve les opérateurs, qui élaborent leurs propres réseaux reliés à l’Internet. Parmi eux figurent les fournisseurs d’accès à l’Internet (FAI). Leur taille et leur répartition dépendent de la place qu’ils occupent sur le marché, suivant un mouvement de concentration. À cet effet, les principaux FAI nationaux desservaient la moitié des abonnés canadiens en 1997. En 2003, les principaux FAI, issus de la câblodistribution et des télécommunications, soit Bell, Rogers, Shaw, Telus et Vidéotron, occupaient près des deux-tiers du marché, dont le quart pour la seule compagnie Bell (source: Industrie Canada). Les FAI servent d’intermédiaires entre les usagers et l’ensemble des réseaux de l’Internet.
À cet ensemble de réseaux, il faut ajouter les serveurs, qui sont constitués d’ordinateurs et de logiciels. Les serveurs se répartissent sur l’échelle de la planète et permettent d’entreposer l’ensemble de l’information disponible sur l’Internet, que ce soit les sites Web, les courriels, les bases de données, etc. L’ensemble de l’infrastructure que nous venons de décrire se dresse en intermédiaire entre les usagers. Cependant, lorsque les usagers partagent des contenus entre eux, selon le principe du pair-à-pair, l’information ne transite pas par un serveur, mais passe directement d’un usager à un autre, leurs ordinateurs respectifs tenant lieu de serveurs.
Les FAI offrent différentes technologies pour permettre aux usagers de circuler sur l’Internet. Elles répondent à différentes contraintes techniques et à divers besoins de la part des usagers. Si ces technologies convergent toutes aujourd’hui vers l’Internet, elles provenaient auparavant de secteurs des communications distincts. Pour la connexion sans-fil, on retrouve le satellite, l’accès haut-débit par ondes hertziennes (par exemple, le WiMAX et le Wi-Fi) et la téléphonie sans-fil. Pour la connexion par fil, on retrouve les réseaux téléphoniques et les réseaux de câblodistribution. Les compagnies sont actuellement en train de moderniser leurs infrastructures, afin de permettre un débit binaire plus important et une vitesse de transmission plus rapide. Ainsi, les réseaux téléphoniques et les réseaux de câblodistribution passent progressivement à la fibre optique, en remplacement des fils de cuivre pour le téléphone et des câbles coaxiaux pour la câblodistribution. Présentement, seuls les principaux axes des réseaux et certaines villes sont équipés de fibre optique, car son implantation est coûteuse. Pour donner une idée, l’acheminement de la fibre optique chez l’abonné coûtait 1500 $ par foyer parisien, en 2008. Ainsi, les services offerts par les fournisseurs d’accès dans les zones moins densément peuplées sont plus lents, car le raccordement qui se fait chez l’abonné est constitué de câbles coaxiaux ou de fils de cuivre de moindre efficacité. Dans ces zones, la connexion par satellite est à privilégier.
Aujourd’hui, la “FTTH” ou “Fiber To The Home”, qui désigne le réseau de fibre optique à domicile, est disponible dans les grands centres urbains aux États-Unis, au Canada, en Australie et dans certains pays d’Europe et d’Asie du Sud-Est. Cette implantation permettra, lorsqu’elle sera généralisée, une convergence complète de la téléphonie, de la télévision (par le biais de la télévision IP) et de l’Internet sur un support unique, la fibre optique. En attendant, des solutions intermédiaires ont été établies, telles l’ADSL, qui permet la transmission simultanée d’une conversation téléphonique et de données numériques en employant deux bandes de fréquence différentes disponibles sur les fils de cuivre qui relient l’abonné au réseau téléphonique.
L’amélioration de la résolution des téléviseurs, avec les technologies ACL, plasma et LED, permet de faire de ceux-ci des périphériques intéressants pour la navigation sur le Web. On estime que 80 à 90 % des téléviseurs commercialisés par Sony en 2010 pourront être branchés sur l’Internet. On revient à ce que les initiatives issues des câblodistributeurs, pensons notamment à Vidéoway, offraient dans les années 90. Cependant, les contenus disponibles aujourd’hui par la télévision IP ne sont pas limités aux services offerts par le câblodistributeur, puisqu’il devient possible de consulter l’ensemble des contenus disponibles sur le Web. De plus, l’interactivité devient réelle, alors que dans les années 1990, les services tels que Vidéoway n’offraient essentiellement que des choix prédéterminés et limités, gérés par informatique, sous couvert d’interactivité.
Présentement, du point de vue de la modernisation des réseaux, les fournisseurs d’accès Internet canadiens, pensons notamment à Vidéotron et à Bell, se retrouvent face à un dilemme. D’une part, la généralisation de la FTTH est nécessaire pour répondre à la demande du marché pour l’acheminement rapide de contenus numériques toujours plus lourds. Dans ce cadre, les entreprises ne peuvent laisser un tel marché à la concurrence. D’autre part, les investissements nécessaires sont si importants que les fournisseurs d’accès à Internet tentent de reporter à plus tard la généralisation de la FTTH en offrant des solutions temporaires.
Parmi ces solutions, outre l’ADSL, on retrouve le développement de techniques de compression des données numériques toujours plus performantes, en particulier pour les contenus vidéo, qui sont les fichiers les plus volumineux. Les algorithmes de compression s’appellent des « codecs ». Parmi les plus connus, on retrouve le MPEG et le DivX, pour les vidéos, et le MP3 pour la musique. On distingue les modes de compression des fichiers numériques selon qu’ils sont ou non destructifs, c’est-à-dire selon qu’ils dégradent ou non la qualité du fichier. Une autre solution consiste à alléger les réseaux de l’Internet en imposant des limites de téléchargement mensuelles aux usagers. Une fois le quota dépassé, l’information excédante est facturée en sus. La dernière solution est la modulation du trafic Internet. Il s’agit de ralentir volontairement le réseau en-dehors des heures de bureau, de façon à ne pas nuire à l’usage professionnel de l’Internet.
Le rôle de l’Internet consiste essentiellement à véhiculer des contenus, de l’information. Si, dans les premiers temps, les contenus véhiculés sur Internet prenaient une forme écrite, leur nature est aujourd’hui multiple. Nous parlons de l’Internet comme du réseau des réseaux, mais nous pourrions tout aussi bien dire qu’il s’agit du média des médias. En effet, s’il faut entendre par média tout moyen de communication transmettant des messages, nous remarquons que l’Internet est porteur de contenus médiatisés de tous les types, pour peu que ces contenus soient traduits dans le langage binaire, donc qu’ils soient numériques. Ainsi, les images fixes ou en mouvement, les sons, les écritures et même les odeurs peuvent être transmis sur l’Internet (notons cependant que les diffuseurs et les numériseurs d’odeurs en sont encore au stade du prototype).
Cette multitude d’informations nécessite des logiciels pour être fabriquée, diffusée, filtrée et lue. Si la modernisation des réseaux a permis une accélération de la vitesse de transmission des contenus et un débit accru, les logiciels et les interfaces ont, quant à eux, évolué vers la convivialité et permettent plus aisément les interactions sociales, comme sur Facebook, et le travail collaboratif, à l’image de Wikipédia. C’est essentiellement ce qui caractérise le Web 2.0.
Le Web 2.0
Bien qu’un grand nombre de personnes tende à amalgamer le Web et l’Internet, l’un et l’autre sont distincts. Le World Wide Web est une des applications qui figurent sur l’Internet, au même titre que la messagerie instantanée et le courrier électronique. Cette application permet de consulter des pages de contenus sur des sites à l’aide d’un logiciel de navigation et repose sur la structure de l’hypertexte, c’est-à-dire un système d’organisation de l’information dans lequel des textes sont reliés entre eux par des nœuds appelés « hyperliens ». Avec l’avènement des documents non textuels comme les photographies, les vidéos et la musique, on parle aussi d’hypermédias. Le Web a popularisé l’Internet en rendant la consultation de ses contenus plus accessible au grand public. C’est à partir de la seconde moitié des années 1990 qu’il connaît un réel essor.
Pour rendre compte de l’évolution du Web depuis le début des années 2000, certains spécialistes de l’Internet emploient le concept de Web 2.0. Le terme ne fait pas l’unanimité dans le milieu. Certains le considèrent comme un terme de marketing. D’autres le voient comme une tentative arbitraire de fixer une série d’évolutions graduelles dont certaines étaient présentes dès le début du Web. Enfin, certains appuient le concept de Web 2.0 qui, selon eux, rend compte d’un changement de paradigme. Aujourd’hui encore, sa définition demeure floue. Cependant, le terme a le mérite de fédérer un ensemble de pratiques sous une seule bannière et d’offrir un état des lieux du Web actuel.
Le concept Web 2.0 est apparu en 2003, à la suite d’une concertation entre O’Reilly Media, MediaLive et le journaliste John Battelle, dans le but de créer une conférence sur les nouveaux développements du Web. L’article What is Web 2.0 ?, de Tim O’Reilly (2005), rend compte de cette concertation et circonscrit le phénomène.
Selon O’Reilly, les entreprises œuvrant dans le secteur de l’Internet qui ont survécu à l’effondrement de la « bulle Internet », en 2000-2001, possédaient un certain nombre de points en communs, qui constituent en quelque sorte l’essence du Web 2.0. Dans What is Web 2.0 ?, premier texte à rendre compte explicitement du phénomène, O’Reilly énonce sept caractéristiques du Web 2.0, qu’il oppose à ce qu’il appelle le Web 1.0, soit le modèle de développement du Web des années 1990.
En gros, le phénomène repose principalement sur les usagers du Web. Les interfaces qui leur sont proposés doivent être souples. Les entreprises doivent tabler sur les services plutôt que sur la vente de logiciels et s’intéresser autant à la périphérie du marché qu’à son centre, en suivant le principe de la longue traîne (nous y reviendrons). Elles doivent s’appuyer sur l’intelligence collective des usagers et considérer ceux-ci comme des co-développeurs, car c’est leur participation qui enrichit les services offerts sur le Web.
O’Reilly oppose la rigidité des premiers sites Web, qui étaient mis à jour peu fréquemment par leurs créateurs, à la souplesse et à la convivialité des sites et des applications du Web 2.0, fréquemment transformés et enrichis par les usagers de ces sites. Ensuite, il oppose la vision d’un Web reposant sur la publication issue des annonceurs et la passivité des consommateurs, à la vision d’un Web axé sur la participation active des usagers aux contenus. Enfin, il oppose la place centrale occupée par les logiciels de navigation, pensons à Netscape, à l’importance des services provenant des plateformes Web, parmi lesquels se trouve Google. Sur ce plan, notons que dans les années 1990, des compagnies de développement de logiciels comme Microsoft ont tenté de cloisonner le Web en imposant leur standard, afin de dominer le marché. De nombreuses guerres de standards ont parsemé l’histoire des médias ; notons cependant que l’interconnexion des réseaux de l’Internet et la multitude des usagers, des services et des contenus offerts sur le Web, interdisaient à moyen terme une telle guerre, sous peine de transformer la navigation en casse-tête insoluble.
Le Web 2.0 implique la participation des usagers sur de nombreux plans. Premièrement, sur le plan de la création individuelle de contenus (les blogs, par exemple) ou collective (pensons à Wikipédia), ou encore les possibilités de réponses, de critiques et de commentaires de l’ensemble des sites de type Web 2.0. Deuxièmement, sur le plan du référencement, avec le principe de la folksonomie (soit le classement des contenus sur le Web à l’aide de mots clés, basée sur la collaboration des usagers), et du partage de contenus, avec l’échange pair-à-pair ou les sites comme Flickr, You Tube et MySpace. Troisièmement, sur le plan de la sociabilité, avec les réseaux sociaux tels que Facebook et Twitter. D’un point de vue technique, les points à retenir sont les applications et interfaces Web qui permettent aux usagers d’interagir entre eux ou avec le contenu des pages Web.
Nous élaborerons davantage le phénomène du Web 2.0 lorsqu’il sera question des enjeux liés à l’Internet, mais auparavant, nous aimerions décrire les évolutions prévues du Web pour les années à venir.
Les futurs du Web
Contrairement à l’expression Web 2.0, qui désignait une évolution du Web en cours, le concept de Web 3.0, qui ne fait pas non plus l’unanimité auprès des spécialistes de l’Internet, désigne l’avenir du Web et rend compte de plusieurs avenues possibles sur lesquelles des chercheurs travaillent déjà actuellement. Il faut garder en tête que seule une évolution suffisamment importante du Web pour entraîner un changement de paradigme peut être désignée sous le nom de Web 3.0 et que le terme, tout comme celui de Web 2.0, est flou, sujet à débat et est tout autant un terme de marketing qu’un terme désignant une réalité technique.
Le Web 3.0 rend compte de sept développements en cours ou à venir : le Web sémantique, le Web ubiquitaire, le Web symbiotique, l’Internet des objets, le Web 3D, le Web OS et le Web Squared.
Il ne suffit pas que le Web offre des contenus, il faut également que ces contenus soient organisés entre eux, qu’ils puissent être récupérés et lus par des usagers ou par des machines. Les moteurs de recherche actuels, tels que Google, recherchent des mots-clés à travers les textes des pages Web. Ces textes sont en langage naturel, c’est-à-dire dans des langues courantes comme le Français. Le Web sémantique repose plutôt sur un langage formel, un métalangage, qui attribue une signification aux données qui figurent sur le Web, ce qui permet aux logiciels et aux machines d’interpréter les contenus. Le Web sémantique vise donc à rendre le Web intelligent par le biais de métadonnées d’ordre contextuel et pourrait permettre aux machines de communiquer entre elles en-dehors d’une intervention humaine.
Le Web ubiquitaire et le Web symbiotique rendent compte de la présence croissante de l’Internet dans notre société. Si, dans les premières années du Web, les usagers dépendaient d’une connexion et d’un poste fixes, ils peuvent aujourd’hui accéder à l’Internet de pratiquement partout, par le biais de postes mobiles et sans-fil. Dans les années à venir, l’environnement physique et le cyberespace tendront donc à se confondre, à entrer en symbiose. Une autre dimension du Web ubiquitaire repose sur le principe de la communication entre les objets dans l’environnement. Des technologies permettent déjà ce type de communication, tels le GPS, la radio-identification ou RFID (basée sur des puces transmettant de l’information à distance) et les relevés biométriques. Le transport des informations fournies par ces objets sur le Web amène une multitude d’usages.
Cela nous conduit à l’Internet des objets. Ce développement de l’Internet déborde le Web et repose sur la convergence du Web sémantique et de l’ubiquité des réseaux et de l’accès aux réseaux. L’expression fait référence à la possibilité, pour les objets, de communiquer entre eux de manière autonome. Voici deux applications concrètes de ce type de technologie. La première application est alimentaire. Une puce RFID intégrée à l’emballage d’un aliment vendu en magasin sait que son contenu sera périmé dans deux jours. Sans consultation ni intervention humaine, le produit se met de lui-même en solde pour une vente rapide. La deuxième application est vestimentaire. Dans le même magasin, un code-barres figure sur l’étiquette d’un vêtement. Un client désireux de mieux connaître le produit photographie le code-barres avec son cellulaire. Un système intelligent interprète le code sur l’image, qui lui révèle l’identité de l’objet, puis le cellulaire récupère sur le Web une série d’informations sur le produit.
Le Web 3D réfère à la transformation en trois dimensions de l’environnement du Web. Cela offre aux internautes la possibilité d’évoluer dans un environnement virtuel réaliste. Outre les jeux de rôle qui gagneront en complexité, du point de vue des interactions entre les joueurs, le Web 3D offre l’opportunité aux commerçants de faire connaître plus en détails leurs produits.
Le Web OS s’appuie sur le développement d’un système d’exploitation figurant directement sur le Web, plutôt que sous forme logicielle, comme c’est le cas avec Windows. Il s’agit d’un bureau en ligne que l’usager personnalise selon ses besoins. Le Web OS permet d’émanciper l’internaute vis-à-vis de l’ordinateur.
Enfin, le Web Squared, ou Web au carré, ne fait pas partie du Web 3.0, mais désigne l’étape intermédiaire qui sépare le Web 2.0 du futur Web. Le Web Squared s’applique aux développements qui vont dans le sens d’un rapprochement entre le Web et la réalité et une émancipation du Web par rapport à l’ordinateur comme point d’accès aux réseaux.

Aucun commentaire:

Enregistrer un commentaire