OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Internet et la technique : l’univers des possibles http://owni.fr/2011/04/14/internet-et-la-technique-lunivers-des-possibles/ http://owni.fr/2011/04/14/internet-et-la-technique-lunivers-des-possibles/#comments Thu, 14 Apr 2011 14:43:08 +0000 Félix Treguer http://owni.fr/?p=56901 … ou Internet pour les nuls (moi compris).

Après avoir présenté dans ses grandes lignes l’éthos qui anime les concepteurs d’Internet la semaine dernière, il s’agit désormais de comprendre comme cet éthos a débouché sur certaines caractéristiques essentielles. Ces caractéristiques techniques sont, comme on va le voir, au fondement de la malléabilité d’Internet et donc de la liberté de communication rendue possible par le « réseau des réseaux ».

Le premier choix technique essentiel consiste à organiser Internet sur une architecture relativement simple et obéissant selon le principe du « bout-à-bout » («end-to-end » en anglais) . Pour que les réseaux interconnectés soient compatibles (ou « interopérables »), les concepteurs d’Internet ont fait le choix d’un principe de fonctionnement relativement simple, fondé sur trois niveaux de couches jouant différents rôles dans le transport de l’information. Au niveau inférieur, on trouve tout d’abord la couche physique du réseau, qui correspond aux réseaux physiques, filaires ou hertzien, le long desquels circulent les données (des protocoles permettent par exemple l’allocation de la bande passante entre différents utilisateurs, ou encore le formatage des données). Au niveau supérieur se trouve la couche « applicative », constituée par les applications que les utilisateurs finaux du réseaux utilisent pour communiquer (email, web, messagerie instantanée, peer-to-peer, etc). Au milieu, se trouve enfin la couche des protocoles de transport, tel le protocole TCP, et le protocole IP, qui est utilisé par tous les paquets de données transitant sur Internet et permet leur adressage en vue de leur transmission depuis un émetteur vers un récepteur.

IP et transmission des paquets

Comme l’explique Walid Dabbour, chercheur à l’Institut National de Recherche en Informatique Appliquée (INRIA), celui-ci joue en fait un double rôle. Chaque machine connectée est dotée d’une adresse IP qui l’identifie et la localise au sein du réseau.

Elle prend la forme d’une série de chiffres de type 138.96.196. : il s’agit de l’équivalent dans le réseau Internet de l’adresse postale . Au contraire de la commutation par circuit qui caractérise le réseau téléphonique ou le Minitel, qui nécessitent l’établissement d’un liaison continue entre deux points du réseau cherchant à échanger de l’information et qui suppose une intelligence du réseau capable de localiser l’émetteur et le récepteur. Dans le réseau Internet, les paquets sont transmis indépendamment les uns des autres entre les différents routeurs, qui sont les équipements physiques chargés d’orienter à partir de la seule adresse de réception les paquets de données au sein du réseau. Il se peut que, pour un même fichier scindé en différents paquets de donnés, les paquets empruntent des routes différentes.

Cette architecture en couches est traditionnellement représentée sous la forme d’un sablier. Du fait du fonctionnement indépendant de ces différentes couches, n’importe qui peut ainsi développer des protocoles applicatifs sans avoir à se préoccuper de la couche physique, ni du transport des données. Si un fournisseur d’accès Internet décide de déployer de nouvelles méthodes d’allocation de la bande passante entre utilisateurs, le développeur d’un programme de messagerie instantanée n’a pas besoin de réécrire le code pour faire fonctionner son application.

Les deux couches, physiques et applicatives, fonctionnent indépendamment l’une de l’autre. Cette architecture technique permet donc un modèle de fonctionnement décentralisé, ou les différents acteurs du réseau peuvent agir en toute autonomie sans avoir à se soucier des actions des autres. Chacun peut donc participer au développement de l’architecture globale sans besoin de coordination.

Grâce à la commutation par paquet et le système d’adressage par IP, un grand nombre de configurations communicationnelles différentes peut se développer entre les différents points de ce réseaux. Du point à point, et donc une communication privée, dans le cas où seuls deux ordinateurs connectés sont en communication (similaire à une communication radio entre deux talkies-walkies ou une conversation téléphonique). Du point multipoint, dans le cas où un ordinateur diffuse des données en direction de plusieurs ordinateurs. Selon le nombre de destinataires et le caractère ou non confidentiel de la communication, on passe alors dans un schéma de « communication », c’est-à-dire de mise à disposition du public un message. Enfin, et c’est la une vraie nouveauté, Internet permet aussi des configurations multipoint-à-multipoint, ou une diversité d’émetteurs peut envoyer de l’information à une diversité de récepteurs.

C’est notamment le cas des application peer-to-peer ou des jeux en ligne multijoueurs. La commutation par paquets adressés séparément les uns des autres permet, enfin, qu’un même point du réseau établisse simultanément un nombre potentiellement infini de communications distinctes. Ainsi, on peut écouter de la musique en streaming (avant tout une réception point-à-multipoint), tout en échangeant avec un ami au travers d’un client de messagerie instantanée (communication point-à-point), et en postant une contribution à un blog collectif (émission multipoint-à-multipoint). Du point de vue des modes de communication qu’il rend possible, Internet est donc extrêmement versatile.

Jouissance et liberté des utilisateurs

L’architecture d’Internet en couche indépendante permet de faire d’Internet un réseau « malléable », fondé sur une structure « bout-à-bout ». Ce principe structurel fut pour la première fois formalisé et exposé en 1981 par Jérôme Saltzer, David P. Reed, et David D. Clark. Selon eux, la fiabilité du système impose de faire en sorte que le contrôle des protocoles ait lieu autant que faire se peut en bout de réseau. Là encore, il s’agit de laisser aux utilisateurs du réseau le contrôle de celui-ci, et de favoriser un modèle a-centré, dans lequel l’intelligence est poussée en périphérie.

Les concepteurs d’Internet ne souhaitaient pas prédire les innovations qui surviendraient que ce soit dans la couche inférieure ou dans la couche supérieure de l’architecture d’Internet. Il se sont contentés de trouver un dénominateur commun, le protocole IP, qui permet un transport fluide des données entre plusieurs réseaux. Il suffisait (et il suffit encore) à un opérateur de réseau d’être interconnecté à d’autres réseaux et d’obtenir une adresse IP pour pouvoir émettre et recevoir de l’information. Outre ce pré-requis, Internet est un réseau dit « future-proof », ne limitant pas les utilisations qui peuvent en être faites puisqu’adaptables à l’envi par ses utilisateurs. C’est pour cela que l’on trouve une grande variété de protocoles dans la couche physique et dans la couche applicative du réseau.

Selon Jonathan Zittrain cette plasticité du réseau Internet est une caractéristique essentielle qui explique sa supériorité sur d’autres réseaux de communication – fondé sur les mêmes principes technologiques mais propriétaires et contrôlés par l’opérateur du réseau – qui, dans les années 1980, proposaient eux aussi des services de ligne. L’environnement informationnel dont nous héritons aujourd’hui est fondé selon lui sur ce concept de « générativité », ou de malléabilité, qui caractérise non seulement Internet, mais également les ordinateurs que l’on y connecte. Zittrain définit la « générativité » de la manière suivante :

« La générativité est la capacité d’un système donné à produire des évolutions non anticipées au travers des contributions non-filtrées des utilisateurs »

La « générativité » repose donc sur des libres contributions des utilisateurs. L’écosystème informationnel qui résulte du couplage d’Internet et des postes informatiques eux aussi « malléables », est fondé sur la liberté dont jouissent les utilisateurs.

Cet écosystème est propice à l’innovation. La création du World Wide Web par le britannique Tim Berners-Lee, alors chercheur au CERN , est un exemple majeur de cette faculté d’Internet d’engendrer de nouvelles manières de communiquer. Avant la création de la « toile », Internet était un outil utilisé par la communauté scientifique, et les applications étaient pour l’essentiel limitées à l’envoi de courriers électroniques, au transfert de fichiers ou à la participation à des groupes de discussion et autres forums thématiques. Le protocole HTTP va révolutionner la manière dont l’information peut se partager sur Internet, grâce à l’utilisation de liens hypertexte permettant de naviguer sur Internet entre différents serveurs connectés au réseau au moyen de simples clics. Comme les membres du projet ArpaNet avant lui, Berners-Lee va rendre public ces protocoles et collaborer avec d’autres chercheurs pour les améliorer. Comme l’explique Philippe Aigrain, les conséquences sociales de cette innovation sont colossales :

La Toile, conçue sur la base d’Internet et sur les mêmes principes de protocoles pair à pair, ouverts, asynchrones et équitables, devint la mémoire et l’espace de coopération de groupes d’une échelle sans précédent. La Toile met en place un réseau gigantesque et non coordonné de contenus textuels ou graphiques (…). C’est une remarquable invention sociale, car elle permet une création distribuée, avec un très faible coût d’entrée pour devenir auteur »

Avec le Web, Internet devient un moyen de communication grand public, il se démocratise. Et puisque de nouvelles audiences se constituent dans cet espace public en gestation, les premiers acteurs commerciaux y investissent pour se rendre visibles mais aussi et surtout pour profiter de cet extraordinaire canal de distribution de biens et services, avec le développement progressif de ce qu’on appelle assez étrangement le « commerce électronique ». En retour, l’effet de réseau joue à plein et on assiste à l’arrivée de ces nouveaux adeptes d’Internet, qui sont ainsi introduits à ce nouvel univers communicationnel.

Depuis le World Wide Web, des milliers d’autres innovations ont eu lieu : l’arrivée de la vidéo, des protocoles d’échanges peer-to-peer, la téléphonie sur IP (rendue célèbre avec l’application Skype) et de bien d’autres encore, plus ou moins confidentielles, mises au point par des étudiants passionnés d’informatique, des entreprises de tailles diverses, des centres de recherche publics… Prises dans leur ensemble, elles font d’Internet un moyen de communication d’une richesse inégalée ; un réseau en constante évolution, inventant sans cesse de nouvelles formes d’ « action communicationnelle ».

La neutralité du réseau

Du fait de son rôle historique dans le développement de ce que Yochai Benkler nomme « l’économie informationnelle en réseau » , le principe « bout-à-bout » est essentiel à la liberté de communication permise par Internet et à l’innovation qui en résulte. Il garantit que l’utilisateur final préserve en bout du réseau l’autonomie nécessaire à une libre utilisation de cet outil de communication et notamment du type d’information qu’il entend y faire circuler. Ce principe va donc également de paire avec la neutralité du réseau.

Le réseau, entendu non pas comme l’ensemble des nœud mais comme l’architecture physique qui relie ces nœuds entre eux, ne remplit qu’un rôle de « simple transport ». En 2011, près de deux milliards d’êtres humains se connectent régulièrement en ligne et ont pour l’essentiel le choix des outils qu’ils utilisent pour s’y connecter.

En revanche, chacun d’entre eux reste dépendant d’un fournisseur d’accès, qui remplit le rôle du facteur en transportant les données. Historiquement, le rôle de ces opérateurs de réseaux est limité. Ils se contentent de construire l’infrastructure physique permettant de relier physiquement les « consommateurs » aux grands réseaux de télécommunications mondiaux. Ils leur fournissent une adresse IP leur permettant d’être localisable, d’émettre et recevoir de l’information, c’est-à-dire d’exister au sein d’Internet. En leur qualité de prestataire, les fournisseurs d’accès s’assurent du bon fonctionnement de l’infrastructure télécom dont ils ont la charge. Leur rôle s’arrête là. La communication entre deux points du réseau est toujours traitée de la même manière, quelque soit l’émetteur, le destinataire ou la nature des données transportées. En ce sens, Internet est un réseau neutre.

Lors des Rencontres Mondiales du Logiciel Libre de 2009, Benjamin Bayart, pionnier de l’internet en France et président du fournisseur d’accès associatif French Data Network (FDN), propose de définir quatre axiomes pour tout fournisseur d’accès à Internet : 1) transmission des données par les opérateurs sans en examiner le contenu; 2) transmission des données sans prise en compte de la source ou de la destination des données ; 3) transmission des données sans privilégier un protocole de communication ; 4) transmission des données sans en altérer le contenu.

La neutralité du Net garantit ainsi que les données transitent de manière non discriminée sur le réseau. Le mode de transport dépend des décisions et des protocoles choisis par l’utilisateur final, en bout de réseau, et le transporteur qu’est l’opérateur de réseau se contente de les relayer au sein du réseau dont il a la charge. Ce principe de fonctionnement vient, là encore, d’une volonté de décentraliser au maximum la gestion des activités communicationnelles. C’est aujourd’hui ce concept de neutralité qui cristallise les débats politiques et juridiques relatifs sur la manière dont le droit doit s’appliquer sur Internet.

Les nouvelles « affordances »

Le principe bout-à-bout, la plasticité du réseau qu’il engendre, ainsi que la neutralité de l’infrastructure de transport constituent l’identité d’Internet. Elles en font un réseau de pairs, où chaque nœud est égal à tous les autres. La structure technique d’Internet crée ce que les sociologues nord-américains nomment les « affordances ».

Ce mot anglais, repris tel quel par certains auteurs francophones, semble renvoyer à première vue à un concept sophistiqué. Il n’en est rien : il s’agit simplement des potentialités qu’offre une situation sociale particulière, un objet ou une technologie, pour faciliter certains modes d’interaction sociale ou de configurations politiques. Pour l’illustrer, Benklerdonne l’exemple de l’imprimerie, qui a eu des conséquences différentes sur les taux d’alphabétisation dans les sociétés dans lesquelles elle était introduite, en fonction de l’environnement socio-culturel de ces dernières. L’effet d’entraînement fut bien plus important dans les pays où la pratique de lecture personnelle était encouragée par le système social (religieux en l’occurrence) – tels que la Prusse, l’Écosse, l’Angleterre ou le nord-est des États-Unis – que dans les pays qui décourageaient l’interaction directe avec les textes religieux, comme en France ou en Espagne.

L’environnement socio-culturel conditionne en première instance les effets de la technique, ici l’imprimerie. En dépit de sa simplicité, ce concept d’ « affordance » est important, car il permet de s’interroger sur les enjeux socio-politiques d’une technologie donnée tout en sortant de l’impasse conceptuelle du déterminisme technologique, qui pose une relation de stricte causalité entre une technologie et un processus de changement social qu’elle est supposée provoquer. La technologie ne fait que faciliter certains processus ; elle met en capacité et c’est déjà beaucoup.


Retrouvez tous les articles sur la neutralité, ainsi que notre dossier du jour (image de Une: Elsa Secco):

- Pour un Internet “neutre et universel”
- Neutralité en Europe: laissez-faire et petits pas

> Article publié initialement sur We The Net sous le titre Les caractéristiques d’Internet et ses potentialités politiques

> Illustrations Truthout, _boris et RémiC

]]>
http://owni.fr/2011/04/14/internet-et-la-technique-lunivers-des-possibles/feed/ 8