Y a-t-il une « philosophie du Web »? (1/2)
Y a-t-il une « philosophie du Web » et que nous permet-elle de penser ?
Compte-rendu d’entretien avec Alexandre Monnin
Cette contribution est le produit d’un entretien réalité le 30 mars 2017 avec Alexandre Monnin, Professeur au Groupe ESC Clermont en stratégie numérique. Nous divisons l’importante contribution d’Alexandre Monnin en deux parties pour faciliter sa lecture. La première fait un état des lieux de la philosophie du web et du concept de « ressource ». La seconde interroge leur avenir.
Résumé : Au-delà des généalogies convenues, l’histoire du Web et de ses grands principes architecturaux demeure peu connue. Il s’avère que les questions de nommage et d’ontologie, au sens d’une « théorie de l’objet », ont occupé une place centrale dans l’établissement de ses fondamentaux. Les réponses apportées par les architectes du Web intéressent la philosophie, non seulement en raison de leurs contenus théoriques, mais aussi des déplacements induits dans nos pratiques académiques. De par l’importance du nommage, le Web apparaît en effet comme un « dispositif de désignation ». Néanmoins, les objets désignés sont toujours saisis sur le vif, en cours d’individuation, sans que ni leurs bornes ni leurs frontières ne soient clairement définies. Alors que nos repères sont bousculés par la crise écologique, on peut voir dans la prolifération de ces objets échevelés, aux frontières indécises, une ressource pour questionner nos catégories et appréhender le monde autrement.
Mots-clefs : ontologie du web, ressource, nommage, internet, intelligence artificielle
Abstract: Beyond the agreed genealogies, the history of the Web and its architectural principles remains little known. It turns out that issues of naming and ontology, in the sense of a « theory of the object », have been central to the establishment of its fundamentals. The answers provided by Web architects are of interest to philosophy, not only owing to their theoretical content but also because of the induced shifts in our academic practices. Because of the importance of naming, the Web appears as a « designation device ». Yet, the designated objects are always seized on the spot, in the process of individuation, without their limits or boundaries being clearly defined. While our landmarks are jostled by the ecological crisis, we can see in the proliferation of these disheveled objects, with indecisive borders, a drive to question our categories and apprehend the world in a different way.
Keywords : web ontology, resource, naming, internet, artificial intelligence
I. La philosophie du web
L’idée même d’une « philosophie du Web »[1] peut paraître surprenante. Avant d’y venir, je répondrai d’abord à la question de savoir ce qu’est le Web, en le distinguant notamment de l’Internet. Le Web que nous utilisons tous les jours, qui nous environne et qui fait partie de nos vies, reste extrêmement mal connu, que ce soit en philosophie ou dans d’autres disciplines, comme en sociologie, sinon en informatique.
Internet est né dans les années 60-70 à partir du réseau Arpanet qui reliait principalement des centres de recherches ; ce projet intéressait les militaires – sans être à finalité directement militaire – et a ensuite été généralisé, puis ouvert au-delà du monde académique. S’il ne fallait retenir qu’un aspect technique d’Internet, mentionnons le protocole TCP/IP, qui permet de transporter de l’information par paquets. Sa mise au point permit de connecter plusieurs réseaux les uns aux autres ; d’où l’idée d’un « Internet » (inter-network, mot-valise pensé à partir de l’idée d’internetting, l’interconnexion de plusieurs réseaux) : un réseau de réseaux, qui correspond aussi à la couche basse des réseaux – celle des télécoms. Le Web est né bien plus tard, entre 1989 et 1991, au CERN (Organisation européenne pour la recherche nucléaire) comme une sorte de système documentaire permettant aux chercheurs du centre de partager de l’information, notamment des articles scientifiques, avec pour finalité de facilité le travail en commun. Le Web apparaît comme une application informatique d’Internet : une surcouche de programme dotée d’une dimension plus abstraite. Comme l’Internet, ses frontières sont assez floues car le Web est lui aussi un réseau de réseaux, qui permet de connecter d’autres systèmes d’information (historiquement ses « concurrents » : Gopher, WAIS, Prospero, etc.) du fait de son système de nommage à vocation universelle. Je n’entre pas dans les détails, si ce n’est pour préciser que les frontières qui définissent son identité posent largement question.
Il convient cependant de faire une autre distinction entre l’architecture du Web et son écosystème. On pense à un certain nombre d’applications et de services lorsque l’on parle de ce dernier, aux moteurs de recherche et aux réseaux sociaux, ou bien encore aux grands acteurs de la vente et du stockage de données – comme Amazon – qui organisent son infrastructure et ont une vraie politique qu’il est intéressant d’analyser. Je ne parlerai pas de tous ces acteurs qui tendent à se greffer sur le Web lui-même, ici conçu comme une application ouverte, pouvant accueillir des modèles économiques, techniques, attentionnels, etc., très différents – à l’instar de ceux de Google ou Facebook par exemple. J’attirerai plutôt l’attention sur l’architecture du Web moderne qui, en dépit de toutes ces innovations successives, est demeurée, à partir d’un certain stade, relativement stable en sous-main. Elle est relativement mal connue, mais porteuse d’une dimension philosophique qu’il convient d’étudier.
Le terme d’« architecture » est utilisé par les acteurs du développement technique du Web et de leurs standards. À leur suite, distinguons trois éléments au moins : les URI, le protocole HTTP et les langages du Web. Ces derniers sont les plus connus : ils permettent de fabriquer des pages Web, à l’image du langage HTLM. Le protocole HTTP est l’équivalent du protocole TCP/IP pour Internet, à ceci près (et la nuance est considérable) qu’il s’agit d’un protocole de transfert, non de transport, qui permet de faire dialoguer les serveurs et les clients – typiquement les navigateurs – et de transmettre l’information attendue. Enfin, le standard le plus important pour penser le Web ce sont les URI – au pluriel, pour inclure l’ensemble des identifiants qui se sont succédés lorsque l’on déroule le fil de l’histoire de l’architecture du Web. Ce sont les identifiants que l’on connaît mieux sous l’acronyme d’URL et qui correspondent aux adresses que l’on écrit dans son navigateur pour consulter une page – à ceci près qu’elles ne sont pas réellement des adresses, cela apparaîtra je l’espère clairement dans la suite de notre entretien. D’ailleurs, l’acronyme URL, toujours en usage, s’imposa dans les standards durant un intervalle de temps très court (moins de 4 ans, entre 1994 et 1998). À la racine du Web, on trouve donc un système de nommage dont les éléments désignent d’autres choses. Quoi donc au juste ? Des pages Web, des documents, des fichiers ? C’est évidemment toute la question. La façon de concevoir (aux deux sens du terme : du point de vue du design et du point de vue gnoséologique) ce système de nommage donne la mesure du Web : c’est à partir de ce standard précis que l’on saisira les enjeux de son architecture.
C’est un point philosophique intéressant, car les URI ont très tôt été assimilés aux noms propres du Web et vous savez qu’en philosophie du langage, les noms propres jouent un rôle extrêmement important. David Kaplan, Saul Kripke et bien d’autres ont essayé de théoriser des noms propres qui ont pour fonction d’identifier des objets, parfois dans plusieurs mondes possibles. Il est utile de revenir sur ce concept, car il n’existe pas pour les linguistes : il ne figure pas dans leurs corpora, si bien que ce concept, fortement investi par les philosophes, auxquels revient l’éminente fonction d’identifier des objets, doté de propriétés remarquables à cette fin, n’est curieusement pas observable empiriquement. Tout ce passe comme si l’objet conceptuel « nom propre » était déjà un proto-objet technique, un artéfact, doté de fonctionnalités auxquelles ferait simplement défaut l’implémentation concrète (ce propos entretient des résonnances avec certaines pistes très stimulantes à mes yeux ouvertes par les travaux de Frédéric Pascal[2], lui qui décrit « la philosophie analytique comme [un] programme technologique, dont le développement relève d’une ingénierie du langage et destinée à réformer les catégories de l’analyse pour permettre la mise à l’épreuve des théories scientifiques et philosophiques »). C’est à travers la question du nom propre que les débats philosophiques tissent des liens avec ceux qui animèrent les architectes du Web dans leur tentative de déterminer comment le Web pouvait faire sens systématiquement, à la fois conceptuellement et techniquement.
Le système de nommage du Web a donné lieu à des controverses importantes, entre les années 1994 et 2000. Le débat tournait autour d’une interrogation qu’il est aisé de résumer : comment et à quoi les noms propres du Web font référence – à des pages, des documents, des objets du monde réel, etc. Penser que le système auquel on a affaire est un système de nommage, d’adressage ou d’identifiants, ne revient pas au même. À chaque fois, le Web fera système différemment, variant en fonction du statut reconnu à la couche de nommage. Prenons un exemple pour illustrer la valse-hésitation des architectes qui ont standardisé les URI, c’est-à-dire les noms propres du Web : on est passé de l’idée qu’il y avait d’abord des UDI, puis des URI, puis des URL, puis des URN, puis des URC, puis des URI à nouveau, des IRL et enfin des IRI. Je ne développe pas ces acronymes mais cela donne une idée du travail conceptuel qu’il a fallu accomplir pour expliciter le standard qui constitue la base même du Web. Il est intéressant de noter que les architectes qui se sont interrogés à propos du statut de ces noms propres ont prolongé un débat philosophique qui lui-même reposait sur un pseudo-artefact car, je le redis, les noms propres philosophiques n’ont pas de réalité empirique pour les linguistes. Souvent éduqués à la philosophie analytique, ils se sont donc saisis de cette figure et lui ont donné de la consistance en la technicisant. Au lieu de débats portant sur des oppositions factuelles ou sur des contradictions logiques, la discussion s’est déplacée du côté de la composition artéfactuelle. Après que ces réalités conceptuelles ont été technicisées, ou, comme j’aime à le dire, artéfactualisées[3], il devint possible d’associer, sous forme de fonctionnalité, des positions théoriques adverses tout en dépassant partiellement les oppositions propres au champ philosophique : d’où le passage des noms propres aux « noms propres du Web »[4].
Pour donner une meilleure idée des débats qui ont eu lieu entre les architectes du Web, on peut se souvenir de celui qui opposa Patrick Hayes (pionnier du Web sémantique et avant cela de l’intelligence artificielle aux côtés de John McCarthy qui en forgea l’expression) avec Tim Berners-Lee (tenu pour « l’inventeur » du Web), sur la référence des URI et leur signification. Je n’entre pas dans les détails techniques de ce débat et m’en tiens à caractériser le rapport de ces architectes du Web à la philosophie.
P. Hayes a défendu à l’époque une position selon laquelle les URI doivent « faire référence » comme n’importe quel nom propre. Il a largement évolué depuis mais dans le contexte de ce débat, il s’agissait pour lui de réaffirmer l’ancrage logique de la question de la signification, à l’aune de la théorie des modèles, de la sémantique formelle et de ses enseignements (issus des travaux de Rudolf Carnap, John Kemeny, Alfred Tarski et de tous les logiciens qui ont progressivement élaboré la sémantique formelle mobilisée par le courant logique de l’intelligence artificielle[5]). Initialement, Hayes considérait la question tranchée avant même d’avoir été posée, les prescriptions de la sémantique formelle s’imposant à ses yeux de manière intangible : rechercher des alternatives relevait dès lors du non-sens pur et simple.
T. Berners-Lee partait en revanche du principe que les URI étaient avant tout des objets techniques et que le Web répondait à une légalité et un mode de fonctionnement qui lui était propre. Il défendit une position inspirée par Wittgenstein et Kripke, consistant à admettre qu’il fallait réviser notre compréhension des noms propres, issue des réflexions des philosophes et des logiciens, pour l’adapter à l’espace du Web à ses caractéristiques.
P. Hayes et T. Berners-Lee faisaient ainsi jouer un rôle extrêmement différent à la philosophie et à la logique : l’un s’y référait pour expliquer comment les noms propres devaient fonctionner et imposer au Web une légalité universelle, tandis que l’autre, plus sensible aux potentialités de son invention, considérait qu’elle requerrait une analyse à nouveaux frais. L’un allait chercher dans la philosophie de quoi comprendre l’artefact technique qu’il essayait de penser, alors que selon le second, cet artéfact induisait une nouveauté qu’il était urgent de saisir pour, en retour, modifier nos catégories et nos concepts[6]. T. Berners-Lee cite à ce propos Le Magicien d’Oz, où l’on voit l’héroïne, Dorothée, passer « de l’autre côté de l’arc-en-ciel », où tout est différent de son Kansas natal[7]. Selon lui, les architectes du Web ne sont pas des physiciens, des « philosophes expérimentaux » (c’était d’ailleurs le nom donné formellement à la physique, à Oxford, lorsqu’il y passa ses examens) mais des « ingénieurs philosophiques », philosophical engineers (au passage, Alan Richardson[8] emploie la même expression pour caractériser la philosophie de Rudolf Carnap). Ils n’ont pas affaire à une légalité qui s’impose à toute chose, à l’instar de la physique, mais à une invention conceptuelle et technique, à des artefacts en avance sur la pensée et demandent d’autres concepts, et d’autres théories pour les appréhender et les comprendre (concepts et théories susceptibles, bien entendu, de modifier notre philosophie[9]).
C’est pourquoi j’ai voulu non seulement étudier et restituer ces controverses, mais aussi prendre parti dans cette dispute sur la philosophie comme savoir sur l’éternité ou comme vision susceptible d’être remise en cause par les objets étudiés empiriquement. Ayant opté pour le second parti, mon approche ressortit à la « philosophie empirique » (au sens d’Annemarie Mol[10] ou Bruno Latour), rejouant ses concepts et réfléchissant à sa pratique au contact des objets qui s’offrent à elle et dont elle se saisie.
II. Le Web comme ontologie
Je vais maintenant essayer d’expliciter les réalités que l’on rencontre au cœur de l’architecture du Web, c’est-à-dire la façon dont ses architectes ont pensé les noms propres du Web et les objets auxquels ils font référence : documents, pages, etc. Je n’appelle pas cette partie « le Web comme ontologie » en référence aux ontologies informatiques – que je n’évoquerai pas ici – mais à l’idée d’ontologie telle qu’elle émergé au cours de l’histoire de la philosophie. C’est un terme un peu galvaudé, que j’utilise au sens premier, historique, remontant au XVIIe siècle et qui ne revoie donc pas à la métaphysique d’Aristote, comme théorie des catégories ou des genres de l’Être. Le mot « ontologie » apparaît près de 2000 ans plus tard et s’il s’applique toujours à l’Être en général, il le fait d’abord sous la guise d’un objet de pensée, dans un contexte qui renverse notre acception actuelle des termes « subjectif » et « objectif » – le subjectif désignant la substance concrète, qui est le seul vrai sujet, tandis que l’objectif se déploie dans le domaine de la pensée[11]. La question de l’objet sera au centre des réflexions de philosophes jusqu’à Kant au moins, à l’apex de cette tradition en même temps qu’il en est le fossoyeur. Pourquoi poser la question des objets ? Je l’ai dit s’il y a un système de nommage – d’identifiant ou d’adresse, il s’agit dès lors de déterminer à quoi ces derniers font référence – ce qu’ils identifient ou à quoi ils donnent accès. En l’occurrence, il n’y a en fait ni pages ni documents au cœur de l’architecture du Web (ce qui pourra paraître surprenant au premier abord).
Rappelons la distinction proposée par Bruno Bachimont[12] entre trois types de documents : papier, audiovisuel et numérique. Je passe vite le premier type : le document papier a pour caractéristique d’être à la fois un support de lecture et d’inscription, ce qui est relativement rare et ne saurait, au regard de ses propriétés spécifiques, conduire à l’ériger en archétype du document. Sa variante audiovisuelle oblige à dissocier le support de lecture et le support d’inscriptions, on a en effet besoin d’un dispositif dédié pour reconstituer son contenu sémiotique. Impossible d’accéder à l’information d’une cassette sans dispositif permettant d’en décoder le signal et de le représenter de façon compréhensible. Les artistes se sont très vite amusés à modifier les artefacts permettant de reconstruire ce fameux signal afin de montrer que l’on pouvait rejouer cette étape de bien des manières et qu’il n’y avait donc pas à proprement parler de légalité ou de nécessité intangible en la matière. Le document numérique va généraliser cette césure en articulant données binaires informes et formats qui dessinent un mode privilégié de reconstruction sans toutefois l’imposer (l’effectivité des standards se situe toujours à l’entrecroisement des dimensions techniques et normatives que l’on a peine à séparer de façon absolue). L’idée même qu’il y ait un document au-dessus de ces données est une idée relativement normative – ce qui ne saurait la disqualifier. En termes strictement physique ou informatique, le document n’a pas d’existence véritablement discernable.
Avec le concept de ressources, qui est au cœur du Web, une étape supplémentaire est franchie en termes de conceptualisation. Je vous donne un exemple simple pour l’illustrer : la page d’accueil du journal Le Monde est un exemple type de ressource Web. Mais le problème est que l’on n’y accède jamais : on accède à la page d’accueil du Monde à un moment donné, sous un format donné en fonction de sa requête, de son navigateur et de ses paramètres. Mais il n’existe pas, de manière sous-jacente, un contenu informatique lui correspondant, autrement dit, un document stable préexistant aux requêtes des internautes et qui serait, ensuite, adapté à chacun (au contraire du document, en deçà de la césure entre sa matérialité et ses modalités de reconstruction, techniques et sémiotiques). Si contenu il y a, il est généré par une interaction, consistant à accéder à un « site Web » (je mets des guillemets car, là encore, c’est une expression des plus floues). Qui plus est, même s’il est relativement stable, cette stabilité n’est pas donnée, mais doit être assurée et s’avère avoir un coût très important. Il faut maintenir des contenus et des programmes sur des serveurs, payer ces derniers et l’électricité qui les alimente, maintenir l’accès dans le temps, etc. Tout, sur le Web, tend à disparaître et à changer. Il possible de maintenir certains contenus temporairement, mais ils sont extrêmement changeants et re-générés à nouveau à chaque accès.
Il n’y a donc rien de tel que « la page d’accueil du Monde » : on accède seulement à des versions de cette page (la part déictique de l’opération ne saurait être soldée entièrement). Disons, pour paraphraser Héraclite, que l’on n’accède jamais deux fois à la même « page Web »[13]. Ce ne sont cependant pas ces versions qui sont identifiées par les noms propres du Web, car celui-ci n’a pas de mémoire. Il n’archive pas ses propres contenus et ne crée pas de nouvel identifiant pour chacune des « pages » ainsi générées, comme c’est le cas dans les systèmes de versioning où l’on peut suivre à la trace tout changement apporté à un document (toutefois, même une page ainsi canonisée sur le Web n’échappera pas à sa condition d’être la représentation d’une ressource et elle tendra elle aussi à varier du point de vue de son affichage, à disparaître, etc.). Les codeurs utilisent ce genre de système qui n’est pas généralisé à l’échelle du Web (au contraire, c’est plutôt le Web qui tendrait à les affaiblir quelque peu pour les raisons indiquées précédemment !).
Pour saisir le statut de cette ressource, il faut entrer un peu plus avant dans l’histoire de l’architecture du Web et comprendre la théorie de l’objet qui s’en dégage. Au départ, entre 1989 et 1993, le Web n’existait que sous la forme de prototypes locaux – de navigateurs comme, de logiciels de serveurs ou de protocoles comme HTTP – d’ailleurs guère documentés, sinon pour les reproduire, les implémenter et les améliorer. Entre 1993 et 1994, devant le succès grandissant du Web – lié au fait que T. Berners-Lee l’ait déposé dans le domaine public permettant théoriquement à tout un chacun de s’en emparer – les ingénieurs à l’origine des premiers navigateurs populaires, à l’instar de Mosaic devenu par la suite Netscape, eurent la capacité de modifier eux-mêmes les proto-standards existants et d’ajouter au langage HTML de nouveaux éléments. Le Web documentaire conçu par T. Berners-Lee au CERN était bien plus académique qui ne permettait d’échanger des fichiers qu’entre chercheurs. Aussi ce dernier décida-t-il, face à l’influence grandissante de ces acteurs et à leurs visées commerciales, de créer à partir de 1994 un organisme de standardisation : le World Wide Web Consortium (W3C), qui s’occupe encore aujourd’hui de la gouvernance technique du Web. C’est lui qui édita pour partie ses premiers standards (appelés des « recommandations »), d’autres demeurant soumis à l’IETF, l’organisme de standardisation d’Internet.
Les premières recommandations concernaient à l’époque les identifiants du Web (UDI puis URI) d’une part (qui furent scindés en deux, URL pour les adresses et URN pour les identifiants) et le protocole HTTP d’autre part. Ces standards se sont cependant avérés insatisfaisants – pour des raisons que je ne développerai pas ici. La partition entre adresse et identifiant mise de côté, T. Berners-Lee demanda à un informaticien, Roy Fielding, de repenser l’architecture du Web et de tenter ainsi d’en saisir, après-coup, les principes fondamentaux en termes de design. Le Web existait alors moins dans et par ses standards qu’au travers d’implémentations changeantes, à la merci des entreprises qui se les appropriaient.
Pour rectifier ce point (de nature aussi bien technique que politique) et renforcer sa standardisation, il convenait au préalable d’en comprendre et d’en dégager les principes sous-jacents. C’est ce que fit R. Fielding, entre 1995 et 2000, notamment dans le cadre de sa thèse consacrée au style d’architecture REST. Il s’efforça d’extraire les fondements architecturaux du Web à partir des premiers standards, pourtant réputés déficients, de manière à réécrire ces derniers en accord avec ce qu’il jugeait être les « véritables » principes du Web ; à la fois son essence, son fondement, sur lequel se régler, et une norme à faire advenir. Fielding a ainsi mis le Web en cohérence avec lui-même, tout en essayant de comprendre ses caractéristiques essentielles pour mieux les réimplémenter au niveau des standards (et solidifier un peu plus, en troisième intention, cette essence préalablement identifiée à partir de ses accidents mais aussi, par définition, au-delà de ses derniers !). Les standards furent ainsi réécrits pour partie sous son égide et le Web en vint à revêtir la forme moderne que nous lui connaissons encore du point de vue architectural. Fondamentalement, son architecture ainsi définie n’a plus vraiment bougé depuis. Il paraît en revanche difficile de repenser un cadre cohérent à la mesure de tous les développements techniques intervenus depuis. En ce sens, le contraste est saisissant entre la minceur des éléments en jeu initialement (URI, HTTP, langages) et le foisonnement qui s’en est suivi.
Pour l’anecdote : on posa à R. Fielding la question de savoir si les standards (notamment HTTP) avaient précédé le style d’architecture REST ou si ce fut l’inverse et comment comprendre leur rapport. REST devait logiquement précéder HTTP si ce dernier était « RESTful » (et donc propice à ce que l’on pût en extraire des principes !). Sa réponse distingue ce problème du paradoxe de la poule et de l’œuf, au moyen duquel la question lui était adressée : ce qui est en jeu ici a davantage à voir avec « la transformation graduelle des dinosaures en poulets ». Le Web fut mis graduellement en cohérence avec lui-même, sans que l’on puisse donner la préséance à l’un des deux pôles. L’artefact a précédé sa compréhension et cette dernière l’a modifié en retour, dans une dialectique extrêmement subtile et intéressante à étudier.
Ce style d’architecture, REST[14], acronyme de Representational State Transfert (Transfert d’état représentationnel), pose trois éléments : des ressources, comme la page d’accueil du Monde, des états de ces ressources et leurs représentations transférées sur le réseau. Une ressource est un objet abstrait : cette page d’accueil n’est pas quelque chose que l’on puisse toucher, atteindre ou consulter en tant que tel. On peut en revanche lui assigner des états, qui changent en fonction du contexte de l’interaction. Ces états de la ressource ont eux-mêmes des représentations concrètes qui seront transférées sur le Web. Ce que l’on appelle ordinairement les « pages Web » sont donc les représentations des états (littéralement des « états représentationnels ») des ressources. Tout est traité de la même manière sur le Web, qu’il s’agisse d’objets abstraits, des objets physiques ou des objets concrets : tous devront être appréhendés en tant que ressource, soit comme des objets, c’est-à-dire des abstractions. C’est pourquoi le Web permet d’identifier, grâce à son système de nommage, n’importe quel type d’objet (physique, réel, possible ou impossible, etc. – tous se donnent comme des abstractions) et de donner accès aux représentations concrètes de leurs états.
Tel est d’ailleurs la conclusion de R. Fielding, dans un article coécrit avec son directeur de thèse, Richard N. Taylor[15] : les corrélats des noms propres, des URI, sont proprement introuvables. Ce ne sont pas des pages Web, des documents ou des fichiers stockés sur des serveurs : rien de concret n’y pourvoie. On ne trouve, dit-il, que « des ombres ». L’expression peut surprendre sous la plume d’un informaticien qui a reconceptualisé en profondeurs les principes du Web. Mais R. Fielding, qui n’est ni métaphysicien ni philosophe, explique qu’il y a bel et bien des « ombres »[16] au cœur du Web, qu’il nomme tantôt (plus rarement) « concepts », en vertu du fait que ces éléments ne sont ni observables ni concrets. Or, de son propre aveu, le paradoxe tient à ceci que le principal intérêt de cette architecture est de donner accès à des contenus et de les manipuler. Mais alors comment manipuler des ombres, des concepts ou des abstractions ? C’est chose impossible. Si les ressources sont manipulées, répond R. Fielding, elles le sont indirectement, par l’entremise de leurs représentations. La notion d’« indirection » s’avère centrale dans l’informatique du Web : on ne manipule jamais directement des objets (abstraits) mais leurs représentations (concrètes). Il y a toujours une coupure indépassable entre l’objet identifié et celui auquel on accède, la question étant évidemment de savoir comment ils se règlent l’un sur l’autre.
Il y a donc bien une ontologie au cœur du Web, proche par certains aspects d’une théorie de l’objet quelconque[17]. À la différence des approches d’inspirations strictement analytiques, cependant, elle ne se conçoit aucunement comme la recherche des caractéristiques a priori des objets, dans leurs très grandes variétés. Il s’agit davantage ici d’éclaircir le statut de l’objet quelconque in media res, en repartant de l’activité de nommage (activité équipée, en l’occurrence) et de la capacité à désigner à distance et à maintenir une relation de désignation dans le temps. L’objet, sur le Web, est avant tout saisie et régularité – saisie et régularité étant susceptibles de pannes. Les dimensions ontologiques et épistémiques, réalistes et constructivistes, sont ici inséparablement associées. Cette conception du nom propre et de l’objet reprend des éléments philosophiques tout en les modifiant considérablement, notamment par l’ajout de considérations techniques relatives à la question de l’accès, étrangères à la philosophie mais que cette dernière semble appeler avec ses proto-artéfacts (les noms propres dont nous parlions plus haut).
Pour autant, les réponses apportées ne sont pas réductibles à des enjeux d’ingénierie ou strictement techniques. Aussi la question posée n’est-elle pas, au final, « Qu’est-ce qu’un objet sur le Web ? » mais plutôt « Que nous apprend le Web à propos des objets ? ». J’ai moi-même tenté de prolonger l’enquête des architectes du Web en déployant les principales controverses ayant parsemé leurs travaux, des origines jusqu’à une époque récente (entre les années 90 et 2010). Ceci afin de cerner la « métaphysique empirique » au cœur du Web à partir d’un corpus comprenant, outre la littérature scientifique ordinaire (livres et articles), des standards techniques, validés ou non, des échanges archivés sur les listes de discussions ou par mails, etc. En somme, beaucoup de littérature grise. De là, enfin, j’ai tenté de tirer un fil destiné à expliciter cette métaphysique sans la dénaturer, en insistant a contrario sur le caractère « empirique » de mon approche, j’entendais délibérément mettre à distance tout risque d’offusquer les leçons de mon enquête sous une conceptualité pré-donnée. Or, les architectes du Web eux-mêmes, souvent formés à la philosophie analytique, eurent tendance à convoquer le corpus qui leur était familier, d’une manière telle qu’elle tend parfois à dissimuler l’originalité de leurs propres contributions. Aussi, prolonger le dialogue en convoquant des concepts issus de la philosophie requiert de créer les conditions d’un dialogue où l’on ne sait plus bien de quel côté se trouve l’explanans et de quel côté se trouve l’explanandum, le principe explicatif et ce qu’il est censé expliquer.
Les philosophes que j’ai mobilisés à cet effet sont au nombre de trois mais j’en ajouterai un quatrième pour l’occasion. Il s’agit de Brian Cantwell Smith, informaticien canadien devenu philosophe, aujourd’hui professeur à l’université de Toronto ; d’Étienne Souriau, ce professeur à la Sorbonne récemment « redécouvert » à l’instigation d’Isabelle Stengers et Bruno Latour ; de Pierre Livet, qui publie également dans ce dossier et enfin d’Adrian Cussins, philosophe anglais de l’intelligence artificielle, professeur à l’université nationale de Colombie à Bogota.
B. C. Smith est l’inventeur d’un concept très important en informatique, la « réflexion » (l’idée qu’un programme ou un langage puisse se prendre lui-même pour objet), développé dans sa thèse sur le langage 3-Lisp[18]. Le concept de réflexion permet le déploiement de strates de représentation multiples tout en ouvrant la possibilité d’opérer un retour vers le monde (du monde à sa représentation, à la représentation de celle-ci, à la représentation de la représentation de la représentation, etc. – ou en sens contraire). Smith se rendit compte plus tard, à son grand désarroi, que cette idée de réflexion avait très tôt été réinterprétée au prisme, en apparence proche, de la réflexivité : un système se prenant lui-même pour objet sans ouverture sur une quelconque extériorité. Ce que l’on peut traduire par la disparition d’une authentique dimension sémantique en informatique, coïncidant avec l’oubli constitutif du monde que l’on y observe, auquel il tenta de remédier dans ses travaux ultérieurs.
Après l’informatique, Smith s’est tourné vers la philosophie (qu’il pratiquait déjà) et proposa une théorie non-transcendantale des objets dans laquelle il insiste sur les notions de déconnexion, de distances et de proximité (dans son grand livre, On the Origin of Objects[19], entièrement passé sous le radar des philosophes français[20], sans doute parce qu’il se situe au croisement des STS – Science and Technologie Studies, de la philosophie analytique et de l’intelligence artificielle – plus précisément du KR – Knowledge Representation, un mixte impensable sous nos latitudes). Chez lui, le rapport au monde articule proximité et éloignement. D’ailleurs, l’activité de poser des objets, la saisie du monde ainsi, par abstraction et discrétisation, permet de se repérer dans le lointain, au-delà de la richesse sensible où les frontières de l’objet paraissent douteuses. Autre corrélat de cette conception, si l’univers entier était trop « plein », les objets étant trop proches les uns des autres, ils seraient imbriqués et l’on n’y discernerait plus rien. Inversement : si elles étaient trop séparées, dans un univers par trop élastique voire à la dérive (une éventualité sur laquelle William James s’était également penché en son temps), il n’y aurait pas non plus d’objets. C’est parce que nous maintenons une bonne distance, un « milieu », dans tous les sens du terme, que nous avons la capacité de reconnaître des objets (le terme qu’emploie Smith est « register », dont l’équivalent français, « registrer », tombé en désuétude, se situe en amont de l’enregistrement, ce dernier nécessitant un support matériel).
C’est donc une pensée du milieu, moins une mésologie proprement dite qu’une articulation toujours fragile entre le distal et le proximal, qui se fait jour chez Smith. J’ajoute que pour ce dernier, les dimensions épistémologiques et ontologiques ne sont en aucun cas séparables (bien que distinguables ; la preuve). Le grand enjeu de sa philosophie, telle que je la comprends et l’interprète, c’est l’individuation. Par quelle activité et en répondant à quelles sollicitations des objets sont-ils individués ? Une question assez proche de celle que posait Quine avec de tout autres moyens.
On retrouve peu ou prou cette interrogation sur le Web. Celui-ci illustre d’ailleurs fort bien la dialectique du proche et du lointain à l’œuvre chez Smith. Songeons aux ressources, à jamais inaccessibles, quand leurs représentations, elles, le sont. Dans les deux cas, c’est bien l’articulation entre ces deux réalités, proches et lointaines, concrètes et abstraites, qui permet de poser des objets faisant sens. Aussi, en partant à la recherche d’une théorie de la signification on débouche in fine sur une théorie de l’objet. L’articulation d’un lointain inaccessible (la référence) et d’un proche sur lequel il est possible d’agir causalement (l’accès) est sise au cœur du Web. Il n’est d’ailleurs guère étonnant de constater que la réflexion de cet informaticien devenu philosophe rejoint en grande partie les développements contemporains des architectes du Web.
P. Livet, quant à lui, a articulé, dans sa théorie processuelle des objets sociaux, deux dimensions à mes yeux primordiales : l’actuel et le virtuel[21]. Or, on peut considérer, dans la perspective du Web, que la ressource tient du virtuel, tandis que ses représentations relèvent de l’actuel. Contrairement à ce que nous dicterait le sens commun, le numérique n’est pas, dans ce cas précis, de l’ordre du virtuel mais bien de l’actuel, autrement dit, du concret. Par contraste, l’élément non-numérique relèverait du virtuel. P. Livet met en exergue une sorte de combinatoire entre l’actuel et le virtuel, ce dernier pesant sur le premier. C’est justement ce que l’on observe dans le cas du Web. Celui qui publie une ressource, ou qui donne accès à des contenus qui l’illustrent, s’engage à ce que ces contenus soient fidèles à cette ressource, sans aucune nécessité technique, mais de façon normative. P. Livet a précisément mobilisé les différents niveaux de la notion d’engagement, jusqu’à la promesse, afin d’articuler sa compréhension du virtuel et de l’actuel. Dans cette perspective, la promesse pèse sur son actualisation et l’action concrète qui vient la satisfaire cette promesse virtuelle, est qualifiée par celle-ci (elle l’accomplit pour cette raison). On retrouve ce même processus à l’échelle du Web : la ressource virtuelle qualifie les représentations que l’on va en donner et celles-ci devront être compatibles avec l’attente induite. On ne peut donc pas épuiser la ressource : impossible de savoir quelle forme aura demain la page d’accueil du Monde. Pour autant, en dépit de ce caractère indéfini (et potentiellement infini), elle lui sera restera toujours fidèle tout en étant à chaque fois différente.
C’est pourquoi aucune cartographie du Web n’est envisageable coupée des interactions que l’on entretient avec lui. C’est en interagissant avec une ressource par le biais de ses représentations et de l’interface que constitue une URI que l’on génère des « pages », qui n’existent pas sans ces interactions. Il n’y a pas de territoire préexistant au fait d’arpenter le Web. C’est de l’interaction que naît le territoire à cartographier (ce qui ne revient en aucun cas à céder au constructivisme social : on parle bien ici d’une réalité ontologique et technique ayant ces caractéristiques)[22]. Les robots d’un moteur de recherche comme Google produisent de telles cartes, mais celles-ci ne sont jamais que le résultat d’interactions particulières et situées. Le Web est trop abstrait pour en effectuer un relevé au sens usuel du mot.
Avec Pierre Livet, nous avons rédigé un article publié en 2014 dans la revue Intellectica[23],qui entendait prolonger la réflexion des architectes du Web dans deux directions. D’une part en déplaçant la focale de la ressource, associée à une institution (celle qui possède ou gère un nom de domaine et les URI correspondantes) vers d’autres échelles. Si l’on ajoute d’autres dimensions, à l’image de celles qu’il explicite dans l’entretien qu’il donne, notamment les chemins d’accès vers les ressources mais aussi les tags ou les commentaires laissés sur leurs représentations, le tout à diverses échelles, le portrait dressé se complexifie considérablement (on passe d’une fonction à un tenseur, pour le dire trop rapidement)[24]. L’opération d’individuation s’en trouve distribuée voire éclatée en une myriade de chemins qui évoluent au fil de temps et se stabilisent avant de muter à nouveau. L’autre élément sur lequel nous nous penchons tient à l’opération épistémique qui consiste à articuler des concepts métaphysiques. Dans le cas de l’architecture du Web, les types qui apparaissent dans les standards doivent être explicités. En philosophie, l’opération qui permet aux philosophes d’identifier un concept fondamental pour bâtir un raisonnement voire un système métaphysique, qu’il s’agisse d’une substance, d’un trope, d’un universel ou autre (un endurant, un perdurant, un occurrent, un événement ou encore un processus, etc.) n’est jamais explicitée. Nous avons donc tenté de caractériser cette activité à partir d’une double opération de distinction et d’explicitation où des types s’entre-distinguent les uns les autres. Or, un tel éclairage sur les fondements épistémiques de la métaphysique, rarement thématisé du fait de l’opposition usuelle entre ces deux dimensions, nous est fourni par le truchement de l’architecture du Web où l’on observe davantage ces opérations à l’œuvre[25].
Le passage de la pure abstraction au virtuel, entendu comme promesse, nous renvoie également aux travaux d’Etienne Souriau. Parti d’une méditation sur les arts, Souriau a réhabilité ce mode d’existence jusqu’à proposer une véritable ontologie du virtuel. La catégorie d’œuvre à faire, chez lui, n’est nullement restreinte aux œuvres d’art mais s’applique à tous les étants dont l’existence est susceptible d’une intensification. Tant et si bien qu’in fine, l’objet quelconque sourialien se voit affublé des traits de l’œuvre à faire[26]. En repensant la promesse à cette l’aune, comme nous y invite Souriau, on restitue à la ressource une part d’agentivité. Celle-ci en vient à nous faire agir, elle commande de générer certaines représentations à l’exclusion d’autres ou de mettre en place des algorithmes et des programmes qui sélectionnent des contenus idoines. L’œuvre à faire impose ses exigences à l’artiste. De la même manière, l’engagement éditorial et l’attente opposent leurs contraintes.
Ce déplacement dans l’ordre de l’agentivité rend compte des pannes qui surviennent comme je l’indiquais : quelque chose résiste, jusque dans le virtuel ! Wittgenstein, dans les Investigations philosophiques, avait d’ailleurs fugacement esquissé une telle conception de la règle avant de renoncer au modèle fourni par l’œuvre d’art (il songeait en particulier à l’œuvre littéraire, et à son ressort, l’inspiration) pour la situer sur un plan « pédagogique », où la répétition joue un rôle essentiel. Le virtuel, chez Livet comme chez Souriau, m’apparaît fournir une alternative, « ontologique » à cette conception wittgensteinienne.
Enfin, dernier point de convergence entre Souriau et Livet, tous deux pensent le virtuel à travers un rapport de « conditionnement conditionné ». Pour Souriau, le caractère d’abaliété (l’existence qui dépend d’un autre) est intrinsèquement attaché au virtuel : il a besoin d’un « point d’appui (…) qui le constitue et le définit. Il est un conditionnement conditionné, suspendu à un fragment de réalité étranger à son être propre, et qui en est comme la formule évocatoire ». Chez Livet, ce « conditionnement conditionné » développe et approfondi ce que tente de penser Souriau à partir d’une ontologie processuelle articulant non seulement l’actuel et le virtuel (dans un rapport d’abaliété) mais également le passage de l’un à l’autre et l’entrecroisement de séries de processus. Une promesse s’apparente à un processus de qualification au croisement de deux processus : un processus pèse du poids du virtuel et de la norme (la promesse) sur un second processus concret d’effectuation (l’action qui la réalise), que le premier processus qualifie. J’ai tenté de montrer dans ma thèse qu’un tel schéma permettait de saisir les relations entre ressources et représentations à l’entrecroisement de l’actuel et du virtuel, de la proximité et de la distance (pour faire également le lien avec Smith).
Enfin, le dernier penseur que je convoque dans le but d’embrayer sur les efforts conceptuels des architectes du Web est un philosophe anglais, Adrian Cussins, qui a explicitement développé le thème de la sub-objectivité en croisant notamment la théorie de l’acteur-réseau et la philosophie analytique (en particulier les travaux de Bruno Latour et Gareth Evans)[27]. Philosophe de l’intelligence artificielle[28], Cussins, dont je vais brièvement exposer quelques thèses, m’intéresse ici tout particulièrement car il étudie avec force détails l’activité d’objectivation proprement dite (par quoi j’entends le fait de poser des objets). Sur ce point, les pensées de Smith et Cussins sont relativement intriquées (tous deux ont d’ailleurs travaillé de concert au sein du célèbre laboratoire interdisciplinaire PARC de la firme Xerox, à Palo Alto).
L’idée d’un monde antérieur aux objets s’exprime chez Cussins par une refonte de l’objectivité qui n’est plus d’emblée conceptuelle ou objective mais « subobjective », la subobjectivité désignant la co-émergence des sujets et des objets dans le monde. Cussins définit pour cela l’espace qui lui semble propre accueillir une telle co-émergence, un espace de « traits » (feature space) non réductibles à des « objets/concepts » pré-donnés. Les « contenus non-conceptuels », suivant la terminologie introduite par Gareth Evans, sont mobilisés à leur tour afin de définir le niveau pré-conceptuel où se déploient les activités au moyen desquelles des objets sont individués[29] et acquièrent, à partir de cet espace, une identité.
Ces activités sont caractérisées au moyen d’une notion centrale pour la philosophie de Cussins, à savoir celle de « pistes cognitives » (cognitive trails). La pensée subobjective s’articule en effet autour d’un jeu de piste où le chemin et l’exploration s’avèrent inséparables l’un de l’autre (à l’instar de la cartographie du Web dont nous que nous évoquions plus haut). Explorer permet également de poser des repères stables qui structurent l’espace de traits pour progressivement le stabiliser autour d’objets aux bornes bien définies (le concept de stabilisation est emprunté à la théorie de l’acteur-réseau et plus spécifiquement aux travaux de Bruno Latour, et répond à celui de « piste » ou de « route » élaboré à la suite d’Evans). Cependant, lorsque le contexte lié à ce jeu de piste s’altère, les opérations de stabilisation régressent avant que ne se réenclenche « un nouveau cycle de subobjectivité ». La « registration » conceptuelle cède explicitement le pas à un « processus historique » où nos « concepts/objets » (les niveaux ontologiques et épistémiques n’étant pas opposés ici – sans que l’unicité du monde ne soit pourtant mise en cause) sont susceptibles de réexamens ultérieurs et successifs.
Les thèmes de l’exploration et du jeu de piste me semblent particulièrement féconds pour penser les « trajets virtuels »[30] de la ressource : ils nous éloignent de l’idée de règle qu’assouplissaient déjà les travaux de P. Livet sur le versant ontologique. Qui plus est, lorsqu’il définit le cadre non-conceptuel qu’il a en vue, Cussins ne le situe pas, comme on pourrait l’imaginer ou le craindre, exclusivement du côté de la corporéité (embodiement) ou de la pratique. En réalité, les exemples qu’il choisit tirent également du côté de la technique. Reprenant à son compte l’opposition latourienne entre le « complexe », lié à la corporéité, et le « compliqué », qui n’est autre le l’incorporation du complexe par la technique pour mieux le fixer et l’offusquer, Cussins semble envisager que la technique puisse constituer un instrument de stabilisation des « pistes cognitives » ; ce qui l’inscrit ipso facto dans un continuum vis-à-vis de ces dernières (et ce faisant, de l’espace de traits). Rapporté à l’architecture du Web, on comprend mieux l’articulation entre la ressource, qui définit elle-même un trajet virtuel ressemblant à s’y méprendre à un jeu de piste où sujets et objets s’entre-définissent, et la technique, autrement dit, ce à partir de quoi sont générées les représentations qui stabilisent la ressource sans exclure des révisions ultérieures – le processus historique et subobjectif (non-conceptuel/conceptuel, complexe/compliqué, exploratoire/stabilisé) primant ici sur une rationalité uniment objective ou conceptuelle.
III. Conclusion partielle
La conclusion que l’on peut tirer à propos la philosophie du Web est à mes yeux la suivante : il est envisageable de prolonger l’enquête philosophique sur un terrain empirique en suivant le fil tiré par les architectes du Web pour peu que nos concepts ne servent pas seulement à analyser des réalités mais rejouent leur vie au contact de ce terrain et des objets qu’ils recèlent. La philosophie du Web est une philosophie in media res, au cœur des choses. Les architectes du Web la pratiquent sans être eux-mêmes des philosophes – ce qui doit nous interroger. Les concepts de la philosophie deviennent, en un sens, des concepts proto-techniques que la réalisation – l’artéfactualisation – transforme en opérant immanquablement un décalage (il n’y a pas de « réalisation » sans reste). On peut, de ce point de vue, comparer le travail du philosophe du Web à celui d’anthropologues étudiant les populations amazoniennes qui ont développé des métaphysiques suffisamment intéressantes pour se mesurer aux métaphysiques occidentales. Certes, les mettre sur le même plan est déjà un geste de philosophe, et appréhender l’architecture du Web comme une « philosophie » témoigne d’un biais similaire (j’en ai bien conscience et il vaut mieux l’expliciter d’emblée). Reste que d’autres conceptualités sont susceptibles d’interroger la nôtre, y compris celles de publics que l’on ne considère habituellement pas en philosophie, contribuant ainsi à son renouvellement au contact de pensées, de collectifs, de terrains et d’objets dont nous n’avions pas idée précédemment – ou, plus vraisemblablement hélas, que l’on ne considérait pas.
C’est tout le sens de l’enquête pragmatiste, telle que la conçoit Antoine Hennion par exemple[31], que de suivre les choses-mêmes en train de se définir et de changer de statut dans des séries constantes de mises à l’épreuve. C’est l’idée jamesienne d’un monde « encore en train de se faire » – still in the process of making. J’avoue être très sensible à cette perspective qui parle peu aux philosophes, plus enclins à recherche des vérités à la fois universelles et non-empiriques (bien que ce dernier point en particulier soit éminemment discutable tant les contre-exemples abondent désormais). Quoi qu’il en soit, cette approche s’avère nettement plus courante dans le champ des STS (Science and Technology Studies) en particulier. Le juste milieu entre des approches aussi contrastées tient à mes yeux dans une alliance entre l’exigence philosophique sur les questions métaphysiques et conceptuelles et la capacité à saisir, dans l’enquête, un monde jamesien ouvert à la l’imprévu et à l’impensé (deux termes qui valent bien mieux que l’idée de « nouveauté », largement galvaudée).
IV. Qu’est-ce qu’une ressource ?
La ressource est l’objet en tant qu’objet, au cœur du Web. C’est aussi le corrélat de ses identifiants : les URI. Dans la caractérisation qu’en donne R. Fielding, une ressource a des états qui varient dans le temps. On pourrait en ce sens, considérer les ressources comme des « perdurants », des objets quadridimensionnels (les ontologies informatiques mobilisent d’ailleurs beaucoup la distinction entre endurants et perdurants). Mais ce sont plutôt des abstractions : ce qui est en cause ici c’est résolument l’objet en tant qu’objet, et non une réalité concrète. L’idée deB. Cantwell Smith est que le monde n’existe pas sous la forme d’objets dotés de frontières précises et de bornes intangibles. À cette dimension métaphysique d’un monde en excès sur les objets s’en ajoute une autre, ontologique (et épistémique), qui trace par la suite les frontières et pose des bornes – ces notions accompagnant l’activité d’objectivation et d’individuation. La notion d’objet appert d’un processus de discrétisation imposé à un monde qui transcende de telles limites : ces dernières lui sont surajoutées.
Avec P. Livet, on peut aussi penser que cette « discrétisation » n’est pas complètement discrète, mais conserve une part de « flou » car, dans la perspective du Web, on aurait pu imaginer donner une caractérisation assez précise de cet objet en tant qu’objet, de cette abstraction. Or, contre toute attente (j’y vois un point tout à fait significatif) cela ne s’est jamais produit. Il eut été plus simple de donner une définition – textuelle ou technique – de la page d’accueil du Monde et de s’y référer ensuite. L’absence de « définition » (c’est le terme qui a été proposé) accolée aux URI indique que les bornes de la ressource demeurent incertaines. La ressource est floue car elles relèvent de la promesse : promesse qu’une représentation fidèle sera accessible (dans le cas des URI HTTP). Or, la génération de représentations auxquelles la ressource est liée peut s’avérer fort laborieuse au fil du temps, imposant parfois des retours en arrière afin de requalifier la ressource en cas de panne nous l’avons vu (la panne est un autre thème cher à Pierre Livet !).
Prenons un exemple. La conférence « PhiloWeb », que j’ai organisée en 2010, a rencontré un certain succès et s’est ensuite transformée en un cycle de conférences annuelles. L’URI identifiant la première conférence « PhiloWeb », renvoyait bien à celle-ci et non au cycle qui lui a succédé. Cela produisit une sorte de « panne » entre l’engagement pris initialement et les exigences nouvelles que la réalité imposait, m’obligeant à réviser (autrement dit, à abstraire davantage) ma ressource, en considérant qu’il ne s’agissait plus de « PhiloWeb 2010 » mais « du cycle de conférences PhiloWeb ». Cela montre bien que le monde du Web n’est pas fait d’objets parfaitement discrets bien qu’abstraits : leurs frontières sont mouvantes et les représentations qu’ils génèrent ont la capacité de les faire évoluer. On pourrait presque parler d’objets non-monotones en ce sens.
L’abstraction et la virtualité, qui sont indissociables, tiennent également en vertu d’un déploiement de matérialité formidable – des serveurs, des contenus, des langages, des algorithmes, etc. permettant d’y corréler des représentations concrètes. L’abstraction se conquiert au prix d’une matérialité foisonnante et proliférante. Ici se joue finalement la différence entre Internet et le Web. Internet est un protocole de transport, par lequel des paquets d’informations sont transportés, tandis que le Web est un protocole de transfert : importe au premier chef (avant le transport) la fidélité des représentations (concrètes, donc numériques) vis-à-vis des ressources (abstraites). Et qui dit fidélité, dit promesse ! Et donc, au plan ontologique, virtualités…
Les ressources ressemblent en un sens à des perdurants. Mais il vaut mieux les considérer comme des objets abstraits, car il n’y a pas de ligne quadridimensionnelle que l’on pourrait découper en tranches. Ce sont uniquement nos interactions qui vont produire, non des lignes, mais des instantanés ponctuels. Si le concept philosophique qui s’approche le plus de la ressource est sans doute celui de perdurant, on a plutôt affaire, en l’occurrence, à un trajet virtuel dessinant un trajet réel à partir d’interactions ponctuelles. Les moments de ces interactions ne sont pas suffisamment déterminés pour former un perdurant, qui se présente, celui-ci se présentant à l’inverse comme une ligne spatio-temporelle continue.
[1] Le premier à l’avoir évoquée n’est autre qu’Harry Halpin, auteur d’une thèse essentielle dans ce domaine : Halpin, Harry. 2009. « Sense and Reference on the Web ». PhD Thesis, Edinburgh, UK : Institute for Communicating and Collaborative Systems, School of Informatics, University of Edinburgh. http://www.ibiblio.org/hhalpin/homepage/thesis/ (publié sous forme de livre : Halpin, Harry. 2012. Social Semantics : The Search for Meaning on the Web. 2012e éd. Semantic Web And Beyond 13. Springer-Verlag New York Inc). Il me faut également mentionner Yuk Hui, autre compagnon de route de l’aventure qu’a constitué la philosophie du Web à partir de 2005, lui qui a développé dans sa thèse (publiée depuis : Hui, Yuk. 2016. On the Existence of Digital Objects. Minneapolis : University of Minnesota Press) une philosophie des « objets numériques », avant d’élargir ses champs d’intérêt à la « cosmotechnique » et à la cybernétique (je renvoie à ses deux dernières parutions, Hui, Yuk. 2016. The Question Concerning Technology in China : An Essay in Cosmotechnics. Falmouth : Urbanomic Media Ltd et Hui, Yuk. 2019. Recursivity and Contingency. London ; New York : Rowman & Littlefield International). Un recueil de textes sur la philosophie du Web a été publié en 2014 (avec des contributions de Harry Halpin, moi-même, Yuk Hui, Andy Clark, Michael Wheeler, Paul Smart, Selmer Bringsjord, etc.), cf. Halpin, Harry, et Alexandre Monnin. 2013. Philosophical Engineering : Toward a Philosophy of the Web. Chichester, West Sussex, UK : Wiley-Blackwell (d’abord publié dans la revue Metaphilosophy avant de reparaître dans une version augmentée). Complétons cette évocation en mentionnant la spécialiste australienne de la philosophie pragmatiste Kathy Legg, dont les travaux, au cours de la même période rejoignirent les problématiques que nous explorions : Legg, Catherine. 2013. « Peirce, meaning, and the Semantic Web ». Semiotica 2013 (193) : 119–143 (une première version de cet article a fait l’objet d’une présentation en 2007).
[2] Pascal, Frédéric. 2012. « La Philosophie Analytique ou les Promesses d’une Pensée Technologique ». Revue de Synthèse 133 (3) : 369‑92.
[3] Monnin, Alexandre. 2012. « The artifactualization of Reference and “Substances” on the Web. Why (HTTP) URIs Do Not (Always) Refer nor Resources Hold by Themselves ». American Philosophical Association Newsletter on Philosophy and Computers 11 (2).
[4] Halpin, Harry, et Henry S. Thompson. 2005. « Web Proper Names : Naming Referents on the Web ». In Chiba, Japan. http://www.instsec.org/2005ws/papers/halpin.pdf.
[5] Sur ce point, voir les travaux de Pierre Wagner : Wagner, Pierre. 2017. « Carnapian and Tarskian Semantics ». Synthese 194 (1) : 97‑119. Tout un pan de la postérité de Carnap a été ignoré par les philosophes. Il concerne sa contribution indirecte au développement de l’intelligence artificielle logique, l’ingénierie des connaissances et les ontologies informatiques, cf. Monnin, Alexandre. 2015. « L’ingénierie philosophique de Rudolf Carnap : De l’IA au Web sémantique ». Cahiers Philosophiques 141 (2) : 27, et Halpin, Harry, et Alexandre Monnin. 2016. « The Decentralization of Knowledge : How Carnap and Heidegger Influenced the Web ». First Monday 21 (12).
[6] Hayes a par la suite révisé sa position en profondeur et esquissé les prémisses d’une logique entièrement revisitée à l’aune des spécificités du Web (ce qui demeure sans doute à ce jour la réflexion théorique la plus ambitieuse issue de la recherche sur le Web Sémantique). Cf. Hayes, Patrick J. 2009. « BLOGIC or Now What’s in a Link ? » Keynote présenté à International Semantic Web Conference 2009, Washington, D.C., http://videolectures.net/iswc09_hayes_blogic/.
[7] « Toto, I’ve a feeling we’re not in Kansas anymore. We must be over the rainbow », https://www.youtube.com/watch?v=uPnfuczOWb8
[8] Richardson, Alan. 2013. « Taking the Measure of Carnap’s Philosophical Engineering : Metalogic as Metrology ». In The Historical Turn in Analytic Philosophy. Palgrave Macmillan.
[9] Monnin, Alexandre. 2012. « L’ingénierie philosophique comme design ontologique : retour sur l’émergence de la « ressource » ». Réel-Virtuel 3.
[10] Mol, Annemarie. 2003. The Body Multiple : Ontology in Medical Practice. Durham, NC, USA : Duke University Press.
[11] Sur ce point, la littérature philosophique est immense. Renvoyons à un livre d’histoire des sciences qui, à propos de la notion d’objectivité, établit le même constat : Daston, Lorraine, et Peter Galison. 2012. Objectivité. Dijon, France : Les Presses du réel.
[12] Bachimont, Bruno. 2007. Ingénierie des connaissances et des contenus : Le numérique entre ontologies et documents. Hermes Science Publications.
[13] L’objection la plus évidente opposable à cette sentence nous est livrée par l’exemple des PDF publiés en ligne. En apparence, on a bien affaire à une forme documentaire relativement stable, qui renvoie au document numérique précédemment passé en revue. Le cas existe bel et bien mais il convient de le resituer sur un continuum où il fait, au mieux, office d’exception. En effet, une URI HTTP donnant accès à un PDF ne le fait jamais qu’en ignorant certains paramètres tels que la négociation de contenu, ou encore pour la simple et bonne raison qu’un agencement matériel fragile et impermanent, caractéristique du Web, est maintenu (le ou les serveurs serveur sur lequel est stocké le PDF par exemple – au reste, dès lors que celui-ci est répliqué sur plusieurs serveurs, la question de l’identité de son substrat s’en trouve singulièrement compliquée). La stabilité documentaire n’est qu’apparente et ce, à court terme. À moyen terme, la dynamique propre au Web l’emporte et l’impermanence avec elle.
[14] Présenté dans la thèse de Roy Fielding : Fielding, Roy Thomas. 2000. « Architectural Styles and the Design of Network-Based Software Architectures ». PhD Thesis, University of California, Irvine. http://www.ics.uci.edu/%7Efielding/pubs/dissertation/fielding_dissertation.pdf.
[15] Fielding, Roy Thomas, et Richard N. Taylor. 2002. « Principled Design of the Modern Web Architecture ». ACM Transactions on Internet Technology (TOIT) 2 (2) : 115–150.
[16] Monnin, Alexandre. 2013. « Les ressources, des ombres récalcitrantes ». SociologieS, juin. http://sociologies.revues.org/4334.
[17] Monnin, Alexandre. 2014. « The Web as Ontology : Web Architecture Between REST, Resources, and Rules ». In Philosophical Engineering : Toward a Philosophy of the Web, édité par Harry Halpin et Alexandre Monnin. Metaphilosophy. Oxford, UK : Wiley-Blackwell.
[18] Cantwell Smith, Brian. 1982. « Procedural Reflection in Programming Languages ». Massachusetts Institute of Technology, http://dspace.mit.edu/handle/1721.1/15961.
[19] Cantwell Smith, Brian. 1998. On the Origin of Objects. Reprint. Cambridge, MA, USA : MIT Press.
[20] Hormis Bruno Latour qui en donna une recension dans Pour la Science (cf. Latour, Bruno. 2006. Chroniques d’un amateur de sciences. Paris, France : Presses de l’École des Mines). Smith et Latour ont échangé au début des années 1990. Ce dialogue et cet entrecroisement disciplinaire constitue un pan encore méconnu de l’histoire de la philosophie analytique et des STS. Voir Lowe, Adam. 1992. Registration Marks : Metaphors for Subobjectivity. First Edition. London, UK : Pomeroy Purdy Gallery (traduction et présentation à venir).
[21] Livet, Pierre, et Frédéric Nef. 2009. Les êtres sociaux : Processus et virtualité. Philosophie. Hermann.
[22] Cela n’exclut évidemment nullement de dresser la carte des dispositifs techniques (serveurs ou autres) qui conditionnent ces interactions, reste que ce ne sont tout simplement pas les mêmes cartes ! Hélas, la précédente convient tout à fait aux missions de surveillances qui lui sont parfois assignées.
[23] Monnin, Alexandre, et Pierre Livet. 2014. « Distinguer/Expliciter. L’ontologie du Web comme ontologie “d’opérations” ». Intellectica (61) : 59‑104, in Monnin, Alexandre, et Gunnar Declerck. 2014. Philosophie du Web et Ingénierie des Connaissances. Vol. 61. Intellectica. ARCO (Association pour la Recherche Cognitive).
[24] À l’inverse, des graphes de connaissances tels DBpedia, Wikidata ou le Knowledge Graph de Google entendent, selon des modalités diverses, fournir une image consensuelle (la controverse jouant un rôle très variable selon les cas en présence) d’un monde constitué d’objets. Au plan technique, cela se traduit par l’identification de ressources renvoyant auxquelles sont associés des contenus formalisés à l’aide d’ontologies informatiques – et à ce titre, aisément manipulables par des machines. À l’instar des encyclopédies sur lesquelles ils s’appuient, à commencer par Wikipédia, ces « entrepôts de données » réfléchissent un certain sens commun propre aux humains, aligné sur une échelle mésoscopique. La diversité des points de vue est alors renvoyée aux écarts entre langues tout en étant sans cesse déplorée au profit d’une difficile recherche d’un socle « factuel ». Sur l’importance de Wikipédia et DBpedia (j’ai moi-même initié la version francophone de DBpedia) du point de vue de l’architecture du Web, je me permets de renvoyer à ma thèse : Monnin, Alexandre. 2013. « Vers une Philosophie du Web Le Web comme devenir-artefact de la philosophie (entre URIs, Tags, Ontologie(s) et Ressources) ». Paris : Université Paris 1 Panthéon-Sorbonne, https://tel.archives-ouvertes.fr/tel-00879147v3. Voir également Monnin, Alexandre. 2017. « Wikipedia, une encyclopédie en communs ». In Les Big data à découvert, CNRS Éditions, édité par Mokrane Bouzeghoub ; Monnin, Alexandre. 2012. « Du cycle de vie des données au cycle de vie des objets ». In Le document numérique à l’heure du web de données. Séminaire INRIA, 1er – 5 octobre 2012, édité par Lisette Calderan, Bernard Hidoine, et Jacques Millet, collection Sciences et techniques de l’information. Paris : ADBS éditions ; Poirier, Lindsay. 2019. « Making the Web Meaningful : A History of Web Semantics », In The SAGE Handbook of Web History, 256‑69. 55 City Road : SAGE Publications Ltd.
[25] Par le plus grand des hasards, je me suis aperçu qu’une phrase issue d’un texte présenté lors des rencontres de Rochebrune en 2009 (où je rencontrai pour la première fois Pierre Livet, tant encore doctorant), illustrait le mot « évidentialiser » sur le Wiktionnaire en français. Voici la citation : « Si bâtir des artefacts suppose la mise en place et l’application réglée de méthodologies explicites, cette genèse, que le truchement par les ontologies informatiques ‘évidentialise’, met au jour sur le versant technique la question de l’ontogénèse des ontologies, leurs conditions d’émergence concrètes ». Mon intérêt pour les ontologies informatiques tient indéniablement à l’explicitation de la dimension épistémique inextricablement liée à leur genèse (là où la philosophie s’efforce, sauf rares exceptions, d’offusquer ce point) ; ce que j’appelais à l’époque « l’ontogénèse des ontologies » (Monnin, Alexandre, et Edith Félix. 2009. « Essai de comparaison des ontologies informatiques et philosophiques : entre être et artefacts. ». In Rencontres de Rochebrune 2009. Megève, France). Une réflexion prolongée au contact de l’architecture du Web, ce programme d’explicitation y trouvant un nouveau terrain où se déployer.
[26] Souriau, Étienne. 2009. Les différents modes d’existence, suivi de De l’œuvre à faire. MétaphysiqueS. Paris, France : Presses Universitaires de France. Voir également l’introduction d’Isabelle Stengers et Bruno Latour à ce volume : Stengers, Isabelle, et Bruno Latour. 2009. « Le Sphinx de l’œuvre. Une introduction à la réédition de Étienne Souriau, Les Différents modes d’existence suivi de “De l’œuvre à faire” ». Ibid., pp. 1‑75 et Monnin, Alexandre. 2013. « Les ressources, des ombres récalcitrantes »., op. cit.
[27] Cussins, Adrian. 2001. « Norms, Networks, and Trails. Relations between Different Topologies of Activity, Kinds of Normativity, and the New Weird Metaphysics of Actor Network Theory. And Some Cautions about the Contents of the Ethnographer’s Toolkit » (autrefois accessible sur http://www.haecceia.com/FILES/ANT_v_Trails_jan_01.htm, l’article n’était citable qu’avec la permission de l’auteur – permission concédée).
[28] Cussins est l’auteur d’un article très important en la matière publié dans le journal Mind en 1992 : « Content, Embodiment and Objectivity : The Theory of Cognitive Trails ». Mind, New Series 101 (404): 651‑88. Par ailleurs, la traduction de Nous n’avons jamais été modernes en anglais lui est dédiée.
[29] Ce n’est pas ici son expression mais la mienne.
[30] Livet, Pierre, et Frédéric Nef. 2009. Les êtres sociaux : Processus et virtualité. Philosophie. Hermann.
[31] Hennion, Antoine. 2015. « Enquêter sur nos attachements. Comment hériter de William James ? » SociologieS. http://sociologies.revues.org/4953. Voir également Hennion, Antoine, et Alexandre Monnin. 2015. « Sous la dictée de l’ange… Enquêter sous le signe d’Étienne Souriau ». In Etienne Souriau. Une ontologie de l’instauration, édité par Fleur Courtois et Aline Wiame. Annales de l’institut de philosophie de l’université de Bruxelles. Paris, France : Vrin.