Les technologies de personnalisation sont-elles des technologies de pouvoir ?
Les technologies de personnalisation sont-elles des technologies de pouvoir ?
Are personalization technologies also power technologies ?
Marc-Antoine Pencolé. Doctorant. Université Paris-Nanterre – Sophiapol. Agrégé de philosophie.
Résumé
L’évolution des technologies numériques, dotées aujourd’hui d’une puissance de calcul inédite, permet de plus en plus d’envisager des dispositifs techniques souples, adaptables, au point de prétendre pouvoir saisir l’individu dans sa singularité. Étant donné que la critique de la technique vise traditionnellement le caractère général de ses processus anonymes et la violence qu’ils exercent sur les personnes singulières, la personnalisation représente-t-elle une avancée vers des techniques profondément humaines, ou simplement un pas vers le désarmement de la critique humaniste ? Dans la mesure où cette tendance à la personnalisation accompagne la numérisation de divers secteurs de l’industrie ou de l’action publique (culture, social, santé), il devient nécessaire de redéfinir les outils critiques dont nous disposons pour y identifier de possibles effets de pouvoir. L’œuvre de Foucault offre des armes décisives pour penser ce phénomène, au prix d’une discussion de ses évolutions et de ses limites.
Mots-clefs : Personnalisation, numérique, pouvoir, Foucault, panoptisme, sécurité, recommandation, État-providence, médecine.
Abstract
The evolution of digital technologies, the actual computer of which is tremendous, makes more tangible the idea of a flexible technical apparatus, up to the point where it becomes thinkable to grasp the individual in its very singularity. Given that criticisms of technology usually aim at the general dimension of anonymous technical processes and at the violence they exert on singular persons, does personalization represent a progress toward profoundly humane technologies, or does it rather make a step toward the neutralization of the humanist objection? The personalization trend shapes the way many industrial or public action sectors are being digitalized (culture, welfare state or even healthcare), and it is getting necessary to tailor proper critical tools to be able to identify its potential power effects. Foucault’s work offers the best frame to understand these phenomena, at the cost of a discussion of its actuality and limits.
Keywords : Personalization, digital, power, Foucault, panopticon, security, recommendation, welfare state, healthcare.
Introduction
L’automatisation des calculs au cœur du développement des technologies numériques semble ouvrir une ère où, paradoxalement, les gains d’efficacité dus au progrès technique et à la rationalisation de diverses sphères d’activité n’imposent plus nécessairement la standardisation des procédés et des produits. Produire pour les masses, par exemple, impliquait de renoncer à satisfaire les besoins – ou les pulsions de consommation – de chaque personne dans sa singularité, en raison de la rigidité et de l’inertie des infrastructures productives. Ou encore, de l’État-providence, par la dimension de généralité de l’action publique, on ne pouvait espérer qu’il adapte l’aide offerte à la diversité des personnes nécessiteuses qui la réclament. De même, la médecine a toujours paru devoir tenir une étroite ligne de crête entre, d’une part, l’attention portée à la particularité du patient, de son corps et de son vécu, et, d’autre part, l’efficacité de l’ordre hospitalier, de la pharmacologie moderne et de l’objectivation physiologique et anatomique. Dans ces diverses sphères d’activité, la nécessité de satisfaire les besoins, de répondre à la vulnérabilité et d’apporter des soins doit se confronter à cette tension irréductible entre le respect de la singularité de la personne et la généralité des règles de l’action technique. Or, le numérique a apporté la promesse d’un dépassement de cette limite : un surcroît de technicité de l’action permettrait de ressaisir le singulier sans le mutiler, de moduler l’action technique complexe au point de la personnaliser. Voyons ce qu’il en est réellement.
I. Humaniser la technique
Ce phénomène n’est pas propre à un dispositif technique particulier, on en retrouve le schéma dans des contextes tout-à-fait différents : mettons en avant trois cas, à commencer par celui de la médecine personnalisée. La prise en considération de la singularité du patient est traditionnellement limitée de fait par la difficulté de connaître chaque personne et chaque corps, leur manière propre de réagir à tel ou tel traitement, et par le coût matériel d’un traitement individuel approfondi véritablement adapté à chaque patient, et l’abstraction et l’anonymisation devaient être la contrepartie de déploiement de moyens techniques efficaces. Ce que proposent les développements technologiques récents, c’est de mobiliser des algorithmes complexes et la puissance de calcul des ordinateurs actuels pour automatiser en partie l’observation et le diagnostic et offrir aux soignants des éléments de décision à la fois beaucoup plus précis sur chaque patient, et peu coûteux. Au cœur de la pratique se trouvent la détection et l’analyse des biomarqueurs : il s’agit de caractéristiques individuelles – notamment génomiques, le perfectionnement des séquenceurs d’ADN ayant ouvert un immense champ d’exploration dans ce domaine, mais également anatomiques, physiologiques, psychologiques, comportementaux, environnementaux, etc. – dont on cherche à observer les corrélations. Idéalement, il serait possible de personnaliser finement un traitement en fonction du profil génomique du patient, de son régime alimentaire, de son habitat, de son environnement professionnel, etc.[1] Les technologies numériques sont mobilisées à des fins similaires dans le domaine du travail social aux Etats-Unis[2], par exemple pour l’assistance aux personnes sans-abris. Le Department of Housing and Urban Development appuie une politique de « pilotage par les données » et la « culture des données » au sein de ses agences, notamment par la mise en place de Homeless management information systems (HMIS), des plateformes de collecte et de traitement des données décrivant le parcours des personnes SDF au sein de l’assistance sociale. A propos de chaque usager, des centaines de descripteurs sont ainsi accessibles aux dizaines d’agences et organisations locales (dont la police) impliquées dans la gestion des populations marginalisées. L’analyse au niveau fédéral des vastes bases de données des différents HMIS a conduit à l’élaboration de procédures d’accueil personnalisé des nouveaux entrants[3] en vue de les orienter et de leur offrir l’aide qui répond le plus à leur situation particulière en fonction des moyens disponibles dans la région à ce moment-là. Enfin, l’usage massif des données à des fins de recommandation commence seulement à être mis en œuvre dans l’assistance sociale – par exemple pour orienter les informations offertes aux jeunes sans parents au sortir du système d’aide[4] – mais il est déjà omniprésent dans notre environnement numérique quotidien. Le commerce en ligne, l’industrie culturelle, les réseaux sociaux, les moteurs de recherche et évidemment la publicité reposent aujourd’hui largement sur des algorithmes de recommandation des produits, des œuvres et des informations disponibles en fonction des données personnelles de l’utilisateur accessibles aux plateformes[5].
La personnalisation se distingue du ciblage par sa charge normative : il n’est pas simplement question d’isoler un individu, un exemplaire au sein d’une série ; l’usage du terme implique la prise en charge, par l’action technique, de la personne, c’est-à-dire de l’individu dans l’épaisseur de son psychisme, de ses affects, de son histoire et de ses désirs, comme personnalité, mais aussi de l’individu autonome, sujet de droits et de devoirs, et dont la dignité doit être reconnue et protégée. A ce titre, la norme, le standard, ne peuvent accroître les effets de l’action sans faire violence à l’individu affectif et désirant, et restreindre son autonomie. C’est ce qui explique l’investissement discursif de ce registre de la personnalisation dans l’industrie de la culture – et plus généralement dans le secteur des services – où l’on propose une expérience personnalisée de la consommation des produits culturels, mais aussi dans le domaine de l’innovation médicale – en génomique en particulier – qui se voit bouleversé par les espoirs de guérisons et de profits miraculeux apportés par la médecine dite « personnalisée ». De même, l’assistance publique peut se targuer d’être plus humaine dès lors qu’elle entreprend de personnaliser le secours proposé.
De manière générale, c’est en prenant appui sur une pensée humaniste que l’on évalue les bouleversements technologiques. La critique humaniste de la technique entend déceler tous les mécanismes par lesquels l’essence de ce qui est humain se voit mutilée ou appauvrie par tel ou tel dispositif, ce qui suppose évidemment un noyau de qualités et de relations qui définissent l’humain – et par extension ce qui n’est pas humain –, et qui sont distinctes du rapport technique et antérieur à lui. Si un tel appareillage conceptuel, en adoptant une focale très large, a pu connaître quelque fortune dans sa critique des systèmes techniques déshumanisants, il s’avère tout-à-fait impuissant dans le cas qui nous préoccupe ici. En effet, de ce point de vue, les dispositifs de personnalisation dont il est question semblent unilatéralement vertueux : chacun pose au principe de son fonctionnement l’existence préalable de la personne, de l’individu dans sa concrétude et sa dignité, à laquelle il s’agit de s’adapter, la technique étant d’autant plus parfaite qu’elle épouse les contours de la personne, s’adapte au grain fin des variations individuelles, sans jamais l’écraser sous une règle aveugle. Ces dispositifs profondément humains démontreraient, avec les outils même de la critique humaniste – puisque l’investissement discursif dont ils font l’objet présuppose cet humanisme – que les techniques contemporaines ne sont pas nécessairement inhumaines, bien au contraire. Un algorithme de recommandation musicale personnalisé, par exemple, ferait de l’orientation intéressée du consommateur l’occasion d’un développement du goût propre, non pas selon des standards impersonnels établis en amont, mais en suivant les lignes du processus de construction de l’individu par lui-même, donc en prolongeant et enrichissant le développement immanent du sujet. La thérapie et l’assistance personnalisées devraient faire l’objet d’un plébiscite du point de vue de la critique humaniste, puisque la situation particulière du sujet, ses vulnérabilités propres, la réalité de son corps et de ses besoins, en plus d’être le point de départ qui suscite le soin, l’aide apportée, ne seraient à aucun moment contredits par les moyens techniques du soin. En aucun cas le sujet ne se verrait dépossédé de ce noyau personnel en étant pris en charge par ces techniques.
Il est difficile cependant de se départir du soupçon de leur possible ambivalence, d’autant plus qu’elles ne font pas consensus : tout le mouvement social libriste s’est construit, entre autres, en opposition à ces dispositifs. L’angle critique adopté le plus souvent ne consiste alors pas à nier la capacité de personnalisation de ces technologies, mais à souligner la menace qu’elles font peser sur la vie privée. Celle-ci est conçue à la fois comme une barrière opposée au pouvoir de l’État, dans une veine libérale classique, et comme un espace nécessaire au développement autonome de l’individu : cette démarche est tangente au schéma général de la critique humaniste puisque ce qu’elle vise, c’est la dimension intrusive de ces dispositifs relativement à une sphère personnelle qui en est radicalement distincte et demande à en être protégée. Ainsi le pivot de la vie privée permet de dégager une marge de manœuvre significative pour opérer la critique, sans reprendre terme à terme l’humanisme décrit ci-dessus[6].
Malgré ce pas de côté relativement à la critique humaniste des techniques, une évaluation adossée au concept de vie privée reste dépendante de la présupposition d’une séparation de l’individu – déjà constitué dans ses préférences – et des dispositifs parmi lesquels il évolue, séparation analogue dans sa forme à celle que présuppose la critique humaniste. Or, comment penser dans ce cadre la possibilité que le dévoilement volontaire de soi soit sollicité par le dispositif ? Il nous faut envisager que le pouvoir des technologies de personnalisation s’exerce bien en amont de la décision individuelle, au niveau de la constitution des préférences mêmes de l’individu, et pour cela nous départir complètement de toute référence à une essence humaine à protéger. L’œuvre de Foucault a servi de ressource principale pour penser les effets de pouvoir dus aux technologies numériques contemporaines, et bien qu’il n’ait pas toujours été bien compris, c’est son anti-humanisme technologique qui peut nous permettre de penser ces phénomènes de personnalisation au-delà des apories identifiées ci-dessus. Le choix des technologies de la personnalisation en particulier, parmi tous les autres dispositifs numériques, réside en ce que, par leur tendance à désamorcer toute critique, elles représentent une excellente mise à l’épreuve de nos outils conceptuels. Nous proposons donc d’élaborer un concept de pouvoir inspiré de Foucault et propre à analyser des techniques aussi surprenantes que les technologies de personnalisation. Ensuite, cette proposition doit affronter une objection qui a été adressée à Foucault depuis le champ des surveillance studies, selon laquelle l’œuvre de l’auteur ne serait plus adaptée pour penser la nouveauté des dispositifs numériques, et devrait être abandonnée au profit d’autres cadres. Or, à bien comprendre le projet foucaldien, sa continuité et ses prolongements plus tardifs, on y trouve des ressources – notamment le concept de « sécurité », élaboré à la fin des années 1970 – pour armer la critique des effets de pouvoir en apparence insaisissables qui traversent les techniques contemporaines.
II. La personne comme effet de la technique
Foucault construit peu à peu sa généalogie du pouvoir à partir du début des années 1970, avec ses cours au Collège de France. L’année consacrée aux Leçons sur la volonté de savoir[7] révèle dans les origines grecques antiques de la conception moderne de la vérité des éléments d’ordre proprement technique : il y est fait mention des procédures formelles de véridiction qui annoncent l’enquête judiciaire, ainsi que des bouleversements induits dans l’organisation de la discipline d’infanterie par l’adoption de nouveaux équipements. La transition alors amorcée se confirme avec les cours sur le système pénal[8] et plus particulièrement encore sur le pouvoir psychiatrique, puisqu’alors la vérité de l’humain se trouve plongée dans l’élément technique des dispositions matérielles et de la codification des pratiques[9] : par exemple l’instance médicale, source d’une certaine vérité énoncée sur l’humain, fonctionne d’abord comme pouvoir avant de fonctionner comme savoir, car « sans cette discipline, sans cet ordre, sans ce schéma prescriptif de régularités, il n’est pas possible d’avoir une observation exacte »[10]. En 1975, Surveiller et punir consacre les « disciplines » comme la « formule générale de [la] domination »[11] moderne : le pouvoir s’exerce désormais sur le détail des processus corporels individuels et plus à l’échelle des masses, il procède d’un quadrillage analytique et non plus d’une manifestation symbolique et brutale, et il se déploie rationnellement – entendons par-là en optimisant les coûts de son exercice – et n’est plus le pouvoir somptuaire du monarque. Foucault distingue ensuite, au sein de ces disciplines, ce qui paraît être tantôt une simple modalité de leur exercice parmi d’autres, tantôt leur réalisation la plus achevée : le panoptisme. Si cette technologie de pouvoir a guidé l’organisation des camps militaires, de l’institution scolaire, des hôpitaux, etc., la prison Panoptique de Bentham en a constitué l’épure. Ce qui intéresse ici le plus Foucault, c’est l’idée de former, par une certaine distribution du visible et du caché, un pouvoir qui fonctionne automatiquement[12] : l’architecture matérielle du Panoptique place chaque détenu dans le champ de vision d’un surveillant invisible, caché dans une tour centrale, et cette asymétrie entraîne l’intériorisation du regard par les détenus. Production de savoir et exercice d’un pouvoir semblent là indissociables, puisque la distribution matérielle contraignante de la prison permet de documenter le comportement des détenus, lequel permet en retour de les inciter à l’obéissance. Mais surtout, l’élément essentiel est « que les détenus soient pris dans une relation de pouvoir dont ils sont eux-mêmes les porteurs »[13].
Bien qu’elle semble se concentrer sur l’effet d’un regard intrusif et d’un savoir volé, la théorie du panoptisme offre une critique radicalement différente de celle de l’atteinte à la vie privée. C’est ce qui nous intéresse ici pour comprendre les technologies de la personnalisation. Tout d’abord, l’un des intérêts de sa conception du pouvoir est qu’elle autorise à penser le pouvoir dans la liberté, et non tout contre elle. La prison panoptique compte sur l’obéissance spontanée des détenus soumis à la surveillance et le fait qu’ils endossent dans une certaine mesure eux-mêmes le pouvoir ; et si ceux-ci devaient se révolter, le pouvoir en question ne redoublerait pas d’intensité, mais cesserait au contraire de s’exercer puisqu’il n’est pas de même nature que la violence directe alors nécessaire à rétablir l’ordre : ce concept de pouvoir ne prend donc sens que comme un certain guidage de la liberté et pas comme son strict opposé. De même, un auditeur qui se laisse guider par un algorithme de recommandation musicale ou un patient qui fait le choix de s’engager dans une thérapie ciblée ne subissent pas une domination écrasante ni ne sont l’objet de violence, et pourtant, cela ne doit pas nous empêcher d’imaginer que leur libre activité puisse y être nuancée, guidée ou infléchie, puisse être « conduite »[14]. Entre la violence réifiante et le pur jeu de la liberté sur elle-même, Foucault propose de penser tout un continuum[15]. Ensuite, cette manière de penser échappe à une conception du pouvoir comme force que l’on posséderait et dont l’usage procéderait d’une décision et d’une intervention intentionnelle. Au contraire, on aurait intérêt à également penser le pouvoir comme une relation faite de choses et d’individus, plus ou moins stabilisée – même si chaque occurrence rend possible son renversement –, mais qui ne se présente pas sous la forme du face-à-face entre dominant et dominé. Le pouvoir compris à ce niveau n’a pas besoin de procéder de l’intention d’un sujet pour exister. Dès lors, il devient envisageable de mettre en lumière des effets de pouvoirs multiples ou diffus courant le long de dispositifs matériels ou discursifs et n’émanant de personne en particulier. Enfin, et c’est une conséquence majeure de cette orientation théorique, les concepts de panoptisme et de disciplines témoignent d’un refus du modèle juridique et répressif du pouvoir, celui qui limite, rejette, refoule ou brime des énergies ou des aspirations, celui qui se réduit à un « tu ne dois pas »[16]. C’est au contraire la productivité du pouvoir qui est mise en avant, sa capacité à susciter certaines conduites, à induire un rapport à soi selon certaines modalités – en l’occurrence des conduites et un rapport à soi compatible avec l’émergence des rapports de production capitalistes et l’impératif de mise au travail des corps : dans leur multiplicité, ces pouvoirs tendaient en effet tous vers la production de corps dociles et surtout plus ou moins directement utiles à l’accumulation du capital.
La dimension productive du pouvoir permet à première vue de surmonter le problème posé par les technologies de personnalisation. En effet, l’individu porteur du pouvoir disciplinaire ou panoptique ne précède pas celui-ci, ni ne s’en distingue radicalement, puisqu’il en est le produit. En venant imprimer un sens, une direction, aux processus corporels, le pouvoir disciplinaire dessine les contours d’une individualité réfléchie, qui se saisit dans son unité à travers le prisme de ce sens imposé ; le sujet du pouvoir ne peut se rapporter à lui-même qu’à travers ce pouvoir et ses effets. Dès lors qu’est révélée la multitude des relations qui produisent ce que sont les individus, la référence à une essence humaine antécédente et plus fondamentale devient vaine. Dans un entretien de 1966, Foucault s’élevait contre la fiction d’une essence séparée propre à l’appareil conceptuel humaniste : « Tous ces cris du cœur, toutes ces revendications de la personne humaine, de l’existence sont abstraites : c’est-à-dire coupées du monde scientifique et technique qui, lui, est notre monde réel »[17]. Le motif de l’humain disparaît tout bonnement si l’on cherche à défaire la trame des relations techniques pour l’en abstraire. Il explicite le renversement de cette logique de la séparation dans une discussion avec des étudiants en 1975, en donnant l’exemple de l’essence productive de l’humain – affirmée par Marx – : celle-ci doit être comprise non comme un fondement mais comme le résultat d’une mise au travail technique et politique ; à l’époque moderne, l’humain a été produit comme producteur grâce notamment à l’organisation militaire de la fabrique, à la distribution spatiale des corps autour des machines[18]. Par conséquent, « faire une critique politique au nom d’un humanisme signifie réintroduire dans l’arme du combat cette chose contre laquelle nous combattons »[19]. Cela reviendrait en effet à prendre ses distances avec un certain dispositif de pouvoir pour défendre « l’humain », c’est-à-dire l’individu que ce pouvoir a lui-même participé à produire : on confirmerait ainsi l’effet du pouvoir à mesure qu’on le critiquerait. La forme de critique proposée par Foucault consiste à l’inverse à accepter la dispersion du sujet insulaire dans la multiplicité des relations d’un monde scientifique et technique qui est sa seule réalité, et à articuler la critique depuis cette même multiplicité. En effet, le pouvoir traverse toutes les relations sociales mais il n’est pas fait d’un bloc, même s’il existe certains points de convergence : décentrer le sujet n’empêche pas de faire jouer certains des processus qui le constituent contre d’autres.
L’assistance personnalisée aux sans-abris ne nie pas l’humanité des bénéficiaires de l’aide, au contraire, mais cela ne signifie pas qu’elle ne véhicule aucun rapport de pouvoir. L’examen du questionnaire préalable à l’entrée dans le système d’assistance (le VI-SPDAT), dans les versions les plus récentes publiées par OrgCode, révèle une double figure normative de la vulnérabilité d’une part et de l’intégration sociale vertueuse d’autre part : est tendanciellement identifiée comme vulnérable une personne qui, récemment, a eu à interagir avec une institution médicale, avec la police (quelle que soit la nature de l’interaction), a fait l’expérience de violences physiques, y compris contre elle-même, a été poussée par la ruse ou par la force à faire des choses contre son gré, a contracté des dettes, a des problèmes de santé ou est enceinte, pratique l’automédication ou ne respecte pas les traitements prescrits, etc. Si le fait de ne pas avoir accès aux biens de première nécessité est sans conteste une marque de vulnérabilité, il est plus surprenant d’y associer l’automédication par exemple. Cela dessine en creux une norme d’indépendance et de bonne intégration de laquelle les demandeurs seraient exclus et qui impliquerait entre autres de suivre rigoureusement les traitements prescrits en cas de maladie, de ne pas être enceinte, de n’être en dette de personne, etc. La position d’un tel couple normatif n’est pas intrinsèquement préjudiciable, d’autant qu’elle contribue à protéger la personne ; pour autant elle peut potentiellement être critiquée au nom d’autres modalités du rapport à soi qui se verraient limitée ou écrasées par celle-ci. De même, identifier tous les déterminants génomiques, environnementaux et comportementaux spécifique à sa situation personnelle relativement à un certain cancer, par exemple, risque d’induire une manière de se rapporter à soi, son corps et sa vie sur le mode de la morbidité potentielle. Chaque comportement (le choix du lieu de vie, des loisirs, de l’alimentation, etc.) peut être saisi dans un faisceau de corrélations statistiques comme un levier actionnable plus ou moins efficace pour limiter le risque de développement du cancer en question, et peut donc faire l’objet d’un calcul prudentiel. On peut ainsi imaginer des usages de la médecine personnalisée qui dessineraient les contours de l’individu comme un ensemble de pathologies et de probabilités conditionnelles absolument unique, certes attaché à la singularité de la personne, mais constituant un portrait de soi tout-à-fait incompatible avec d’autres types d’organisation de la vie et des plaisirs, avec d’autres esthétiques de l’existence. Enfin, un système de recommandation s’appuie certes sur la spécificité de la personne, mais toujours depuis une perspective déterminée. Par exemple, on peut concevoir, pour un algorithme, le fait de s’adapter aux goûts, aux préférences de l’usager de plusieurs manières : tantôt en s’alignant sur la définition réflexive des goûts de l’usager par lui-même, intégrant ainsi ce qu’il se considère être ou ce qu’il souhaiterait devenir, tantôt en suivant uniquement ses clics, ses consommations, ses achats réels ; la différence est significative puisque dans le second cas, la médiation par le récit de soi est contournée au profit de la manifestation immédiate du désir. Netflix – une plateforme de location de vidéos, désormais convertie au streaming et qui s’est imposée comme un des principaux acteurs de l’industrie du cinéma – recommandait initialement ses films et séries à chaque consommateur par le calcul de la racine de l’erreur quadratique moyenne (ou « root mean square error »), c’est-à-dire en effectuant une première recommandation basée sur des données démographiques, puis en réclamant l’évaluation explicite de chaque film visionné par le consommateur, pour ensuite chercher à produire des recommandations qui minimisent cette moyenne, l’écart entre la prédiction et la satisfaction réelle déclarée[20]. Par la suite, la firme a marginalisé le poids de l’évaluation explicite pour appuyer ses recommandations sur la simple quantité consommée, le temps de visionnage, et autres interactions comprises comme des « évaluations implicites », se transformant par conséquent en véritable appareil de capture et de fascination[21]. Dès lors, ce que cultive le dispositif ici, c’est la personne désirante et non plus le projet réflexif. L’utilisateur se trouve renforcé dans ses pulsions de consommation, ce qui peut vraisemblablement contredire ses ambitions culturelles par ailleurs. En somme, chacun de ces dispositifs numériques produit une certaine figure de la personne – un certain sujet vulnérable et digne de considération ou un certain ensemble de goûts et préférences – et ne peut donc être critiqué qu’en se débarrassant du point fixe de référence qu’est l’humain, en cherchant plutôt à identifier les antagonismes qu’il fait naître avec d’autres formes de production de soi.
III. Doubles numériques et dividuels : les limites de la théorie panoptique
Mobiliser de cette manière l’appareil théorique foucaldien, et en particulier le panoptisme, est apparu évident quand s’est constitué le champ des surveillance studies[22]: on a pu voir dans la numérisation de la surveillance l’accomplissement du panoptisme, au-delà des réalisations limitées que Foucault avait pu documenter. Cependant, une série d’objections à l’application de ce modèle ont ensuite été formulées, que l’on pourrait regrouper en deux ensembles : d’une part, on a pu reprocher à cette théorie de trop mettre l’accent sur l’intériorisation du regard et l’automaticité du fonctionnement du pouvoir sans être en capacité de saisir l’horizontalité[23] et le caractère participatif, voire volontaire et consenti, de la surveillance contemporaine[24] ; d’autre part, c’est le type de regard constituant le panoptique qui ne semblait plus correspondre à la visibilité spécifique engendrée par ce que l’on a appelé les « doubles numériques » des sujets situés au croisement des différentes bases de données[25].
La première critique résulte le plus souvent d’une lecture quelque peu réductrice de l’œuvre de Foucault : l’institution carcérale est certes le lieu d’exposition le plus explicite de la logique disciplinaire moderne, mais l’auteur rappelle lui-même que le contenu de celle-ci ne se réduit nullement à la gestion du crime et de l’emprisonnement. Ensuite, sa théorie est appuyée sur une notion de pouvoir inscrite dans l’élément même de la liberté. Ainsi, le fait que, par exemple, les utilisateurs des réseaux sociaux numériques ne protestent pas contre la marchandisation de leurs données personnelles dès lors qu’ils ont, en échange, la possibilité de bénéficier des services offerts, voire qu’ils s’engagent spontanément dans des pratiques de dévoilement de soi, ne contredit pas la logique de pouvoir décrite par Foucault mais en représente bien au contraire une forme particulièrement subtile et indiscernable. Un des traits généraux de cette logique consiste précisément en ce mouvement de retrait au-delà du champ de vision de ses sujets : la souveraineté spectaculaire décrite dans Surveiller et punir a cédé la place à la surveillance discrète et toujours hypothétique de l’architecture panoptique : un tel pouvoir trouve plutôt son achèvement dans le fait de ne jamais intervenir de façon manifeste. Par ailleurs, on retrouve dans La volonté de savoir un motif particulièrement éloquent pour caractériser le dispositif de la sexualité, avec la fable – que raconte Diderot – de l’anneau indiscret du sultan, bijou redoutable puisqu’il suscite par sa magie les confessions des sexes qu’il approche : tout son pouvoir réside simplement dans le fait qu’il favorise l’expression spontanée[26]. Par conséquent, le jeu de la liberté et du pouvoir peut avoir pour effet d’attiser le désir de confession, de prescrire l’aveu spontané, et ce sans que l’exercice du pouvoir ne soit perçu comme une domination manifeste. On peut s’engager volontairement dans une relation de pouvoir, même si celle-ci nous est dommageable, c’est là la difficulté de ce type de relations qu’un concept binaire ne peut appréhender.
La seconde critique est autrement plus intéressante. Les cas d’étude privilégiés par Foucault pour décrire la production disciplinaire des individus présentent une multiplicité d’injonctions, corrections et cadrages organisés autour de leur point d’application : le corps. L’unité du corps sujet fait l’unité d’un dispositif disciplinaire composite, et par conséquent l’unité de la figure produite par son fonctionnement. La silhouette de l’individu émerge à partir de la multitude de contours tracés par les disciplines qui cernent continûment son corps. Or, les dispositifs numériques capturent et compilent les données personnelles en s’affranchissant d’un tel ancrage spatial. Haggerty et Ericson[27] ont proposé de nommer « double numérique » (« data double ») la chimère qui résulte de l’assemblage de différents flux de données, capturées en des lieux, des circonstances et sous des formats hétérogènes. Ce n’est donc certainement pas la silhouette unitaire d’un individu que rend visible un tel assemblage, mais bien plutôt une juxtaposition de points, de valeurs discrètes et sans homogénéité, entre lesquels la réalité saisie reste obscure. De plus, le savoir produit n’a pas du tout comme seule source l’individu qui cède ses données : celles-ci ne valent que si elles sont mises en relation avec les données d’autres individus de manière à établir des correspondances tout-à-fait impersonnelles à l’échelle d’une population, au milieu de laquelle l’individu singulier disparaît complètement. Ce n’est jamais le portrait numérique le plus exhaustif qui est mobilisé mais une sélection étroite de déterminations, qui sont abstraites et dépersonnalisées lors de l’étude des corrélations statistiques. Ajoutons enfin que nos « moi numériques » sont des ensembles de données dynamiques, sans cesse redéfinis par l’évolution de nos pratiques, mais aussi par la transformation correspondante du type et du contenu des données générées : que le mode de collecte évolue et le « double » associé changera également. Deleuze, avant même de constater leur pénétration profonde dans les interactions sociales, a pointé l’originalité du regard propre à ces technologies de pouvoir : ce qu’elles saisissent et à quoi elles donnent de la réalité, ce n’est pas tant l’individu discipliné pour intégrer la masse, que l’exemplaire au sein de l’échantillon ou de la banque de données, c’est-à-dire quelque chose de toujours infra- ou supra-individuel, trop singulier ou trop abstrait pour donner à voir la personne ; c’est ce qu’il nomme le « dividuel »[28].
En ce qui concerne les algorithmes de recommandation, l’étude du type de données mobilisées révèle en effet que les œuvres ou produits suggérés procèdent tantôt d’un filtrage collaboratif – la personne étant assimilée, du point de vue de certaines de ses caractéristiques, à une population aux préférences jugées similaires –, ce qui ne fait qu’établir une corrélation entre une partie d’elle et une série anonyme, tantôt d’un ciblage circonstanciel, fondé sur des données par définition très volatiles, donc plus adapté à la situation immédiate de la personne qu’à celle-ci en tant que telle[29]. De même, dans le système numérique d’assistance aux sans-abris, indépendamment de l’image de la bonne intégration implicite dans le questionnaire d’entrée par rapport à laquelle les bénéficiaires doivent immanquablement se situer, les données à disposition des agents sur les plateformes HMIS peuvent sembler pour le moins disparates : l’âge présent, la situation d’habitation saisie six mois plus tôt et l’occurrence d’un événement traumatique dans le passé, par exemple, peuvent servir de base à l’assimilation de la personne à tel ou tel population à risque, quand bien même on peinerait à discerner une personne concrète derrière ces quelques points. La médecine personnalisée n’échappe pas au diagnostic, puisque, suivant une tendance forte au réductionnisme physiologique, le portrait de soi renvoyé au patient n’est d’abord qu’une collection de données, de taux, de gènes, de lésions et de facteurs dont aucun ne donne à voir la totalité vitale et existentielle de la personne vulnérable, à laquelle pourtant chacun appartient[30], et qui là encore ne permettent de prédire la réponse propre à un traitement ou le risque propre de déclarer une pathologie que par assimilation à une population anonyme et similaire à certains égards.
Tout ceci conduirait donc à mettre en doute la pertinence de la théorie de Foucault puisque la rationalité spécifique des technologies de personnalisation présente des différences importantes quant à certaines caractéristiques essentielles : d’abord, les « doubles numériques » générés ne sont que des images très lacunaires des individus, des juxtapositions de points qui n’ont rien de portraits fidèles ; ensuite, ceux-ci ne sont des leviers actionnables qu’en vertu de corrélations établies au niveau de populations anonymes au milieu desquelles la singularité individuelle s’évanouit. Les dispositifs numériques, en fabriquant ces « doubles » et en opérant à partir d’eux, ne seraient plus panoptiques puisque le regard qui les caractérise ne voit plus l’individu mais des dividuels ramenés à des entités statistiques anonymes, et ne se caractériseraient donc plus par leur capacité à produire l’individu. Ajoutons encore le fait que bien souvent ce regard n’est pas perçu, donc pas intériorisé, dans le cas des dispositifs numériques, et que nombreux sont celles et ceux qui, le percevant, s’accommodent pourtant tout-à-fait d’être l’objet d’une collecte de données personnelles. Par conséquent, en s’appuyant sur ces différences, on pourrait être tenté de rejeter la critique inspirée du panoptisme que nous avons élaborée dans un premier temps : il n’y aurait plus besoin de concevoir un pouvoir producteur de subjectivités pour critiquer les dispositifs de personnalisation, sinon à la marge, puisque ceux-ci ne saisiraient la personne-même qu’en apparence, contrairement à ce que prétendent les discours qui les promeuvent. Les technologies de personnalisation seraient faussement personnalisantes, leur prétention serait illusoire. Alors on pourrait réitérer la critique humaniste classique : derrière les technologies de personnalisation se cacheraient des normes générales qui écraseraient la personne et que l’on devrait combattre en prenant appui sur la personnalité qui est niée dans le processus technique[31].
Il nous faut remarquer, cependant, que les surveillance studies qui appellent à un dépassement de Foucault à l’ère du numérique prennent souvent pour objet des dispositifs de surveillance qui présentent certes des rationalités nouvelles, appuyées sur la production de doubles numériques (in)dividuels, mais qui restent assez classiques dans le fait qu’ils s’imposent de manière tout-à-fait hétéronomes aux sujets – pensons à la surveillance automatisée des voyageurs dans les aéroports par exemple : elle n’est pas choisie, et le ciblage risque fort de susciter des mécontentements explicites chez les passagers qui ont à en subir les conséquences. Or, dans les cas qui nous intéressent ici, c’est l’autonomie du sujet qui est sollicitée pour faire fonctionner les dispositifs, et comme il est (plus ou moins) en capacité de refuser d’en faire usage s’il estime subir un pouvoir illégitime, il ne nous resterait alors aucune base pour concevoir qu’il s’agisse bien là de technologies de pouvoir. Les technologies de personnalisation, par leur ambiguïté et leur ambivalence, peuvent être l’aune à laquelle mesurer nos outils conceptuels dans ce domaine : la réaction contre Foucault propose un crible trop grossier pour pouvoir en dire quoi que ce soit.
En réalité, prétendre que le moment d’abstraction et de généralisation propre à la rationalité de ces dispositifs numériques les ramène à des technologies classiques, au fond incapables d’une véritable saisie de la personne, présuppose en fait une théorie représentationnaliste du pouvoir. Par-là nous entendons le fait de considérer que le dispositif en question fonctionne par la production d’une représentation du sujet, et que la relation de pouvoir émerge dès lors que le sujet représenté est inadéquat au sujet réel, et qu’elle est d’autant plus violente que l’écart est grand, que le sujet concret est appauvri, écrasé, mutilé par sa représentation générique et abstraite. Dans cette optique, si le pouvoir est mauvais, c’est parce qu’il est faux. Les doubles numériques ne sont que des images parcellaires, mobiles, une collection d’instantanés nécessairement peu fidèles, et en cela participeraient à réduire le sujet à une abstraction. Si certains auteurs se défendent explicitement d’adopter cet angle d’analyse, en insistant sur le fait que les doubles numériques ne sont des portraits ni fidèles ni infidèles mais de simples opérateurs de tri[32], il n’en reste pas moins que la critique se fonde sur la personne, le sujet antécédent, qui est plus ou moins affecté par le dispositif[33]. S’il y a un « double », ou un « dérivé » numérique, il y a nécessairement un original représenté par le double, mais doté d’une authenticité que le double n’a pas ; on réintroduit ainsi par la bande l’appareil normatif dont on cherchait à se débarrasser. Or, pour comprendre et critiquer des dispositifs aussi complexes que les technologies de la personnalisation, il est impossible de se satisfaire du cadre humaniste ; il nous faut trouver comment armer la critique des dispositifs numériques en général pour qu’elle soit en mesure de saisir des objets aussi paradoxaux que les technologies de personnalisation.
IV. Du panoptisme à la sécurité
Réorienter la critique en l’appuyant sur l’écart entre représentation et représenté peut donc paraître légitime puisque cela découle d’une étude empirique du fonctionnement des dispositifs numériques, mais le fait qu’elle charrie alors malgré elle le cadre humaniste en limite considérablement la portée, comme on l’avait examiné dans un premier temps. Or, l’exploration détaillée de tels dispositifs n’impose pas d’abandonner la démarche foucaldienne au profit d’un fondement humaniste plus traditionnel, bien au contraire : d’abord parce que c’est mal comprendre la cohérence du projet qui prend forme avec la théorie du panoptisme, ensuite parce que Foucault offre des outils particulièrement efficaces avec son concept plus tardif de sécurité.
Rejeter la théorie du panoptisme sur la base d’une évolution du regard du pouvoir – qui à travers les technologies numériques ne voit plus l’individu mais le dividuel ramené à de l’anonyme – c’est manquer l’essentiel de ce projet. En effet, la généalogie du pouvoir entreprise dès le début des années 1970 permet de dégager la critique de celui-ci du terrain de la vérité pour mieux considérer la multiplicité des pratiques de véridiction et leurs effets[34], sans présupposer un partage a priori du vrai et du faux qui obligerait à juger leur validité de ce point de vue. Ce qui compte alors, c’est d’identifier les engagements impersonnels qui stabilisent et reproduisent des relations de pouvoirs, peu importe que la prétention du pouvoir à s’appuyer sur un savoir vrai soit convaincante ou non. Le véritable apport du concept de panoptisme est de cerner l’automaticité et l’absence d’intention dans le fonctionnement des disciplines modernes par le biais d’un schéma général, et ainsi mettre au jour les mécanismes de pouvoir qui donnent l’illusion d’un pilotage invisible des conduites[35]. En un sens, la structure de détail du Panoptique de Bentham est contingente relativement au schéma du panoptisme, puisque les principes de celui-ci doivent pouvoir caractériser toute une lignée de nouveaux pouvoirs qui n’ont rien de carcéraux. Parmi ces traits contingents, le fait que l’individu intériorise un regard virtuel est beaucoup plus secondaire que la participation de l’architecture elle-même à l’orientation des conduites par la distribution des effets de pouvoir qu’elle réalise à travers tout le dispositif ; le principe du Panoptique réside moins dans telle modalité du regard que dans l’automatisation et la désindividualisation de l’exercice du pouvoir[36]. Le Panoptique incarne parfaitement la nouveauté d’un pouvoir qui n’est plus pensable sous la forme d’une relation binaire entre un détenteur du pouvoir et un sujet qui en subit passivement l’exercice. Or, le regard vague des dispositifs numériques basés sur la production de « doubles » ne doit pas nous faire négliger l’automaticité de tout le processus de capture et traitement des données qui tend à les rapprocher du schéma panoptique, malgré deux systèmes de visibilité différents.
Foucault peut nous aider à penser des phénomènes techniques contemporains, à condition d’identifier le cœur de son projet, au-delà des cas historiquement situés qu’il choisit d’étudier. Sans doute l’idéal de la prison Panoptique ne peut être plaqué sur les dispositifs actuels, pour autant, la méthode foucaldienne et les métamorphoses souterraines du pouvoir qu’il met en lumière restent tout-à-fait pertinentes pour déchiffrer le présent. L’enjeu n’est pas tant de produire une lecture fidèle de l’oeuvre, que de la travailler à partir d’elle-même pour en tirer des ressources conceptuelles précieuses. Le concept de sécurité en fait partie et peut être le point d’appui d’une critique des technologies de personnalisation à la fois anti-humaniste et nourrie de l’étude de leur rationalité spécifique. Foucault entend par-là établir la généalogie d’une lignée qui a évolué en parallèle de la souveraineté et des disciplines, et qui peut-être pourrait devenir dominante aujourd’hui mais sans que ne disparaissent les autres variétés de pouvoir[37]. Le sexe, par exemple, peut être saisi à la fois par les disciplines et par des « contrôles régulateurs » – encore mal définis au temps de La volonté de savoir, ils préfigurent les développements ultérieurs sur la biopolitique et la sécurité[38]. Cette dernière se distingue des disciplines quant à ses points d’application et à sa rationalité, tout en participant du même projet général d’étude du pouvoir. Là où le quadrillage disciplinaire permet surveillance et correction de l’individu, à la fois saisi et défini par ses mailles, la sécurité est présentée par Foucault comme cet ensemble de dispositifs de régulation qui permettent d’optimiser un processus social donné en agissant avant tout sur les divers paramètres qui déterminent son cours. Pour illustrer cela à partir du domaine pénal, il y a sécurité dès lors que, dans l’optique de minimiser le coût social de la criminalité, tout ce qui engendre, favorise ou réduit le crime (l’origine sociale, l’environnement urbain, la stabilité politique, etc.) ou participe de son traitement collectif (l’absence ou non de châtiment, l’incarcération, la rééducation, etc.) est considéré comme un paramètre et donc comme un levier actionnable pour diminuer son coût. Les éléments en jeu dans le processus à optimiser et les paramètres qui l’affectent sont essentiellement saisis comme événements, inscrits dans des séries ouvertes qu’il est possible d’ordonner et de rendre intelligibles par un travail mathématique, et dont on va même anticiper les occurrences par un raisonnement probabiliste. La sécurité agit donc sur des séries temporelles d’événements aléatoires[39]. Ensuite, la sécurité ne se présente jamais sous la forme d’un règlement, d’un impératif, d’une limitation – certes productifs dans le cas des disciplines, mais imposés de l’extérieur sur une réalité donnée –, et se réalise plutôt par le jeu des éléments d’une situation les uns sur les autres : la sécurité prend appui sur les articulations de la situation elle-même, elle opère une « régulation dans l’élément de la réalité »[40]. Une conséquence cruciale est qu’elle préserve au maximum la liberté des corps, des échanges, des désirs, des divers mouvements qu’elle contribue juste à orienter. Foucault est notamment fasciné par les stratégies de pouvoir qui mobilisent le désir dans son jeu « à la fois spontané et réglé »[41].
Ce concept manifeste bien une continuité essentielle avec les disciplines et le panoptisme : d’une part un pouvoir qui se retire dans l’ombre, ne démontre pas sa force, se fait le plus économe possible, et d’autre part un pouvoir distribué dans les personnes, les procédures et les choses matérielles, qui peut fonctionner automatiquement, sans toujours requérir un sujet qui l’exerce. Cependant, il s’éloigne des disciplines par le fait qu’il ne cerne ni ne produit l’individu en tant que tel, mais saisit des séries d’événements, des milieux et des populations[42] : il s’agit bien toujours d’un ensemble de technologies de pouvoir, mais elles n’impliquent pas pour autant de revenir à un cadre théorique humaniste que Foucault ne reprendra jamais. Plus encore qu’auparavant, le pouvoir disciplinaire n’écrase pas de l’extérieur : il se manifeste discrètement dans le devenir du milieu, aiguillonnant notre liberté en lui présentant ou retirant des objets de désir, et tolérant les comportements marginaux dans une certaine mesure. Plaisir, désir et autres affects sont des leviers pertinents, et le fait que les technologies de personnalisation soient utilisées librement n’empêche pas qu’elles puissent être traversées par des effets de pouvoir.
Comment, alors, comprendre ces effets de pouvoir s’il n’y a ni production de l’individu, comme c’est le cas sous le joug des disciplines, ni écrasement de la singularité du sujet antécédent sous une norme extérieure et abstraite ? Bien qu’ils ne produisent pas toujours l’individu en tant que tel, puisqu’ils fonctionnent sur la base de données « dividuelles » (infra-individuelles et partielles) articulées à des populations anonymes (supra-individuelles), les dispositifs numériques n’en sont pas moins capables d’engendrer de forts effets de subjectivation, partiels et non-individuels certes, mais néanmoins potentiellement incompatibles avec d’autres pans de la construction du sujet[43]. En effet, la norme statistique à travers laquelle opère un dispositif de sécurité n’est pas directement normative, comme peut l’être la norme disciplinaire, qui identifie immédiatement un sujet comme déviant, pathologique, criminel, pervers, etc. en le détachant sur un fond moral et culturel ; mais elle réalise malgré tout des appariements qui associent l’individu à la moyenne d’une population ou à ses marges, du point de vue de telle ou telle donnée. Ainsi, la norme n’est pas établie a priori, mais émerge a posteriori etindirectement, à partir du fonctionnement même du dispositif : par exemple, le passage au numérique de l’assistance aux sans-abris permet d’établir des statistiques et d’y repérer des motifs (patterns), dans les antécédents médicaux, le parcours d’habitation, etc., corrélés à une plus ou moins grande réussite du relogement, et plus le dispositif fonctionne, plus les séries de données collectées sont importantes, donc plus les différents types constituant une population seront bien définis. C’est ce mode de production statistique de la norme qui fait que par exemple la juxtaposition de récentes interactions avec la police avec des pratiques d’automédication – et divers autres traits complètement hétérogènes – participent à déterminer la posture adoptée par l’institution à l’égard de l’individu : aucun portrait individuel immédiatement cohérent n’émerge ici dans le HMIS, seulement un nuage de données et un ou plusieurs motifs potentiellement interprétés comme autant de signaux d’alerte (red flags), et pourtant, la détection chez l’individu de ces signes de vulnérabilité participent de sa définition et de sa position au sein de l’institution. La personne, dans toute son épaisseur, ne peut pas se réduire à ces traits, mais leur détection et la réaction correspondante peut participer à la produire, au croisement de séries statistiques sans cesse redéfinies par l’évolution de l’environnement juridique, administratif, policier ou économique. Dans un dispositif de sécurité, la personne voit certains de ses aspects intégrés à cet ensemble de séries d’événements qui constituent la question des sans-abris aux yeux des pouvoirs publics, et se voit donc ciblée et modelée sous certains aspects comme un facteur actionnable parmi tous les autres.
Conclusion
Pour conclure, les dispositifs numériques de personnalisation déploient une rationalité certes particulière, mais n’en sont pas moins dénués d’effets de subjectivation. Ce n’est plus au niveau de l’individu que se réalise le pouvoir, mais au niveau de dividuels, assemblés en « doubles numériques » bien loin de représenter adéquatement une personne concrète. Pour autant, il faut absolument se prémunir de critiquer ces technologies par leur prétendue fausseté ou inadéquation, en référence à une réalité humaine antécédente à préserver, sous peine d’être incapable de révéler de possibles effets de pouvoir dans les dispositifs les plus souples et ambigus qu’engendre le numérique. En effet, elles ne définissent pas les individus, mais elles n’en exercent pas moins un pouvoir sur certains aspects des sujets ; nous sommes déjà le produit des innombrables dispositifs numériques qui nous entourent, ce à quoi participent les dispositifs de personnalisation, et si en cherchant cette nature intacte à préserver nous risquons bien de ne trouver que l’effet de ces technologies que nous cherchons à évaluer. Ce que Foucault permet de penser, notamment par son concept de sécurité, c’est bien la possibilité d’une critique immanente au maillage technologique qui fait une personne concrète, en faisant jouer les différents fils les uns contre les autres pour les évaluer et déceler les modalités de subjectivation parasites.
[1]Xavier Guchet, La Médecine personnalisée : Un essai philosophique, Paris, Les Belles Lettres, 2016.
[2]Virginia Eubanks, Automating inequality: how high-tech tools profile, police and punish the poor, New York, NY, St. Martin’s Press, 2018.
[3]Il s’agit notamment du VI-SPDAT développé par OrgCode. L’outil est constitué d’un index de vulnérabilité (calculé à partir de réponses fournies à une cinquantaine de questions permettant de cerner le profil de la personne lors de son entrée dans le système) et d’un algorithme qui détermine l’aide la plus adaptée à la personne en fonction des moyens disponibles. Il a été conçu dans les années 2000 en étudiant les données déjà collectées, puis testé et très largement diffusé aux États-Unis, au Canada et en Australie dès les années 2010. L’utilisation systématique de l’index à l’arrivée d’un nouveau demandeur d’aide permet en retour d’enrichir les bases de données régionales et d’améliorer le fonctionnement du dispositif.
[4]Meredith Brindley, James P. Heyes, et Darrell Booker, « Can Machine Learning Create an Advocate for Foster Youth? », Journal of Technology in Human Services, vol. 36, no. 1, 2018, p. 31‑36.
[5]Karen Yeung, « Five fears about mass predictive personalization in an age of surveillance capitalism », International Data Privacy Law, vol. 8, no. 3, 2018, p. 258‑269.
[6]Par exemple, une version assez subtile de cette démarche consiste à identifier les atteintes portées à « l’intégrité contextuelle » des situations de dévoilement de soi pour rendre compte des situations dans lesquelles la capture des données n’est pas vécue comme une intrusion et de celles dans lesquelles, au contraire, elle participe bien d’une forme d’espionnage ou de manipulation. Voir Helen Fay Nissenbaum, Privacy in context: technology, policy, and the integrity of social life, Stanford, California, Stanford Law Books, 2010.
[7]Michel Foucault, Leçons sur la volonté de savoir : cours au Collège de France, 1970-1971 ; suivi de, Le savoir d’Œdipe, Paris, Gallimard, 2011.
[8]Michel Foucault, Théories et institutions pénales : cours au Collège de France (1971-1972), Paris, Gallimard, 2015 ; La société punitive : cours au Collège de France (1972-1973), Paris, Gallimard, 2013.
[9]Michael C. Behrent, « Foucault and Technology », History and Technology, vol. 29, n°1, 2013, p. 54‑104.
[10]Michel Foucault, Le pouvoir psychiatrique : cours au Collège de France (1973 – 1974), Paris, Gallimard, 2003, p. 4, leçon du 7 novembre 1973.
[11]Michel Foucault, Surveiller et punir : naissance de la prison, Paris, Gallimard, 1975, p. 161.
[12]Ibid., p. 234.
[13]Ibid., p. 235.
[14]Michel Foucault, « Le sujet et le pouvoir » (1982), Dits et écrits, vol. 4, texte n°306.
[15]Thomas Lemke, « Foucault, Governmentality, and Critique », Rethinking Marxism, vol. 14, n°3, 2002, p. 49‑64.
[16]Michel Foucault, « Les mailles du pouvoir » (Première partie) (1976), Dits et écrits, vol. 4, texte n°297.
[17]Michel Foucault, « Entretien avec Madeleine Chapsal » (1966), in Dits et écrits, vol. 1 / 4, Paris, Gallimard, 1994, p. 517.
[18]Michel Foucault, « Dialogue sur le pouvoir » (1975), in Dits et écrits, vol. 3 / 4, Paris, Gallimard, 1994, p. 470.
[19]Michel Foucault, « Les réponses du philosophe » (1975), in Dits et écrits, vol. 2 / 4, Paris, Gallimard, 1994, p. 817.
[20]Blake Hallinan et Ted Striphas, « Recommended for you: The Netflix Prize and the production of algorithmic culture », New Media & Society, vol. 18, no. 1, 2016, p. 117‑137.
[21]Nick Seaver, « Captivating algorithms: Recommender systems as traps », Journal of Material Culture, 29 décembre 2018.
[22]La généralisation des bases de données massives et du traitement numérique des populations soumises au contrôle policier, bénéficiaires d’une aide sociale, ou encadrées au travail, a suscité une relecture du développement des sociétés modernes au prisme du concept de « société de surveillance » dans laquelle le panoptisme de Foucault a été l’outil théorique principal : voir Mark Poster, The mode of information: poststructuralism and social context, Cambridge, Polity Press, 1990 ; Oscar H. Gandy, The Panoptic Sort: A Political Economy of Personal Information, Boulder, Colo, Westview Press, Inc, 1993 ; David Lyon, The electronic eye: the rise of surveillance society, Minneapolis, University of Minnesota Press, 1994. Dans le contexte français, on peut noter les travaux d’Olivier Razac, « La surveillance électronique : un renouveau de l’utopie panoptique », materiali foucaultiani, vol. 1, no. 1, 2012, p. 151‑168, et de Christian Laval, « Surveiller et prévenir. La nouvelle société panoptique », Revue du MAUSS, no. 2, 2012, p. 47‑72.
[23]Mathiesen, T., « The Viewer Society: Michel Foucault’s `Panopticon’ Revisited », Theoretical Criminology, vol. 1, no. 2, 1997, p. 215‑234 ; Borel, Simon, « Le panoptisme horizontal ou le panoptique inversé », Terminal. Technologie de l’information, culture & société, no. 118, 2016.
[24]Reginald Whitaker, The end of privacy: how total surveillance is becoming a reality, New York, NY, The New Press, 1999 ; Anders Albrechtslund, « Online social networking as participatory surveillance », First Monday, vol. 13, no. 3, 2008 ; Jean-Gabriel Ganascia, Voir et pouvoir, qui nous surveille ? Paris, Le Pommier, 2009 ; Bernard E. Harcourt, Exposed: desire and disobedience in the digital age, Cambridge, Massachusetts, Harvard University Press, 2015.
[25]Richard D. Haggerty, Kevin V. Ericson, « The surveillant assemblage », British Journal of Sociology, vol. 51, no. 4, décembre 2000, p. 605‑622 ; John Cheney-Lippold, We Are Data: Algorithms and the Making of Our Digital Selves, New York, New York University Press, 2017.
[26]Michel Foucault, La volonté de savoir, Paris, Gallimard, 1997, p. 104.
[27]Op. cit.
[28]Gilles Deleuze, « Postscriptum sur les sociétés de contrôle », in Pourparlers, Paris, Éditions de Minuit, 1990.
[29]Robert Prey, « Nothing personal: algorithmic individuation on music streaming platforms », Media, Culture & Society, vol. 40, no. 7, octobre 2018, p. 1086‑1100 ; Jean-Samuel Beuscart, Samuel Coavoux, et Sisley Maillard, « Les algorithmes de recommandation musicale et l’autonomie de l’auditeur », Reseaux, no. 1, mars 2019, p. 17‑47.
[30]Xavier Guchet, op. cit. Selon l’auteur, l’impératif de totalisation inhérent à cette démarche de soin qui cherche à intégrer tous les aspects de la vie du patient ne peut qu’aboutir à la position d’un concept non-réducteur de personne, puisqu’alors les incertitudes, affects, espoirs, craintes, etc. qui font également la personne ne sont en dernier lieu pas indifférents du point de vue de sa guérison.
[31]David Lyon (dir.), Theorizing surveillance: the panopticon and beyond, Cullompton (Devon), Willan Publishing, 2006.
[32]Richard D. Haggerty, Kevin V. Ericson, op. cit., p. 614. John Cheney-Lippold, par exemple, est beaucoup moins prudent dans la construction de sa critique de nos « moi numériques » : c’est parce qu’il est forcé dans les catégories toujours trop étroites des algorithmes (« femme », « gay », « conservateur », etc.) que le sujet doit s’opposer à cette réduction ; il est donc implicitement pensé comme antécédent et indépendant des réseaux techniques qui l’entourent.
[33]Tobias Matzner, « Beyond data as representation: The performativity of Big Data in surveillance », Surveillance & Society, vol. 14, no. 2, 2016, p. 197‑210.
[34]Michel Foucault, Leçons sur la volonté de savoir, op. cit.
[35]Laurent Jeanpierre, « Par-delà la biopolitique », Critique, n° 696, 2005, p. 352‑368.
[36]Gilbert Caluya, « The post-panoptic society? Reassessing Foucault in surveillance studies », Social Identities, vol. 16, n° 5, septembre 2010, p. 621‑633.
[37]Michel Foucault, Sécurité, territoire, population: cours au Collège de France (1977 – 1978), Paris, Gallimard, 2004, p. 6.
[38]Michel Foucault, La volonté de savoir, op. cit., p. 192.
[39]Michel Foucault, Sécurité, territoire, population, op. cit., p. 22.
[40]Id., p. 48.
[41]Id., p. 74.
[42]C’est pendant la même année au Collège de France que Foucault développera dans ses cours la sécurité et la bio-politique. Cette dernière présente des similarités évidentes avec la sécurité mais pourrait être comprise comme une variation appliquée spécifiquement à la population vivante.
[43]Tobias Matzner, op. cit.
je suis d’accord avec cette affirmation de votre conclusion que Ce n’est plus au niveau de l’individu que se réalise le pouvoir, mais au niveau de dividuels,