Boris Beaude : « Internet n’abolit pas l’espace, il en crée »
Longtemps, Internet a été présenté comme la négation de la géographie. La disponibilité en quelques clics d’informations, de biens et de relations sociales semblaient, à en croire quelques Cassandres, consacrer la disparition de la distance et, donc, de l’essence même de la géographie. Pour Boris Beaude, professeur en sociétés, cultures et humanités numériques à l’Université de Lausanne, Internet doit au contraire être considéré comme un nouvel espace avec ses singularités et son fonctionnement propres. Une plongée dans la géographie de demain ?

Vos recherches invitent à considérer Internet non pas sous l’angle d’une technologie a-spatiale qui abolirait les distances et l’espace géographique, mais au contraire comme un espace d’un genre nouveau. Comment cet espace peut-il être défini ?
Lorsque j’ai commencé à étudier Internet, à la fin des années 90, la géographie était peu disposée à l’aborder au-delà de son infrastructure et de son accès. L’attention se portait dès lors sur les cybercafés, les câbles, les politiques locales d’accompagnement des investissements, avec une attention particulière pour la « fracture numérique ». Ces problématiques étaient importantes lors du déploiement d’Internet, et elles le sont toujours aujourd’hui. On ne cesse de s’intéresser à l’inégal accès à Internet, à la matérialité de ses infrastructures, aux inégalités territoriales ou à la répartition des centres de données. Ces derniers, à présent, sont aussi considérés pour l’énergie qu’ils consomment et les aspects environnementaux que cela recouvre.
Néanmoins, dès la fin des années 90, une autre dimension spatiale d’Internet était tout aussi pertinente : celle des relations sociales et des pratiques qui s’y déployaient. Bien qu’elles ne fussent pas perçues par la géographie comme pertinentes d’un point de vue disciplinaire, ces relations rappelaient pourtant avec force que les câbles et les centres de données constituaient la spatialité la plus élémentaire d’Internet, celle de son infrastructure, mais qu’elles ne disaient rien des pratiques, et en cela de ce qui les justifiait. Tout au plus, cela permettait de saisir les relations privilégiées et la hiérarchisation des territoires, en particulier entre l’Europe occidentale et les États-Unis, ou les inégalités d’accès entre les espaces les plus denses et les plus dispersés, mais sans vraiment aborder ce dont il était question. Le risque était tout de même grand de passer à côté de l’essentiel : pourquoi de telles infrastructure ?
Plus simplement, et cela n’a pas cessé de me surprendre, les géographes, comme les sociologues, avaient du mal à saisir que les relations sociales étaient fondamentalement spatiales, et qu’Internet se situait donc au cœur d’un profond changement des spatialités contemporaines.
Il me semble que ce malentendu s’est partiellement dissipé depuis, mais pas totalement. Il reposait sur une conception de l’espace relativement fragile, pour ne pas dire négligente, qui s’est traduite par tout un vocabulaire contreproductif, allant du « virtuel » à « la vie réelle », pour en tirer des conclusions sur la « vraie vie ». En d’autres termes, nous avons perdu quelques années – et la géographie n’est pas la seule à être concernée par cette aporie – à avoir dé-réalisé la spatialité d’Internet et par continuité les pratiques qui s’y déployaient de plus en plus massivement.
En quelque sorte, l’opposition très efficiente proposée par Augustin Berque entre le topos et la chôra, c’est à dire l’espace positionnel (absolu) et l’espace relationnel (existentiel) structurait l’essentiel de cette opposition conceptuelle qui constituait aussi un clivage paradigmatique. Ce que j’ai proposé ces 15 dernières années consiste en quelque sorte à montrer que les apories de la conception topographique de l’espace dans le cadre de l’environnement ont sensiblement les mêmes fondements que ceux qui se manifestèrent dans les approches spatiales et souvent sociétales d’Internet.
À présent, les enjeux sociaux, économiques et politiques d’Internet sont tels qu’il n’est plus possible de raisonner uniquement en termes de territoire et qu’il devient nécessaire de mieux saisir les perspectives réticulaires et algorithmiques qui rendirent possible l’émergence d’un espace devenu si prégnant. Néanmoins, si la pleine réalité d’Internet est communément acceptée, celle de sa spatialité reste toujours ambiguë. À ma connaissance, seule la géographie résiste encore un peu à cela, acceptant difficilement une spatialité qui ne s’inscrit pas dans sa tradition et dans son épistémologie dominante.
La géographie s’est en effet largement constituée autour d’un paradigme que je qualifierais de territorial. Le développement des réseaux a largement perturbé la pertinence de cette perspective historique, mais sans la remettre radicalement en cause. La mondialisation des transactions et l’intensification des métriques réticulaires qui caractérisent l’urbanisation du monde depuis des décennies ont en revanche beaucoup apporté à la discipline. Une place de plus en plus importante fut accordée au mouvement, à la circulation et aux relations, mais in fine, les réseaux ne faisaient que relier… des territoires.
Il est pourtant utile de privilégier les réseaux aux territoires pour saisir les agencements contemporains. David Harvey avait engagé les bases théoriques et politiques de ce débat, soulignant les composantes absolue, relative et relationnelle de l’espace, mais sans assumer totalement le fait que l’absolu est un cas particulier du relatif et le positionnel une disposition particulière du relationnel. C’est finalement Jacques Lévy, en s’inspirant aussi de Leibniz, qui a engagé dans les années 90 un tournant plus assumé vers une conception pleinement relationnelle de l’espace. Il s’agissait alors de mieux saisir l’urbanité et la géographie politique. Cela fut opéré initialement en marge de la discipline, et non sans risques institutionnels, mais cette approche s’est finalement révélée être particulièrement pertinente, au point d’être reconnue dans le cadre du dernier prix Vautrin-Lud.
Dans un autre registre, non moins important, Michel Lussault contribua à resituer la problématique de l’espace dans le cadre de l’action, en privilégiant volontiers la spatialité à l’espace. C’est pourquoi il n’est pas surprenant qu’avec Jacques Lévy, ils entreprirent de clarifier ce tournant par l’entremise d’un dictionnaire de la géographie et de l’espace des sociétés, en mobilisant une centaine d’auteurs autour de ce qui fut un travail difficile de redéfinition et de clarification des notions les plus fondamentales de la discipline (espace, territoire, réseau, distance, lieu, individu…).
Dans le prolongement de l’environnement, de l’urbanisation et de la mondialisation, Internet représenta probablement une rupture encore plus radicale, qui ne permettait plus de faire l’économie de la conceptualisation de l’espace. Il serait pourtant utile de réaliser que la philosophie a opéré ce changement dès le 18e siècle avec Leibniz et que la physique a abandonné l’espace absolu de Newton (d’ailleurs en désaccord avec Leibniz) au profit d’une conception relative et relationnelle. Or, cette attention pour les conceptualisations de l’espace n’est pas un artifice appelé à donner plus de substance à un concept déjà familier. Elle permet au contraire d’en relativiser la conception souvent restreinte et peu explicite. Rappeler que l’espace n’est pas le territoire, mais le simple agencement des réalités, permet de ne pas succomber à un matérialisme spatial embarrassant, car inapte à penser efficacement le changement et à saisir ce qui advient depuis quelques décennies : un réagencement puissant du monde, dont la multitude des relations est établie par des continuums électromagnétiques (mobilisant essentiellement de l’électricité ou de la lumière). Pour le dire autrement, pour saisir cette profonde dynamique, ce n’est pas tant Internet qu’il fallait redéfinir, mais l’espace lui-même.
Quant à Internet, il s’agit tout simplement d’un espace parmi d’autres, un espace dont les propriétés justifient l’intérêt qu’il peut susciter, tout en éclairant aussi ses limites. Pour saisir Internet, il faut considérer la spatialité de son infrastructure, mais aussi son exploitation permanente, constituée de relations électromagnétiques pouvant être traitées automatiquement par des algorithmes. Internet participe en cela d’une puissante dynamique de remédiation sociale, autorisant des relations synchrones, symétriques et multi-scalaires, mais à l’exclusion de toute forme de relations matérielles. Inversement, des espaces plus familiers, tels qu’une place publique, un bar ou une salle de classe, autorisent des interactions multisensorielles et des échanges de matières (air, objets, molécules aromatiques, nutriments, médicaments…), mais ils sont structurellement limités dans leur étendue. Imaginer que l’un est plus réel ou plus « pur » que l’autre, revient à être prisonnier malgré soi d’un paradigme. Le risque, avec les paradigmes, est précisément de ne pas les percevoir lorsqu’ils sont dominants, car ils ont les attributs de la normalité.
L’accès à la société-monde rendu possible par Internet consacre-t-elle, à terme, la disparition de l’échelle locale ?
L’échelle locale, de ce point de vue, n’a aucune vocation à disparaître. Elle présente l’avantage d’accueillir notre corps et toute la matérialité qui l’accompagne. Le local, considéré comme une petite étendue de territoire, est consubstantiel de notre existence. C’est pourquoi nous observons précisément que l’échelle locale tire un grand profit d’Internet lorsqu’elle peut aussi tirer profit des autres échelles. Les métropoles, par exemple, se révèlent être des espaces qui maximisent non seulement l’interaction matérielle, mais aussi immatérielle, associant leurs puissants réseaux de transport et de transmission. En cela, il convient de toujours se demander de quoi un espace serait-il l’espace, de quoi est-il composé, en quoi pouvons-nous en penser les limites, en quoi est-il pertinent au cours de nos existences ?
Internet s’inscrit en cela dans une longue histoire de la maîtrise de l’espace. Internet n’abolit pas l’espace, il crée de l’espace. La subtilité, s’il en est une, consiste à distinguer les espaces qui se déploient en son sein (Facebook, Reddit, Google, Netflix, Wikipédia…) tout en ne négligeant pas leur inscription dans des spatialités plus complexes. Amazon incarne parfaitement cela lorsque l’on considère les spatialités multiples qui rendent possible un simple acte d’achat. Amazon est l’espace de la rencontre entre l’offre et la demande, mais aussi de la transaction financière, de la logistique qui en découle (entrepôts et livraison) et des centres de données qui assurent que cela fonctionne. Tout cela, dans une parfaite intégration à Internet (DNS, dispositifs individuels de connexion, backbone, boucle locale…). Cette spatialité est sensiblement plus complexe que celle d’un supermarché, mais elle s’inscrit dans le même principe d’articulation entre des spatialités multiples. Un supermarché, aussi, bénéficie des infrastructures routières et de l’environnement avec lequel il s’articule. Airbnb ou Uber, selon des modalités différentes, sont tout aussi symptomatiques de ces spatialités hybrides émergentes, qui perturbent sensiblement les spatialités en vigueur antérieurement.
Il y a un risque à opposer Internet non seulement à l’espace (il s’agit d’espace), mais aussi à l’échelle locale. Internet n’est pas concurrent de l’espace pas plus qu’il ne l’est de l’échelle locale. Internet constitue juste des opportunités de relations supplémentaires, qui participent plus simplement du réagencement des espaces et plus encore des spatialités contemporaines. En revanche, cette multiplicité des échelles explique pourquoi Internet est politiquement problématique. Dans le cadre de la propriété intellectuelle, de la diffamation, de l’incitation à la haine, de la pédopornographie ou du terrorisme, les États souhaitent recouvrer leur souveraineté afin de faire respecter le droit en vigueur. Mais la faible cospatialité entre l’espace des pratiques numériques et celui des États se traduit par des mesures de plus en plus sophistiquées et contraignantes afin de ne pas renoncer à la régulation légitime des pratiques illégales ou conflictuelles. En cela, le RGPD [1] constitue une victoire tout à fait remarquable de l’Union européenne, dès lors que de nombreuses entreprises américaines envisagent de l’appliquer finalement à l’ensemble de leurs utilisateurs. La société-monde se manifeste en cela selon des modalités inattendues, et Internet est sans aucun doute l’un des moyens de son avènement, tout en s’inscrivant pleinement dans le cadre des pratiques quotidiennes.
Alors qu’en théorie Internet offre à ses utilisateurs une palette de choix quasi-infinis, vous montrez au contraire que l’écrasante majorité des pratiques se concentrent sur un nombre très limité d’espaces. Quelles peuvent-être les conséquences de cette « hypercentralité » ?
Les propriétés de la spatialité d’Internet encouragent en effet à la concentration des pratiques sociales au sein de quelques espaces dédiés à des problématiques spécifiques, en particulier dans le cadre des médias sociaux. Bien que les effets de réseaux (l’intérêt d’un réseau croît exponentiellement avec le nombre de ses utilisateurs) et les économies d’échelles (le coût marginal de production décroît avec la quantité produite) soient au cœur de l’économie, Internet radicalise ces deux phénomènes. Le nombre d’individus qui fréquentent un site Internet est en effet théoriquement quasi-illimité et le coût marginal induit par chaque nouvel individu tend vers 0.
Ce phénomène se traduit par une concentration considérable des pratiques au sein de quelques espaces dont le pouvoir et l’attractivité ne cessent de se renforcer à mesure que le nombre d’usagers augmente. Ce phénomène relativement simple permet d’expliquer pourquoi la publicité ciblée suffit à financer le fonctionnement d’entreprises telles que Google ou Facebook, à condition de disposer de la masse critique à partir de laquelle l’effet de réseaux est effectif et l’économie d’échelle suffisante. Dans de telles circonstances, à moins de maltraiter activement ses utilisateurs, seules la législation ou l’émergence de nouvelles pratiques (telles que l’engouement relativement inattendu pour les SMS, puis la messagerie instantanée il y a une dizaine d’années) peuvent mettre un terme à de telles hypercentralités. La peur de la législation se traduit d’ailleurs par un important lobbying auprès d’institutions telles que l’Union européenne. La crainte de concurrents susceptibles d’atteindre un effet de réseau significatif explique aussi pourquoi Facebook a racheté pour 22 milliards de dollars une simple messagerie en 2014 (WhatsApp). WhatsApp dispose à présent de plus d’un milliard d’utilisateurs actifs, privilège limité à une poignée de messageries et de média sociaux. Cet achat souligne l’anticipation stratégique de Facebook, dont le rachat d’Instagram fut tout aussi révélateur. Ce rachat rappelle le doute qui plane toujours à la suite du refus de Snapchat de subir le même sort, alors que cette entreprise est l’une des rares à disposer d’un effet de réseau susceptible d’inquiéter Facebook.
Les conséquences de cette situation sont nombreuses et difficiles à concevoir pleinement. Concrètement, nous sommes tentés de nous concentrer sur des phénomènes tels que le scandale autour de Cambridge Analytica, qui révéla le potentiel de ciblage des individus dans le cadre de l’élection présidentielle américaine ou du Brexit, ou sur la fiscalité problématique de ces acteurs qui se jouent des frontières. Mais il ne s’agit pourtant que de la partie émergée d’un iceberg alors que l’on ne voit même pas la banquise ! En critiquant de telles entreprises qui exploitent les données de Facebook à des fins critiquables, et Facebook d’avoir rendu cela possible, nous oublions trop souvent que Facebook et Google disposent de ces données. En régulant et en limitant l’usage de ces données par des tiers, dont les chercheurs, nous négligeons que cela ne fera que renforcer le pouvoir déjà considérable de ceux qui disposent déjà d’un quasi-monopole sur la traçabilité de nos pratiques numériques.
Pour l’instant, ces entreprises entretiennent l’illusion d’un usage aux seules fins du ciblage publicitaire. Cette activité, pourtant très spécialisée, fut effectivement suffisante pour placer ces entreprises parmi les plus importantes capitalisations financières. Comment, dès lors, ne pas être saisis d’effroi lorsque l’on réalise que ce n’est qu’un usage très limité du pouvoir conféré par une telle visibilité sur les pratiques individuelles et collectives ? Concrètement, si l’on considère l’ensemble des activités de Google et de Facebook, ces entreprises comptent parmi les seules à connaître la liste de nos relations sociales, nos coordonnées, nos déplacements, ce que nous partageons, avec qui, ce que nous recherchons, ce que nous aimons, ce que nous voyons et de plus en plus de détails à mesure que leur activité s’étend à des pratiques chaque année plus nombreuses.
Les raisons pour lesquelles nous acceptons une telle suprématie et une telle visibilité de nos vies privées ne sont pas encore clarifiées. S’il ne s’agit que de confiance et de réticence à payer pour ces services, alors nous n’avons aucune idée de ce à quoi nous nous exposons, car le pouvoir de ces entreprises est à présent bien au-delà de telles considérations, et nous ne sommes qu’aux prémices du pouvoir que nous leur accordons.
L’émergence de nouveaux acteurs privés surpuissants comme les GAFA, la mise en ligne d’outils ambitionnant de se substituer aux fonctions historiquement assurées par les Etats (Bitcoin par exemple) peut-il remettre en cause le modèle même de l’Etat-nation ?
Les GAFA posent en effet de nombreux problèmes, dont celui de l’expression même. Si nous souhaitons mieux saisir la relation entre les GAFA et les États-nations, il convient de ne pas se tromper sur ce que recouvrent ces deux notions. Sans quoi, nous restons à la surface de turbulences, que nous finirons par subir violemment, sans n’avoir jamais entrevu leur puissance.
Les GAFA furent peut-être utiles dans un premier temps pour se référer à l’émergence d’acteurs importants dont l’activité est étroitement liée au numérique. Néanmoins, l’expression pose de nombreux problèmes. Des problèmes qui se manifestent entre autres par son extension (en ajoutant par exemple Microsoft) ou par ses déclinaisons plus récentes (NATU pour Netflix, Airbnb, Tesla et Uber) ou régionales (BATX pour Baidu, Alibaba, Tencent, Xiaomi). Au-delà de l’acronyme désignant de telles entreprises, l’engouement pour ces expressions traduit plutôt la difficulté à circonscrire leur activité. Avant de questionner leur relation aux États-nations, il convient donc de mieux saisir de quoi les GAFAM, NATU ou BATX sont les expressions. Il apparaît dès lors que ces entreprises ont peu à voir les unes avec les autres, si ce n’est de profiter pleinement de performances algorithmiques, au même titre que des milliers d’autres entreprises. Pour ne citer que les GAFAM, il est pourtant évident que Google, Apple, Facebook, Amazon et Microsoft doivent leur succès à des approches et à des modèles économiques qui n’ont rien à voir les uns avec les autres.
Google et Facebook vendent de l’espace publicitaire ciblé en captant le plus possible d’attention au sein de leurs espaces respectifs, tout en traçant précisément et extensivement les pratiques de leurs utilisateurs, qui ne sont d’ailleurs que très marginalement leurs clients. Apple vend du matériel informatique destiné à simplifier les pratiques numériques et à préserver la vie privée, les utilisateurs étant dès lors les clients, dont il est d’ailleurs convenu de se moquer sous prétexte qu’ils ne seraient que des victimes d’un marketing efficace. Amazon est un commerçant dont l’activité consiste à maximiser la rencontre entre l’offre et la demande et dont l’offre matérielle, au même titre que Google ou Facebook, n’a d’autre vocation que d’être au plus près de ses utilisateurs. Quant à Microsoft, son activité dépend en grande partie d’un système d’exploitation et d’une offre logiciel établis depuis les débuts de l’informatique personnelle, et de services destinés aux professionnels. Internet Explorer, Bing ou Windows mobile s’étant révélé être des échecs malgré la situation dominante de Microsoft lors du développement d’Internet dans les années 90. Quant aux NATU, le constat est exactement le même. Mettre Tesla et Uber dans un même panier est aussi efficace que de parler des SALLT (Sanofi, Airbus, LVMH, L’Oréal et Total) pour décrire les plus grandes capitalisations du CAC40 : cela n’apporte pas la moindre intelligibilité !
Les « GAFA » recouvrent donc des réalités très diverses et il est peu utile de les considérer ensemble d’un point de vue politique. Si nous souhaitons en finir avec les GAFA, il faudrait commencer par en finir avec cette expression et traiter ces entreprises sélectivement, en considérant leurs activités spécifiques et la spatialité correspondante, afin de réguler leur activité avec pertinence. Il est d’ailleurs aisé de constater que Airbnb et Uber, dont l’activité est très territorialisée, font l’objet de régulations très locales, souvent à l’échelle des villes, alors que l’Union européenne peine à réguler l’activité de Google.
Pour ne rien arranger à ce que nous éprouvons devant l’affront politique de ces entreprises, la convocation des États-nations n’est pas plus éclairante. Les États-nations recouvrent eux aussi des réalités variables, et la fragilité de la notion même d’État-nation est de plus en plus criante. Les États-nations éprouvent en effet de puissantes contradictions. Ils sont partagés entre d’une part la revendication politique de la préservation des nations sous prétexte qu’elles seraient menacées de l’intérieur (communautés) et de l’extérieur (mondialisation) et d’autre part la volonté de s’organiser à d’autres échelles, infranationales (agglomérations, régions…) et supranationales (Union européenne, monde). Les régimes politiques qui organisent cette situation précaire se cherchent donc entre des extrêmes de plus en plus marqués qui exposent à une fragmentation de l’organisation politique nationale et internationale.
Aussi, il ne faut pas se méprendre : la relation entre les entreprises qui dominent les médiations numériques et les États ne peut être saisie sans prendre en considération le lien puissant entre la défiance historique à l’égard de l’État, particulièrement marquée aux États-Unis, et le projet à la fois libertaire, libertarien et libéral proposé initialement avec le développement d’Internet. Cette situation fut d’ailleurs très bien décrite par Fred Turner à propos de la culture qui prévalait dans la Silicon Valley il y a quelques décennies, ou les perspectives « solutionnistes » portées sur l’individu plus que sur son environnement, décriées par Evgeny Morozov, dont les origines saint-simoniennes et cybernétiques furent par ailleurs très bien décrites par Pierre Musso dans sa philosophie des réseaux.
C’est probablement pourquoi nous assistons conjointement à la déliquescence des États-nations, dont la souveraineté est de plus en plus feinte, et à la résurgence de revendications nationalistes et autoritaires, appelant à recouvrer cette souveraineté perdue. Ces dernières années, nous n’assistons pas à l’effacement des États, mais au contraire à leur renforcement, avec parfois une intensité remarquable. Le RGPD témoigne parfaitement de ce changement de politique, affectant en particulier Google et Facebook, qui pourraient néanmoins en sortir grandis dans un premier temps, tant cette régulation tend finalement à renforcer leur situation dominante. Par ailleurs, les relations commerciales entre les États-Unis et la Chine se dégradent sensiblement dès lors que la Chine ne se contente plus de produire pour les États-Unis, mais développe des concurrents au plus haut niveau de l’innovation technologique et stratégique. Cela pose une difficulté non négligeable pour Apple, qui dépend encore beaucoup de la Chine, de la Corée du Sud et de Taiwan pour sa production. Google, Amazon et Facebook, en revanche, en sortent renforcés, dès lors que leurs principaux concurrents sont très bien établis en Chine et aspirent à investir le marché américain et européen.
Nous pouvons émettre l’hypothèse selon laquelle nous ne faisons qu’assister aux prémices de ces tensions, car si ces entreprises proposent de rendre des services, elles ne répondent aucunement à la fonction politique des États, qui organisent la coexistence et les conflits d’intérêts. La politique ne saurait se limiter à l’économie ou à l’offre de service. Dans ses déclinaisons démocratiques, la politique remplit une fonction autrement plus complexe et fondamentale : offrir les dispositions légitimes de l’organisation des pratiques qui conviennent. Il s’agit d’une activité contraignante, orientée vers l’intérêt collectif, ce qui ne relève en rien de l’activité des entreprises, et le numérique ne fait pas exception. L’incapacité des États à remplir ce rôle tant ils sont affaiblis par les autres échelles ne laisse en rien supposer que les entreprises peuvent s’y substituer.
La confusion est certainement entretenue par la faible légitimité des États-nations qui peinent de plus en plus à convaincre de leur offre politique, comme de leur souveraineté. La légitimité croissante des entreprises telles que Google ou Apple, qui répondent massivement à des besoins ciblés avec une réactivité importante, tout en œuvrant à des échelles supérieures et inférieures à celle des États, ne fait que renforcer ce sentiment d’inefficience des États-nations. Ces entreprises organisent de fait une part croissante des relations sociales locales, régionales et mondiales, tout en s’adressant directement non pas à des nations ou à des territoires, mais à des individus. Le numérique, de ce point de vue, n’est qu’une autre manifestation de la faiblesse actuelle du politique à répondre aux nombreux défis du monde contemporain, déjà largement manifeste dans le domaine de la préservation de l’environnement biophysique ou des migrations.
L’erreur, il me semble, serait de prendre pour une performance politique la réussite économique et sectorielle d’entreprises qui se jouent des États, tant du point de vue de la main-d’œuvre que de la fiscalité. Rendre accessible, hiérarchiser et personnaliser l’information, aussi diverse soit-elle, demeure tout à fait incommensurable avec l’organisation de la coexistence et l’organisation de la conflictualité. Google et Facebook réalisent déjà leur impuissance dans ce domaine et peinent à être légitimes à réguler de tels enjeux. L’omniprésence des médias sociaux et la hiérarchie des résultats de recherche sur Internet constituent bien entendu des enjeux politiques majeurs. En revanche, l’importance de ces enjeux ne dit rien de la légitimité de ces entreprises à les réguler. Il est probablement temps de rappeler que la satisfaction individuelle à court terme, dans laquelle Google et Facebook excellent, est l’exact opposé de la politique.
Par ailleurs, il est aussi problématique d’accorder une portée politique structurelle à des technologies. Tim Berners Lee, par exemple, déplore l’hypercentralisation actuelle du web alors qu’il pensait avoir inventé une puissante technologie de décentralisation. La blockchain, qui se présente comme une opportunité de mieux sécuriser les bases de données, semble s’inscrire dans cette même tradition des idéaux politiques portée par des techniques. Elle offre de nouvelles opportunités, mais elle recouvre des possibles qui dépendent totalement des usages qui en seront faits. Améliorer la traçabilité ou la confidentialité ne garantit en rien d’assurer les conditions d’une société plus équitable, plus juste et plus désirable. La blockchain reproduit très bien la contradiction entre des idéaux libertariens, à l’image de la promotion de l’Ether par Vitalik Buterin, et des implémentations au contraire très centralisées et contrôlées, à l’image des initiatives de plus en plus nombreuses opérée par des banques ou de grandes chaînes de distribution qui intègrent dès à présent ce type de technologies dans leur mode de fonctionnement pour mieux sécuriser et tracer les transactions.
Il est de plus en plus urgent de saisir à quel point la technique est politique, et en quoi les techniques spatiales, et plus encore les espaces qui en résultent, constituent des enjeux de pouvoir considérable. C’est pourquoi nous ne pouvons plus nous permettre de ne pas saisir à quel point Internet est spatial. Il est vraiment temps de réaliser que lorsqu’un espace est devenu important pour des milliards d’individus, on ne peut pas faire l’économie de comprendre les modalités pratiques des interactions sociales qui s’y déploient, et de mieux caractériser les acteurs qui contrôlent de telles médiations et en tirent un profit considérable.
La compréhension de ce nouvel espace qu’est internet oblige-t-elle le chercheur que vous êtes à élaborer de nouveaux outils méthodologiques ? Si oui, lesquels ?
Lorsque l’on réalise à quel point Internet est spatial et que les enjeux de pouvoir qui y prennent place le sont tout autant, il est utile de prendre le temps de reconsidérer, même si cela peut être inconfortable, les grilles de lectures que nous mobilisons depuis quelques décennies. Il me semble que prendre l’espace au sérieux ne va pas de soi. Or, pour le dire simplement, ni les géographes (qui le prennent pour une évidence), ni les sociologues (qui le prennent pour insignifiant) ne prennent vraiment l’espace au sérieux.
Et pourtant, dire qu’Internet est spatial n’est que le début d’une démarche plus générale, qui consiste à reconsidérer ce qui a fondamentalement changé en à peine plus de deux décennies : les virtualités de l’action. L’association de la ville et d’Internet constitue en particulier l’une des innovations spatiales les plus puissantes de l’histoire de l’humanité. Et, une fois mises en œuvre et mobilisées dans l’action, de telles techniques produisent des espaces d’une rare puissance, qui ne font qu’accroître les inégalités en termes de disposition à agir individuellement et collectivement. Dit autrement, la ville et Internet – comme technique et comme espaces – concourent au puissant réagencement des modalités pratiques de l’interaction sociale.
C’est pourquoi j’ai consacré une part importante de mes recherches à la clarification des grilles de lectures, sans lesquelles les démarches empiriques éprouvent des difficultés à associer les phénomènes émergents et à leur donner du sens. Je ne suis néanmoins pas allé assez loin dans cette démarche. Je n’ai pas suffisamment cherché à rendre ces enjeux et ces notions explicites pour la discipline. Tout au plus, dans deux ouvrages et quelques articles, je parle de cela, mais surtout pour souligner les enjeux scientifiques, sociaux et politiques correspondants. Il me semble que les notions que je mobilise mériteraient pourtant d’être clarifiées et d’être explicitées plus ouvertement (synchorisation, hypercentralité, coalescence réticulaire…).
Sans explicitation, l’ouverture à cette conception de l’espace ne survient pas, car il est beaucoup plus aisé de penser Internet dans le prolongement du livre, de la radio et de la télévision, ou de s’intéresser aux infrastructures et leur inégale distribution (centre de données, fibre optique…). Pourtant, Internet marque une rupture très nette avec la radio ou avec la télévision. Internet tend non seulement à en assurer la transmission, mais aussi à les désynchroniser, au point de les changer significativement. Or, le propre de l’espace, c’est précisément cela : prendre place pour se soustraire au temps qui passe, à la différence de la communication. Il s’agit de différencier dans la relation ce qui relève des flux et ce qui relève des stocks.
Finalement, comprendre qu’Internet est spatial, c’est comprendre que la blockchain, les infox, les bulles de filtres, la publicité ciblée ou les atteintes croissantes à la vie privée le sont tout autant, et que l’espace, pour peu que l’on mobilise une conception relative et relationnelle, éclaire considérablement de tels enjeux. La clarté que cette lecture apporte pour lire les dynamiques contemporaines reste en cela inaccessible sans un effort consenti, et je le regrette. Les étudiants de master à qui j’ai enseigné cette approche, à Sciences Po et à l’École polytechnique fédérale de Lausanne pendant 8 ans, puis à l’Université de Lausanne, sont néanmoins beaucoup plus réceptifs à une telle conception de l’espace comme d’Internet. Ils sont moins engagés dans d’autres approches et plus libres de penser autrement le monde contemporain.
Mon investissement méthodologique ne s’est néanmoins pas limité aux perspectives théoriques. Un peu las de la réceptivité limitée à l’égard des travaux théoriques dans le domaine, je tends à développer la phase suivante de ce que peut recouvrir un changement de paradigme. Une fois les concepts fondamentaux redéfinis, il est en effet important de les rendre opérationnels. J’ai souligné cela en montrant il y a quelques années en quoi Internet allait devenir très politique. Il s’agissait dès lors d’articuler singulièrement des faits divers et de montrer à quel point la plupart des phénomènes que nous éprouvions dans le domaine du numérique étaient profondément spatiaux. J’ai aussi essayé de rendre sensible à l’enjeu des traces numériques, qui sont l’une des conséquences évidentes de cette spatialité. Les pratiques numériques laissent des traces numériques ! C’est une évidence, mais force est de constater que nous ne sommes encore qu’au début de l’exploitation, du contrôle et de la régulation de ce potentiel, qui renouvelle profondément les sciences sociales, dont la géographie.
Néanmoins, la géographie et plus généralement l’ensemble des sciences sociales réagissent lentement à ce défi. Je constate que l’informatique et la physique, toutes deux familières de la manipulation informatique des données, investissent le monde social avec beaucoup d’énergie et de moyens, et acquièrent une légitimité croissante malgré leur connaissance très limitée des phénomènes sociaux. Leurs épistémologies sont en effet peu appropriées à de telles données. Les avancés dans le domaine sont d’ailleurs d’une grande banalité lorsqu’elles ne sont pas révélatrices d’une certaine naïveté à l’égard des phénomènes sociaux. La confiance acquise par les principaux acteurs de cette « physique sociale », à l’exemple d’Alex Pentland (professeur d’informatique au MIT) ou de Albert-László Barabási (professeur de physique à la Northeastern University), les encourage à étendre leur démarche à des domaines de plus en plus vastes, de l’économie à la gestion des ressources humaines et passant par la justice ou l’allocation des forces de sécurité. Tout cela, sans la moindre référence à Auguste Comte ou aux nombreux débats qui animèrent les sciences sociales tout au long du XXe siècle contre une conception aussi positive des phénomènes sociaux.
Lorsque l’on s’attarde sur de telles approches, il est pourtant aisé de montrer à quels points elles ne sont pas à la hauteur de leurs prétentions. Les sciences sociales devront répondre à cela, mais cela ne sera pas aisé, car le coût d’entrée théorique et méthodologique est élevé. Nous devons d’ailleurs l’une des critiques les plus vives dans le domaine à un physicien de l’École Normale Supérieure de Lyon, Pablo Jensen, dont le témoignage et l’analyse, du point de vue de la physique, sont tout aussi éclairants pour les sciences sociales. Je consacre donc de plus en plus de temps et d’énergie à approfondir cette réflexion, afin de créer le dialogue le plus constructif possible à l’égard de telles épistémologies positivistes, déterministes et réductionnistes.
Il me semble que la traçabilité numérique du social renouvelle remarquablement les débats qui eurent lieu aux débuts de la sociologie, mais aussi dans les années 70, en particulier dans le contexte de la sociologie allemande lorsque Adorno et Popper se querellaient sur le statut des sciences sociales. Afin de ne pas en rester à des propositions théoriques sur le sujet, je cherche donc aussi à tester le potentiel de ses traces et les méthodes actuelles de traitement des données (machine learning, visualisation de données massives, interactivité…). C’est, il me semble, l’un des meilleurs moyens d’en saisir la force, mais aussi les limites. Or, là aussi, l’espace permet de replacer ce débat en des termes précis. Les traces sont effectivement produites dans des contextes. Comprendre les contextes de leur production, de leur circulation et de leur usage permet de produire du sens, sans croyance aveugle ou naïveté à l’égard de l’abondance des données ainsi disponibles. La géographie me semble relativement bien placée pour se saisir de ce débat. Le géographe britannique Rob Kitchin a d’ailleurs engagé cette réflexion depuis des années.
Si la géographie souhaite se saisir de cette opportunité et être à la hauteur de ce défi, elle ne peut pas se limiter à une conception appauvrie de l’espace sous prétexte de son attachement historique au territoire. Ce que Jacques Lévy a entrepris en réhabilitant les réseaux pour aider à mieux saisir l’urbanité et la mondialisation de la politique, la discipline gagnerait probablement à le faire plus largement, et encore plus radicalement. Si la géographie continue à supposer que ce qui a lieu sur Facebook ou par l’intermédiaire de Tor ne relève pas de l’espace, alors une part croissante des spatialités contemporaines lui échapperont, et sa capacité à rendre le monde plus lisible lui échappera tout autant. L’expérience de Cambridge Analytica, de ce point de vue, est particulièrement édifiante. À force de ne pas considérer la spatialité d’Internet, la société et de nombreux chercheurs ne semblent pas avoir vu l’une des manifestations les plus évidentes de ce changement. Lorsque le scandale éclatait, à l’UNIL, nous enseignions déjà en master l’activité de Deep Root Analytics, tout aussi impliquée dans la campagne républicaine, mais n’ayant pourtant pas fait l’objet d’un traitement médiatique comparable. À partir des traces numériques de millions d’Américains, Deep Root Analytics, Cambridge Analytica, mais aussi d’autres entreprises telles que Palantir ont défini leur profil probable d’un point de vue politique, avant de s’adresser directement à eux afin de les influencer au plus près de leur conviction.
Cette réalité s’inscrit aussi dans une spatialité algorithmique spécifique. Pour la saisir, la rendre lisible et se prémunir de tels dispositifs, il est temps de cesser de confondre l’espace et le territoire et de se donner les moyens de rendre lisibles et intelligibles les milliards de relations quotidiennes qui participent pleinement du monde contemporain.
Bibliographie
Adorno T.W., Hans A., Dahrendorf R., Habermass J., Pilot H. et Popper K.R. (1976), The Positivist dispute in German sociology, New York, Harper.
Barabási A.-L. (2016), Network Science, Cambridge, Cambridge University Press.
Beaude B. (2012), Internet. Changer l’espace, changer la société, Limoges, FYP.
Beaude B. (2014), Les fins d’Internet, Limoges, Fyp.
Beaude B. (2015), « Spatialités algorithmiques », in Marta Severo et Alberto Romele (dir.), Traces numériques et territoires, Paris, Presses des Mines.
Berners-Lee T. (2014), « Tim Berners-Lee on the Web at 25: the past, present and future », Wired, mars 2014.
Berque A. (2000), Écoumène: introduction à l’étude des milieux humains, Paris, Belin.
Harvey D. (1973), Social Justice and the City, Baltimore, The Johns Hopkins University Press.
Jensen P. (2018), Pourquoi la société ne se laisse pas mettre en équations, Paris, Le Seuil.
Kitchin R. (1998), Cyberspace: the world in the wires, New Jersey, John Wiley & Sons.
Kitchin R. (2014), The Data Revolution, SAGE Publications.
Lussault M. (2007), L’homme spatial, Paris, Seuil.
Lussault M. et Stock M. (2010), « Doing with space: towards a pragmatics of space », Social Geography, vol. 5, n°1, pp. 11‑19.
Lévy J. (1994), L’espace légitime, Paris, Presses de la Fondation nationale des sciences politiques.
Lévy J. (1999), Le tournant géographique, Paris, Belin.
Morozov E. (2013), To Save Everything, Click Here, New York, PublicAffairs.
Musso P. (1997), Télécommunications et philosophie des réseaux: la postérité paradoxale de Saint-Simon, Paris, Presses universitaires de France.
Pentland A. (2014), Social Physics: How Good Ideas Spread, New York, The Penguin Press.
Robinet A. (1991), Correspondance Leibniz-Clarke, Paris, Presses universitaires de France.
Turner F. (2006), From Counterculture to Cyberculture, Chicago, The University of Chicago Press.
[1] Règlement général sur la protection des données.
Laisser un commentaire