L’afflux de données nous donne l’illusion de connaître notre environnement et nous fait croire à des choix éclairés. Dans son essai «Un Nouvel Age de ténèbres», l’artiste, écrivain et éditeur britannique met en garde contre une «pensée computationnelle» qui veut agréger en vain toujours plus d’informations.
Nous nous noyons sous un déluge d’informations auxquelles nous ne sommes plus capables de donner du sens pour comprendre le monde : voilà ce que ça fait, d’avoir essayé de transformer nos cerveaux en ordinateurs. D’après l’artiste, écrivain et éditeur britannique James Bridle, vivre aux côtés des supercalculateurs a profondément changé notre manière de réfléchir. Dans un ouvrage stimulant, riche et souvent drôle, Un Nouvel Age de ténèbres. La technologie et la fin du futur (Allia, 2022), il explore cette nouvelle forme de pensée, la «pensée computationnelle» comme il l’appelle, qui consiste à concevoir le monde comme une série de problèmes que l’on pourrait résoudre si l’on avait à notre disposition les jeux de données nécessaires.
Il met en garde contre deux effets pervers de ce schéma de pensée : d’abord, il oublie le fait que le monde ne peut se réduire à un ensemble de variables qu’il suffirait de calculer pour déterminer ce que sont l’amour, la haine ou la poésie. Ensuite, et surtout, il nous paralyse : puisque nous n’aurons jamais l’ensemble des données d’un problème, nous continuons à attendre une improbable certitude absolue avant de nous décider à agir. Plutôt que la «pensée computationnelle», Bridle appelle à adopter une pensée «nébuleuse», «qui admet l’inconnu et le transforme en une pluie fertile».
D’après vous, «tout est éclairé mais nous ne voyons rien». Il y aurait un problème à pouvoir utiliser une très grande quantité d’informations ?
La croyance selon laquelle davantage d’informations rend le monde plus clair et plus facile à comprendre est fausse. Le monde ne peut pas être réduit à une série de faits et d’éléments informationnels : il est fait de paradoxes, de points de vue divergents, de situations sociales opposées. Pourtant, nous avons construit notre technologie et nos sociétés sur cette idée que nous pourrions le comprendre si seulement nous avions toutes ces informations. Et le plus grave, c’est que nous sommes aujourd’hui dans une forme de déni : nous ne voulons pas admettre que nous n’obtenons pas les résultats escomptés. Alors, nous continuons à essayer de rassembler toujours plus de données, même si, manifestement, cette méthode ne fonctionne pas.
Pourtant, la médecine a fait des progrès, la science aussi, nous comprenons mieux le dérèglement climatique…
Notre conception du progrès nous amène à croire que les choses vont toujours devenir plus puissantes, plus utiles et plus bénéfiques. On l’illustre souvent avec la «loi de Moore», qui n’est, en fait, pas une loi physique mais une observation : plus nos capacités technologiques ont progressé, plus nous avons été capables de miniaturiser les composants électroniques. Mais des chercheurs parlent aujourd’hui plutôt de «loi d’Eroom» pour désigner le phénomène inverse : alors que les industries pharmaceutiques ont recours à des puissances de calcul de plus en plus importantes, elles sont devenues de moins en moins capables de découvrir de nouveaux médicaments.
Concrètement, le nombre de nouveaux médicaments approuvés par milliards de dollars dépensés dans la recherche et le développement (R et D) a été divisé par deux tous les neuf ans depuis 1950. De plus en plus, ces entreprises abandonnent les grands processus informatisés pour revenir à des formes de recherches menées par des petits groupes d’êtres humains. Cette observation est utile pour rappeler une chose : il existe plusieurs manières de penser différentes. L’une d’elles est la pensée computationnelle, qui consiste à croire que le monde est réductible à une série de problèmes mathématiques, et donc l’envisage en termes de 1 ou de 0, de noir ou blanc, de vrai ou faux – autant de certitudes qui ne correspondent pas au monde réel, lequel contient des incertitudes. Et, dans bien des situations, cette pensée computationnelle n’est pas la meilleure.
Pourquoi accordons-nous une telle confiance aux ordinateurs ?
Des biais cognitifs nous amènent à considérer les réponses automatisées comme intrinsèquement meilleures que celles qui ne le sont pas. Ce phénomène est aussi appelé «biais d’automatisation» : en somme, cela désigne le fait que nous accordons une confiance aveugle aux informations que nous donnent nos appareils électroniques. Les rangers des parcs américains en sont venus à parler de «mort par GPS» pour désigner les tragédies qui surviennent chaque année lorsque des personnes se fient uniquement aux informations données par le GPS plutôt qu’à ce que voient leurs yeux, et conduisent à travers des déserts, des rivières ou des lacs. Ce qu’il faut bien comprendre, c’est que ce n’est pas une série de gens bêtes faisant des trucs bêtes : cela tient dans le fait que notre cerveau aime prendre des raccourcis, aller à l’option la plus simple.
Cet instinct nous pousse alors à accorder une confiance excessive aux systèmes automatisés. Même des pilotes d’avion de chasse, extrêmement entraînés, qui ont volé des milliers d’heures et sont habitués à faire des tâches simultanées, ne sont pas protégés contre ce biais. On a pu l’observer au cours d’expériences qui les plongeaient dans des situations d’urgence. Les pilotes ont correctement suivi toutes les étapes indiquées par la procédure qu’ils ont apprise. Mais si, à un moment donné, un système automatique (l’autopilote de l’avion) leur suggère une action qui va pourtant aggraver la situation, ils vont presque systématiquement effectuer cette action. Ce biais d’automatisation rend notre comportement extrêmement facile à influencer par les machines.
Cette volonté de traiter un grand nombre d’informations est aussi au cœur des programmes de surveillance. Pourtant, vous soulignez que celle-ci est aussi rendue inefficace parce qu’elle capte un trop grand nombre de données. Pourquoi ?
Toutes les études sur la surveillance montrent qu’elle est très peu efficace pour empêcher les crimes et les délits. Plusieurs raisons expliquent cela ; l’une d’elles, c’est qu’elle génère un surplus d’informations que personne n’est en mesure de traiter. En commentant l’attentat du 11 septembre 2001, un responsable français de la lutte antiterroriste a déclaré : «Au moment même où nous sommes submergés par l’envie et l’admiration devant l’étendue et la profondeur de la capacité de renseignements des Américains, nous commençons à nous estimer vraiment chanceux de ne pas avoir à traiter l’impossible masse d’informations qu’elle génère.» Les Etats-Unis étaient confrontés à un problème insoluble : l’information était là, mais au milieu d’une telle masse de données que personne n’était en mesure d’en tirer un enseignement pertinent. Ce problème est le résultat d’une forme computationnelle de surveillance.
Les révélations d’Edward Snowden concernant les pratiques illégales de la NSA aux Etats-Unis n’ont-elles pas permis d’adopter des pratiques de surveillance plus raisonnables, plus ciblées ?
Je me suis longuement demandé quelles conséquences pouvaient avoir ces «révélations» – la plupart de ce que Edward Snowden a mis au jour était, en réalité, déjà bien renseigné plusieurs années auparavant. A mon sens, leur effet principal, c’est que ces pratiques, qui auparavant étaient illégales, sont aujourd’hui conduites de manière complètement légale. Elles n’ont donc pas stoppé la surveillance, mais l’ont fait entrer dans le droit commun.
Autre chose m’a frappé : les lanceurs d’alerte comme Edward Snowden ou WikiLeaks fonctionnent exactement selon la même logique que les agences d’espionnage dont ils dénoncent les pratiques. Ils partagent une même croyance qu’une information est cachée, et qu’il suffirait de la révéler à la lumière pour que tout redevienne normal. C’est la même logique que partagent les associations environnementales, qui sont persuadées qu’il suffirait de générer toujours plus de données sur les perturbations du climat pour faire changer la société.
Cela ne semble pas très bien marcher, à ce stade. Ce qui est la vérité et ce qui est scientifiquement connaissable, ce sont des questions d’épistémologie. Et c’est très différent de la quantité d’informations nécessaire pour agir – qui est le stade que nous aurions dû avoir franchi il y a bien longtemps. C’est encore une fois une manifestation de la pensée computationnelle, qui nous fait penser comme des machines et vouloir connaître l’ensemble des informations d’un problème avant d’agir.
Ce qui signifie qu’il faudrait accepter plus d’incertitudes, à l’égard du monde comme à l’égard de la technologie ?
Il s’agit de reconnaître que notre compréhension du monde est toujours limitée, qu’il faut donc introduire des nuances dans les certitudes que l’on proclame. Cela change notre relation les uns aux autres, notre modèle politique mais aussi notre relation au monde. Parce que dans ce cas, on arrête de voir le monde comme une série de «problèmes» que l’on pourrait «résoudre», et on commence à l’envisager comme des situations que l’on pourrait essayer d’améliorer.
Un élément de la technologie que l’on peine à comprendre est le «cloud». Vous soulignez que cette métaphore peut être trompeuse… Mais aussi qu’elle est féconde.
Je déteste en même temps que j’adore ce terme. Le réseau informatique est appelé «nuage» parce que ainsi, vous n’avez pas besoin de réfléchir à ce qu’il est vraiment : cela sous-entend qu’il est le problème de quelqu’un d’autre. Or croire que l’infrastructure la plus essentielle dans la vie quotidienne de la plupart d’entre nous serait quelque chose dont nous n’avons pas à nous soucier me semble extrêmement dangereux. Elle ne fait que masquer le pouvoir de ce réseau, sa réalité environnementale, sociale, économique, et le fait qu’il ne s’agit pas d’un nuage mais d’usines d’ordinateurs qui pompent de l’électricité.
D’un autre côté, il y a quelque chose d’incroyablement beau dans le fait que nous avons choisi d’appeler, de manière inconsciente, l’entité la plus puissante de nos vies quotidiennes d’après les nuages, qui sont nébuleux et inconnaissables. C’est un bon rappel que malgré toutes nos idées sur l’efficacité et l’infaillibilité des ordinateurs, ils sont aussi un peu comme les conditions météorologiques : ils vont et viennent, font des choses que l’on ne comprend pas, et on ne peut pas tout prévoir de leur fonctionnement.
Un Nouvel Age de ténèbres. La technologie et la fin du futur, de James Bridle, aux éditions Allia, 320pp., 20€.