Kelly Born analyse l’impact de l’IA sur la politique
Yascha Mounk et Kelly Born débattent des conséquences socio-économiques de l’intelligence artificielle.
Si vous souhaitez que je continue à partager mes écrits en français, je vous serais reconnaissant de transmettre cette publication à trois amis et de les inviter à s’abonner.
- Yascha
Kelly Born est la directrice fondatrice de l’initiative Démocratie, droits et gouvernance de la Fondation Packard.
Dans la conversation de cette semaine, Yascha Mounk et Kelly Born explorent l’impact que l’IA pourrait avoir sur la démocratie et la société, et la manière d’y répondre.
Ce qui suit est une traduction abrégée d’une interview enregistrée pour mon podcast, « The Good Fight ».
Yascha Mounk : Nous nous connaissons depuis longtemps. Nous nous croisons dans toutes sortes de conférences. Mais vous avez fait une présentation très intéressante lors d’une conférence à laquelle j’ai récemment assisté, qui nous a aidés à réfléchir aux différents types d’impacts que l’IA va avoir sur le monde politique.
Avant d’entrer dans les détails, comment devons-nous envisager cela, depuis les façons évidentes et directes dont l’IA influence déjà le monde jusqu’aux façons plus lointaines, mais potentiellement beaucoup plus marquantes, dont elle pourrait transformer le monde dans 5, 10 ou 20 ans ?
Kelly Born : J’ai le sentiment que l’IA va avoir un impact sur à peu près tout. Il s’agit d’une technologie à usage général. Comme pour tout changement technologique majeur dans le passé, qu’il s’agisse de l’imprimerie, de la radio, de la télévision ou d’Internet, on observe d’énormes changements sociaux, politiques et économiques.
Mais je pense que l’IA est un peu différente pour plusieurs raisons. Tout d’abord, c’est une véritable technologie polyvalente. Elle n’est pas comme les réseaux sociaux, qui affectent principalement les communications. L’IA va affecter la santé, la science, la sécurité nationale, le secteur bancaire, les transports, bref, tous les secteurs.
Non seulement elle aura un impact incroyablement large, mais elle est déployée plus rapidement que pratiquement toutes les technologies que nous avons connues jusqu’à présent. Nous avons donc beaucoup moins de temps pour nous adapter en tant que société et en tant que démocratie.
Mounk : Expliquez-moi cette affirmation, car je pense que c’est quelque chose dont les personnes qui s’intéressent à l’IA ont beaucoup entendu parler, mais qui n’est peut-être pas aussi évident pour d’autres. Il existe un scepticisme résiduel étrange à l’égard de l’IA chez une grande partie de la population, qui estime qu’elle est en quelque sorte inutile, qu’elle hallucine beaucoup et qu’elle ne fonctionne pas réellement. Lorsque vous dites qu’elle est adoptée plus rapidement que toute autre technologie, sur quoi vous basez-vous ?
Born : Certes, cela repose sur de nombreuses déclarations d’entreprises concernant son adoption, mais on constate qu’elle est utilisée par des centaines de millions de personnes. Je pense que vous constatez également que tout le monde en parle et l’utilise. Je pense donc qu’il ne faut pas se contenter de croire les entreprises sur parole : elle est très présente dans l’air du temps et est clairement adoptée rapidement.
Mounk : Quand on voit le nombre de millions d’utilisateurs qui paient chaque mois pour OpenAI, ainsi que pour d’autres plateformes d’IA, on peut se demander si les investissements colossaux que ces entreprises consacrent à cette technologie seront rentabilisés par ces dépenses.
Mais quand on regarde la part des consommateurs américains qui paient aujourd’hui de manière proactive pour une plateforme d’IA, on constate qu’il s’agit d’un nombre très important de personnes. Pour une technologie qui n’est commercialisée que depuis trois ans, c’est en fait une adoption très rapide, ce qui semble indiquer qu’au moins ces personnes pensent, à tort ou à raison, qu’elle apporte une certaine valeur ajoutée.
Born : Je pense que c’est vrai. Elle est rapidement adoptée, et c’est une technologie qui est adoptée dans une société très instable, avec de nombreux défis importants en matière de confiance dans les institutions, de polarisation et d’inégalités économiques. L’introduction rapide d’une technologie à usage général est donc, à mon avis, préoccupante.
Mounk : Une chose que je trouve vraiment intéressante, c’est que lorsque les gens parlent de l’IA, j’ai parfois l’impression qu’il y a une polarisation entre ceux qui pensent qu’elle est complètement inutile et qu’elle ne fait que halluciner, et ceux qui pensent que dans trois ans, elle sera si intelligente que nous serons tous au chômage. Il y a également une polarisation entre ceux qui s’inquiètent de choses très petites et concrètes et ceux qui s’inquiètent de choses vastes et intangibles.
D’un côté, une grande partie de la littérature sur l’éthique et l’IA traite de la discrimination algorithmique. Lorsqu’un système d’IA aide à déterminer le prix de votre influence, il peut finir par discriminer les groupes vulnérables de toutes sortes de façons, ce qui est bien sûr un mauvais résultat, mais semble être un élément relativement mineur dans la façon dont il pourrait influencer le monde. De l’autre côté, vous avez des gens comme Nate Soares, qui a récemment participé au podcast et qui a coécrit avec Eliezer Yudkowsky ce livre, If Anybody Builds It, Everybody Dies. L’idée est que la fin de l’humanité est proche si nous ne mettons pas un moratoire sur l’IA dès demain. Parlez-nous un peu de ce qui se trouve entre ces deux extrêmes. Quels sont les différents types d’impacts que vous essayez d’envisager, qui vont un peu au-delà de ces impacts immédiats et très directs, mais qui ne vont peut-être pas jusqu’à l’esclavage de vous-même et de tous vos enfants par une IA super intelligente ?
Born : Je travaille dans le domaine de la démocratie depuis un certain temps déjà, donc j’y réfléchis en termes d’implications pour la démocratie. Comme l’IA va avoir des répercussions très diverses sur la démocratie, j’ai tendance à la considérer comme une série de cercles concentriques. On commence par le centre de la cible, le plus évident, auquel tout le monde pense lorsqu’il est question d’IA et d’élections, puis on réfléchit aux avantages et aux inconvénients dans chacun de ces domaines.
Par exemple, dans le contexte des élections, du côté positif, nous savons que les administrateurs électoraux aux États-Unis manquent cruellement de ressources, ils commencent donc à utiliser l’IA pour localiser les bureaux de vote, vérifier les adresses postales, etc. Bien sûr, il existe toutes sortes de risques. On parle beaucoup de la désinformation, mais aussi des attaques de phishing qu’elle rend possibles. Il y a les aspects vraiment évidents liés au fonctionnement de la démocratie et aux élections, puis on passe à l’utilisation de l’IA par le gouvernement dans les domaines exécutif, législatif, judiciaire et militaire. On voit des villes la déployer pour améliorer les itinéraires de bus, ou le département d’État affirmer avoir réduit d’environ 60 % le temps consacré aux demandes FOIA.
Il y a des implications pour les rouages de la démocratie, les élections et la gouvernance, puis on en arrive à ce que je considère comme les conditions préalables à la démocratie : l’engagement politique et la culture. Un cercle plus loin, on trouve l’écosystème de l’information. Au-delà, il y a les conditions socio-économiques, la concentration des richesses et du pouvoir, et les implications pour le marché du travail. Un niveau plus loin, on trouve les conditions géopolitiques, notamment l’équilibre relatif des pouvoirs entre les nations autoritaires et démocratiques et la manière dont nous nous engageons vis-à-vis de la Chine. Le cercle le plus éloigné est celui des risques systémiques ou existentiels, où se trouvent une grande partie des risques biologiques et cybernétiques. Lorsque les gens parlent de l’IA qui va tous nous tuer, c’est à ce cercle qu’ils font référence.
Ce qui prête à confusion dans ce domaine à l’heure actuelle, en particulier lorsque les gens parlent d’IA et de démocratie, c’est que les discussions passent d’un niveau à l’autre, des détails techniques les plus pointus aux conditions préalables à la survie des gouvernements démocratiques, voire du monde lui-même.
Mounk : Je pense que c’est une façon très utile d’organiser les différents types de sphères dans lesquelles l’IA va avoir un impact. Il est évident que ces sphères sont interdépendantes. Le but n’est pas de dire qu’il s’agit de sphères complètement distinctes les unes des autres, mais cela aide à clarifier les concepts de les envisager en ces termes. Pourquoi ne pas commencer par l’un des cercles concentriques les plus étroits, puis élargir un peu notre champ de vision ? Le gouvernement est l’un des domaines où l’on pourrait penser que le potentiel d’impact positif est relativement plus élevé que dans d’autres domaines. Si les systèmes d’IA nous rendent vraiment plus productifs et sont capables d’améliorer la prestation des services gouvernementaux, ce serait évidemment une bonne chose.
Le sceptique en moi veut dire, tout d’abord, que la capacité à y parvenir dépend, en général, de la possibilité d’adopter cette technologie aussi facilement que les gens le prédisent. Certaines études affirment que 95 % des entreprises qui ont essayé d’intégrer l’IA dans leurs processus finissent par ne pas l’utiliser beaucoup après un certain temps. Cela peut être lié au stade de développement de la technologie, mais cela soulève une question plus large.
Si la MTA utilise l’IA pour analyser les itinéraires les plus judicieux et déterminer s’il convient de modifier le trajet de certains bus, le nouveau plan des itinéraires sera-t-il réellement meilleur que l’ancien, ou sera-t-il un échec ? Il existe également des préoccupations éthiques quant au fait que certaines décisions gouvernementales soient prises par un algorithme que nous ne comprenons pas entièrement et dont nous ne savons pas vraiment comment il fonctionne. Devrions-nous nous en accommoder ? Cela peut-il conduire à certaines formes de discrimination ou cela va-t-il à l’encontre de l’idée d’un gouvernement par le peuple et pour le peuple ? Si une machine prend ces décisions à notre place, cela nuit-il à l’action démocratique ?
Que pensez-vous des avantages et des inconvénients de la manière dont l’IA va transformer la façon dont notre gouvernement accomplit son travail un mercredi ordinaire ?
Born : C’est un domaine complexe. Je pense que nous voyons déjà clairement les avantages. Une équipe de Stanford a mené une excellente étude en collaboration avec la ville de San Francisco afin d’examiner des milliers de pages de rapports exigés par le gouvernement fédéral et a constaté qu’environ 35 % d’entre eux n’étaient tout simplement pas utilisés ou examinés. Elle a utilisé ces données pour revenir en arrière et plaider en faveur de la suppression de l’obligation de soumettre ces rapports.
Il existe clairement des domaines dans lesquels les gens trouvent déjà une valeur à cette technologie. Je vois des idées pour des choses comme des bacs à sable politiques dans le pouvoir législatif. Pourriez-vous créer un système d’IA qui permettrait aux décideurs politiques de réfléchir à une politique environnementale qu’ils souhaitent envisager, de la tester dans quatre scénarios futurs différents et de théoriser comment cette politique pourrait se dérouler dans le monde réel dans chacun de ces scénarios et comment ils pourraient vouloir la modifier ou la pérenniser ? On voit toutes sortes d’idées intéressantes, dont certaines donnent déjà des résultats concrets, tandis que d’autres en sont encore à un stade beaucoup plus précoce. Je pense que c’est un domaine où les avantages potentiels l’emportent probablement sur les coûts, en particulier à un moment où nous avons vraiment besoin de renforcer la confiance dans la capacité des institutions démocratiques à tenir leurs promesses.
Il existe des risques importants. Il y a des histoires horribles, comme celle du MIDAS du Michigan, souvent citée, qui a été déployé pour contrôler les allocations chômage de milliers de personnes et qui présentait un taux d’inexactitude incroyablement élevé, entraînant la faillite de nombreuses personnes. C’était en 2013, et nous avons beaucoup progressé depuis. Je ne dis pas qu’il n’y a pas de problèmes. Les risques sont bien réels. Beaucoup de gens sont désormais lucides quant à la nécessité de mettre en place des systèmes de génération augmentée par la récupération, dans lesquels on dispose d’un corpus très étroitement défini, ce qui réduit les risques de biais par rapport à ce que nous avons connu auparavant.
Les gens se penchent également sur la question de savoir comment maintenir les humains dans la boucle. Pour répondre à votre remarque sur le gouvernement par et pour le peuple, je pense souvent à la façon dont The Economist présente les cotes de démocratie et la menace de l’autocratie et de la technocratie comme des risques parallèles. La question de savoir s’il faut maintenir les humains dans la boucle est vraiment importante, mais il existe des moyens de concevoir des systèmes qui sont au moins moins biaisés que ceux que nous avons connus jusqu’à présent.
Mounk : Je pense qu’il est risqué de supposer que si un système d’IA est impliqué et qu’il peut entraîner une certaine forme de partialité, cela est totalement inacceptable, tout en supposant tacitement que le statu quo ou l’alternative hypothétique n’implique aucune partialité. Un exemple évident de cela dans un contexte différent est le débat sur Waymo qui, selon les meilleures études dont nous disposons à ce jour, affiche un bilan de sécurité routière bien meilleur que celui des conducteurs humains. Il semble probable que si nous adoptions beaucoup plus de voitures autonomes au niveau technologique actuel, sans parler du niveau que nous pourrions atteindre dans cinq ou dix ans, nous sauverions des milliers de vies chaque année aux États-Unis et des dizaines, voire des centaines de milliers de vies dans le monde entier. Mais lorsqu’il y a des cas où une Waymo a écrasé un chat à San Francisco, cela devient soudainement inacceptable.
Nous voulons évidemment faire très attention à ne pas accroître la discrimination dans notre société par l’intégration de systèmes d’IA. Un bon objectif est la discrimination zéro, mais cela ne peut pas être la condition préalable à l’adoption de systèmes d’IA. Si un système d’IA réduit les préjugés et la discrimination dans la prise de décision concernant les prestations sociales que nous voulons accorder, cela semble être une amélioration par rapport au statu quo. Il semble étrange d’exiger que la norme soit zéro préjugé dès le premier jour.
Born : Je pense que l’idée selon laquelle les gens ne devraient pas comparer ces systèmes au Tout-Puissant, mais plutôt à l’alternative, continue d’avoir du sens. Je tiens toutefois à préciser que personne ne prétend ou ne dit que ces systèmes ne comportent pas de biais. À ce stade, tout le monde s’accorde clairement à dire que ces systèmes sont entraînés sur le corpus des connaissances humaines, qui comporte lui-même des biais.
Votre remarque sur l’alternative est importante. L’alternative n’est pas un système décisionnel humain parfait. Il s’agit d’années et d’années d’attente pour des décisions qui peuvent elles-mêmes être biaisées.
Mounk : Cela m’amène à un autre point. J’ai trouvé très intéressant ce que vous avez dit sur le fait que les demandes FOIA (Freedom of Information Act) peuvent désormais être traitées plus facilement. L’idée, je suppose, est qu’une partie de ce processus consiste à passer en revue un grand nombre de documents et à déterminer lesquels sont pertinents et lesquels ne le sont pas, et qu’une partie de ce travail peut être automatisée. Vous êtes alors en mesure de répondre à ces demandes importantes dans des délais plus courts, ce qui est évidemment l’objectif des lois visant à rendre le gouvernement plus transparent.
Bien sûr, c’est une course à l’armement. J’ai été frappé par le fait que j’ai parlé à quelqu’un qui travaille dans un grand magasin et qui a un réel problème dans son service juridique. Dans le passé, de nombreux clients écrivaient des lettres qui provenaient manifestement de personnes sans grande expertise juridique et formulaient des demandes qui ne semblaient pas très plausibles, il était donc facile de dire que ces demandes n’étaient pas raisonnables. Aujourd’hui, ils reçoivent une avalanche de lettres qui semblent beaucoup plus sophistiquées, car elles ont été rédigées par ChatGPT ou un autre système d’IA, et le service juridique a beaucoup de mal à traiter toutes ces demandes.
Voulez-vous (ou connaissez-vous quelqu’un) qui aimerait recevoir mes articles et mes discussions directement dans votre boîte aux lettres en allemand ou en anglais?
On peut supposer que la même chose va se produire dans le cas du gouvernement. D’une part, le gouvernement sera mieux à même de répondre aux demandes des citoyens, ce qui est une bonne chose. D’autre part, il sera également beaucoup plus facile d’intenter des poursuites judiciaires abusives pour paralyser la bureaucratie dans le cadre de tout projet de construction, en opposant des objections plausibles à certaines évaluations environnementales.
Il est difficile de savoir où cette course à l’armement va aboutir. Est-ce que l’amélioration de la capacité à fournir certains services va être le facteur dominant, ou est-ce que l’amélioration de la capacité de certains citoyens bien intentionnés, et de certains groupes d’intérêts particuliers moins bien intentionnés ou de personnes qui veulent simplement paralyser le système, va être plus puissante ? Il est très difficile de prédire quel camp va l’emporter dans cette course à l’armement.
Born : Je pense que ce que vous soulignez, c’est que le processus de notification et de consultation est déjà défaillant, et nous le constatons déjà. Il y a un monde dans lequel vous imaginez que l’IA fait partie du problème et le détruit, et un autre dans lequel elle fait partie de la solution et aide à le filtrer. Vous entendez beaucoup de gens parler d’un avenir où les agents IA deviendront plus dominants sur la scène, et vous vous retrouvez avec un groupe d’agents IA qui dialoguent entre eux. Les agents gouvernementaux filtrent les informations entrantes, et les agents citoyens les inondent d’informations.
Il y a un autre domaine dans lequel je travaille et dont nous n’avons peut-être pas encore parlé. En plus de travailler sur l’IA et la démocratie, nous travaillons également à l’amélioration de l’efficacité du gouvernement. La question de savoir qui remportera la course à l’armement repose souvent sur l’idée que le système restera plus ou moins stable tel qu’il est actuellement, avec des sessions de notification et de commentaires ou des mécanismes similaires. Nous discutons également avec divers groupes de la manière de repenser l’avenir des institutions gouvernementales afin de proposer des alternatives complètement différentes aux sessions de notification et de commentaires.
Une question intéressante se pose : où verrons-nous une course à l’armement dans les systèmes existants et où verrons-nous apparaître des systèmes entièrement nouveaux, qui devront alors faire face à leurs propres courses à l’armement ?
Mounk : C’est un très bon point. La dimension de la course aux armements sera présente dans n’importe quel système, mais la question est de savoir comment le système va évoluer pour s’adapter à cette technologie. Si nous remontons un peu dans l’échelle des préoccupations pour aborder les questions de culture politique et d’engagement, et plus largement l’écosystème de l’information, c’est là que nous commençons à nous demander si nous serons encore capables d’avoir de véritables conversations en tant que citoyens.
Une grande partie du contenu produit sur Internet, y compris les articles d’opinion publiés dans les journaux et certainement une grande partie de ce que nous voyons sur les réseaux sociaux, pourrait être de plus en plus produite par des systèmes d’IA, ce qui pourrait nuire à notre capacité à communiquer entre nous de manière plus générale. Ce qui m’inquiète, c’est l’émergence d’une ère de cynisme. Que se passera-t-il lorsqu’il y aura des vidéos falsifiées partout ? Ce n’est pas nécessairement que les gens croiront ces vidéos falsifiées, mais plutôt qu’ils ne sauront jamais vraiment ce qui est authentique et ce qui ne l’est pas, ce qui peut engendrer une attitude généralement cynique envers le monde.
Les gens commencent à avoir le sentiment qu’ils ne peuvent pas vraiment savoir ce qui est vrai ou faux, ou ce qui est réel, et cela peut nuire considérablement à la factualité fondamentale dont nous avons besoin pour qu’un système démocratique fonctionne de manière significative.
Born : Je pense que c’est vrai. J’ai tendance à classer les impacts de l’écosystème de l’information, du moins les impacts négatifs, en trois catégories. Celle qui inquiète le plus les gens, mais qui ne me préoccupe pas autant, est la persuasion, l’idée que quelqu’un va changer son vote ou que ce contenu va faire changer d’avis les gens. J’ai le sentiment que, malheureusement, nous sommes dans une situation où nous sommes tellement polarisés que, du moins dans le système politique actuel, la persuasion est plus difficile. Bien sûr, si un nouveau type de Pizzagate apparaît, vous pourriez convaincre quelqu’un de quelque chose, mais je suis un peu moins préoccupé, comme vous, par l’aspect persuasion.
Je suis plus préoccupé par le nihilisme appris, le dividende du menteur, le sentiment que rien n’est vrai et que tout est possible. Cela ressemble au modèle russe de propagande, où il y a tellement de bruit que personne ne peut comprendre quoi que ce soit. Je pense que c’est le deuxième panier. Le troisième panier, dont on parle moins, concerne les questions relatives à l’érosion de la qualité, au corpus des connaissances humaines et à ce qui va se passer dans ce domaine. Il y a le débat sur les droits d’auteur et les incitations qui seront mises en place pour créer de nouveaux contenus à l’avenir, mais il y a d’autres aspects qui m’inquiètent également.
L’effondrement des modèles est un sujet qui revient souvent, l’idée que les modèles commencent à ingérer leurs propres résultats et n’ont plus de nouveaux contenus sur lesquels s’appuyer. Il y a également des questions sur la manière dont nous interagissons avec la connaissance elle-même. Lorsque vous utilisez Google, vous posez une question, obtenez dix réponses et pouvez y réfléchir. Lorsque vous posez une question à un assistant vocal ou à un système similaire, celui-ci doit produire une seule réponse, ce qui peut considérablement simplifier le monde et la vérité. Il ne s’agit donc pas seulement de persuasion, ni seulement du dividende du menteur ou du nihilisme. Il s’agit également de la manière dont cela modifie l’ensemble des informations avec lesquelles nous travaillons et notre interaction avec les connaissances.
Mounk : Je me demande si les préoccupations concernant les chambres d’écho et les bulles de filtrage, qui sont assez anciennes à ce stade et pour lesquelles les preuves empiriques sont assez mitigées, pourraient finalement se concrétiser. L’idée que nous finissons par nous retrouver dans une chambre d’écho en ligne est intuitivement séduisante. Certaines preuves suggèrent que cela pourrait être vrai dans une certaine mesure. Lorsque nous rencontrons des contenus provenant de personnes qui ne sont pas d’accord avec nous, ceux-ci ne sont souvent pas représentatifs, mais constituent plutôt les contenus les plus extrêmes et les plus révoltants de l’autre camp. Mais il est moins évident qu’on ne le pense que cela se produise de manière systématique.
Le paysage médiatique préexistant était déjà tel que, si vous étiez progressiste, vous lisiez peut-être The Nation, et si vous étiez conservateur, vous lisiez peut-être National Review. Ce n’est pas comme si tout le monde consommait tout le temps des contenus politiquement neutres. Mais on peut imaginer qu’il existe une tendance très évidente, du moins pour l’instant, chez ces chatbots à vouloir vous faire plaisir. Ils sont littéralement programmés pour obtenir des commentaires positifs et formés pour produire des textes susceptibles de plaire à l’utilisateur. À mesure que ces modèles gagnent en maturité et que la concurrence entre les entreprises qui les développent s’intensifie, chacune d’entre elles sera fortement incitée à trouver des moyens pour que ces systèmes s’adaptent directement à vos goûts.
Je constate déjà que lorsque mes amis me montrent les questions qu’ils ont posées à ChatGPT, le ton est souvent différent de celui que j’obtiens, car le chatbot s’est adapté au fil du temps à ce qu’ils semblent aimer entendre et à la façon dont ils s’adressent à lui. On peut imaginer que si vous avez une vision du monde très progressiste, ces chatbots vous diront : « Bien sûr, vous avez raison, c’est objectivement ainsi que les choses se passent », puis s’appuieront sur les écrits les plus intelligents qui soutiennent votre point de vue tout en dénigrant les opinions contraires. À l’inverse, si vous êtes très conservateur, ils pourraient vous dire que les progressistes ont complètement tort et se rangeront plutôt de votre côté.
Nous pourrions peut-être trouver un moyen d’éviter cela. Les concepteurs de ces systèmes pourraient reconnaître le danger et essayer d’imposer une sorte de réalité commune basée sur ce qu’ils pensent être le mieux. Mais cela semble tout aussi problématique. Cela signifierait qu’une personne de la Silicon Valley déciderait quelles valeurs politiques ces systèmes d’IA représentent comme étant la réalité évidente du monde. Ils pourraient défendre des valeurs avec lesquelles je suis d’accord, ou des valeurs que je trouve profondément troublantes, ou ils pourraient simplement se tromper sur des questions factuelles importantes. On ne sait même pas clairement quelle serait la bonne situation dans ce cas. Quoi qu’il en soit, cela semble profondément dangereux.
Born : J’ajouterais à ces préoccupations concernant la flagornerie la question de savoir qui détermine la vérité. La capacité à gérer les conflits est liée à la flagornerie. Une démocratie réussie nécessite la capacité de mener des débats animés, et la flagornerie que nous observons dans ces modèles y fait obstacle.
Certaines études, dont certaines ont été remises en question ou réfutées, examinent l’idée d’un déclin cognitif associé à l’utilisation de modèles. J’essaie encore de comprendre ce phénomène, mais au moins en théorie, cela semble logique. Ces études impliquent la cartographie du cerveau, en comparant ce qui se passe dans une conversation avec une autre personne, avec l’utilisation de Google et avec l’interaction avec des systèmes de type GPT. Certaines de ces études soulèvent des questions méthodologiques, mais les chercheurs continuent d’étudier ces questions. Comment la capacité d’une personne à s’engager dans la démocratie se développe-t-elle si elle grandit en interagissant principalement avec un modèle d’IA flagorneur et agentique, si elle ne connaît que très peu de conflits et si elle ne fait pas ses propres recherches ? Quel type de capacité cela produit-il pour un débat démocratique significatif ?
Mounk : Il y a également la question de l’évolution de la technologie elle-même. Je suis pour l’instant un peu sceptique quant à certaines de ces affirmations, et cela tient peut-être simplement à la façon dont j’utilise ces systèmes, mais je trouve que je suis capable d’approfondir mes recherches dans un échange avec ChatGPT d’une manière qui me semble différente de celle de Wikipedia, où l’on reste souvent à un certain niveau de généralité.
Je me suis récemment rendu compte que je n’avais pas suivi autant que je l’aurais souhaité l’impact du gouvernement de Giorgia Meloni sur l’Italie elle-même. Beaucoup a été écrit sur son rôle dans le système international, où elle s’est révélée plus atlantiste que prévu, mais je n’étais pas vraiment au courant des détails de la réforme constitutionnelle qu’elle tente de mettre en place. Pour ce genre de question, il peut être utile de dire : « Je ne comprends pas très bien la nature de cette proposition, donnez-moi plus de détails, quels sont les avantages et les inconvénients ? » J’ai l’impression que mon cerveau est tout aussi actif que si j’essayais de trouver des articles pertinents dans les journaux italiens ou sur Wikipédia.
Il s’agit toujours d’un processus d’acquisition de compétences. Il est frappant de constater que le principal mode d’interaction consiste jusqu’à présent à taper et à lire, ce qui est une forme de littératie. Mais tout comme les réseaux sociaux ont commencé sous une forme relativement textuelle avant d’évoluer vers quelque chose comme TikTok, qui est principalement vidéo, puis d’influencer toutes les autres plateformes, nous verrons probablement quelque chose de similaire avec l’IA. Il est déjà possible de parler aux systèmes d’IA par la voix, et les grandes entreprises d’IA investissent massivement dans des flux où le contenu vidéo est diffusé en continu et où les utilisateurs sont beaucoup plus passifs.
Je suis sceptique quant à certaines des études menées jusqu’à présent sur la manière dont nous interagissons actuellement avec l’IA à cet égard, mais elles pourraient finalement s’avérer justes quant à la direction que prend la technologie et au mode d’interaction avec l’IA qui sera probablement dominant pour la plupart des gens, pendant une grande partie de la journée, à l’avenir.
Born : Je pense que c’est vrai. Cela dépend vraiment de la façon dont vous l’utilisez et de ce que vous faites avec. Lorsque je fais des recherches, j’ai dîné la semaine dernière avec l’un des vingt premiers employés d’Anthropic, et nous avons discuté de la façon dont nous utilisions l’IA. Il m’a dit qu’il consacrait une semaine par mois à essayer de tout faire en utilisant l’IA, ce qui signifie qu’il ne fait rien sans d’abord essayer d’utiliser l’IA.
Je trouve que parfois, je réfléchis beaucoup plus clairement. Comme vous l’avez dit, lorsque je fais des recherches, je fais des allers-retours comme si je discutais avec l’expert mondial d’un sujet, en approfondissant ma compréhension des nuances. Mais lorsque j’essaie de demander à l’IA d’écrire quelque chose pour moi, c’est souvent un désastre, et j’ai l’impression de devenir plus bête à mesure que je lis. Cela dépend donc vraiment. Je ne pense pas qu’il y ait une réponse unique à la question de l’impact sur les compétences cognitives.
Mounk : L’une de mes préoccupations, motivée en partie par l’enseignement et par la façon dont les universités traitent actuellement l’IA, est que de nombreux universitaires, et probablement aussi des enseignants du secondaire, sont profondément naïfs quant à ce que l’IA est capable de faire. J’ai discuté avec plusieurs personnes qui affirment que si l’IA est capable d’obtenir un B-moins dans les devoirs standard, elle ne serait pas en mesure de gérer les devoirs plus créatifs.
Dans les devoirs standard basés sur des dissertations en sciences humaines et sociales, l’IA est aujourd’hui capable d’obtenir un A-moins ou un A dans presque toutes les classes des universités où j’ai enseigné, y compris Harvard et Johns Hopkins. Ces devoirs créatifs seraient également tout à fait à sa portée. En conséquence, toute une génération d’étudiants est actuellement formée sans avoir jamais rédigé de dissertation au lycée, car il est trop tentant de laisser ChatGPT le faire à leur place, et sans jamais rédiger de dissertation à l’université.
À mon avis, l’acte de penser nécessite souvent d’écrire. Lorsque les gens disent qu’ils sont mauvais en écriture, aussi dur que cela puisse paraître, c’est souvent parce qu’ils n’ont pas appris à penser. Une fois que vous essayez de coucher des mots sur le papier, vous vous rendez compte où vous avez fait des sauts logiques et ce que vous n’avez pas entièrement réfléchi. En ce sens, je suis très inquiet au sujet de la perte cognitive, à moins que les universitaires ne trouvent une manière plus intelligente d’aborder cette question.
Pour la première fois de ma vie, à Johns Hopkins, je vais faire passer un examen avec papier et crayon à mes étudiants. En même temps, je leur permettrai d’utiliser l’IA autant qu’ils le souhaitent pour rédiger leur dissertation finale. D’un côté, je veux qu’ils explorent l’IA pour produire le meilleur résultat possible, ce qui nécessite tout de même qu’ils réfléchissent par eux-mêmes et écrivent une partie de leur dissertation. D’autre part, je vais les faire asseoir dans une salle de classe et leur faire répondre à des questions générales sur les thèmes du cours afin de m’assurer qu’ils sont toujours capables de réfléchir à la matière et d’exprimer des idées claires et cohérentes avec leurs propres mots.
À l’heure actuelle, il est probablement possible de terminer ses études universitaires sans faire grand-chose de tout cela. Dans une large mesure, le système semble jusqu’à présent nier cette réalité. Parlez-moi des conditions socio-économiques.
Born : Puis-je revenir rapidement en arrière ? Il y a un élément que nous avons omis, à savoir l’engagement politique et la culture politique. Nous en avons un peu parlé en termes de mécanismes d’engagement défaillants, de la manière dont les gens expriment leurs opinions dans une démocratie. Nous avons parlé de l’information, qui est souvent à sens unique, les gens collectant des faits et prenant des décisions sur cette base. Mais la question de l’engagement est également intéressante.
Ici, vous voyez au moins quatre défis. L’un d’eux est celui des systèmes défaillants, notamment les boucles inondées de notifications, de commentaires et de retours dont nous avons discuté. Il y a également des inquiétudes concernant le silence actif, notamment le doxxing, le trolling et la surveillance étatique, et leurs conséquences sur le débat démocratique. Ensuite, il y a le silence passif, ou l’engagement faible, où les gens participent de manière très superficielle aux processus de démocratie délibérative en ligne. Ils cochent une case, s’engagent par le biais de l’IA plutôt qu’avec d’autres personnes, se désengagent complètement ou commencent à confier leur engagement civique à des agents IA dès qu’ils sont en ligne.
J’ai tendance à considérer ces éléments comme quatre catégories : les systèmes défaillants, le silence actif, le silence passif et l’engagement limité. Du côté des défis, ce sont les questions auxquelles les gens sont confrontés. Dans le même temps, il y a des développements vraiment intéressants. Une grande partie du travail de Jigsaw, chez Google, s’est orientée vers les assemblées citoyennes alimentées par l’IA. On assiste à l’émergence de nouvelles formes de sondages et d’analyse des sentiments. Dans le domaine de la création de mouvements, ces outils sont utilisés pour mieux comprendre les régimes autoritaires, notamment en identifiant les piliers du pouvoir ou le soutien financier derrière des événements tels que les manifestations en Géorgie ou les déploiements de l’ICE à Los Angeles.
Ces outils sont également utilisés pour mieux comprendre les structures de pouvoir et de financement qui sous-tendent de nombreux mouvements. L’évolution de ces technologies devrait entraîner des changements importants dans la manière dont les gens interagissent avec les institutions démocratiques et entre eux. Je ne voulais pas passer à côté de cela, car il existe tout un écosystème d’acteurs à but non lucratif et de la société civile qui s’efforcent activement de comprendre ce phénomène.
Mounk : C’est vraiment fascinant, et je suis d’accord que c’est important. Ce qui est plus important, c’est que 80 % d’entre nous perdent leur emploi. Je plaisante, mais pour monter d’un cran dans cette échelle, dans cette catégorie de conditions socio-économiques, il semble que ce soit celle où il est le plus difficile de prédire ce qui va se passer. Comme vous l’avez établi, il est difficile de prédire ce qui va se passer dans chacune de ces catégories, mais c’est celle où l’incertitude semble particulièrement radicale.
D’un côté, certains affirment que les bouleversements technologiques passés ont toujours entraîné des pertes d’emploi importantes dans certaines catégories, mais que les gens se sont simplement reconvertis. Prenons l’exemple des radiologues. Bon nombre des tâches qu’ils effectuaient auparavant ont été automatisées. On pensait que cela entraînerait une baisse des salaires des radiologues et que beaucoup d’entre eux seraient licenciés. Au lieu de cela, ce qui s’est passé, c’est que nous utilisons beaucoup plus la radiologie, et les radiologues consacrent désormais beaucoup plus de temps à des tâches à forte valeur ajoutée plutôt qu’à des tâches relativement simples et répétitives qu’ils devaient effectuer auparavant. Dans l’ensemble, cela semble être une histoire heureuse.
D’un autre côté, nous n’avons jamais eu de système doté d’une intelligence générale équivalente à celle de la plupart des êtres humains, et peut-être bientôt de tous. Dans le passé, lorsque l’on a pu imprimer des livres et que les personnes qui les copiaient minutieusement ligne par ligne n’étaient plus nécessaires, il s’agissait de personnes qualifiées, et l’économie avait toujours besoin de personnes qualifiées dans tous les domaines. Elles sont parties faire autre chose. Ce n’était peut-être pas le cas des personnes âgées de cinquante ans, pour qui c’était tragique, mais la génération suivante s’en est bien sortie. Est-ce toujours vrai lorsque la machine peut faire tout ce qu’un être humain peut faire intellectuellement au même niveau ? Je ne sais vraiment pas.
Lorsque l’on réfléchit à ces impacts sur les conditions socio-économiques, allons-nous vivre dans un monde d’abondance où nous aurons toujours besoin de personnes qualifiées pour toutes sortes de choses, ou allons-nous avoir la capacité de faire beaucoup de choses grâce aux machines, alors que personne ne gagne de salaire et que toute la base socio-économique de nos systèmes économiques et politiques s’effondre ? Qu’en pensez-vous ?
Born : Je suis d’accord. Je pense que c’est la question la plus importante, et celle qui comporte le plus d’incertitudes. J’ai discuté avec des personnes travaillant dans des entreprises technologiques, et elles m’ont dit que nous allions connaître un taux de chômage de 20 % dans les deux prochaines années en raison de ces technologies. D’après les dernières statistiques du FMI, 60 % des emplois dans les économies avancées pourraient être touchés. McKinsey, je crois, estimait que 14 % de la main-d’œuvre mondiale serait touchée. Les estimations varient considérablement, ce qui rend la planification difficile.
Ce qui rend la tâche encore plus difficile, c’est que personne ne semble avoir de plan. J’ai récemment discuté avec l’ancien responsable de l’avenir du travail pour l’administration Newsom, et la conversation a surtout porté sur la question suivante : quel est le plan ? Il n’y en avait pas. De nombreux chercheurs travaillent sur cette question et certaines idées intéressantes ont été avancées. La plupart se sont éloignés du revenu de base universel pour plusieurs raisons. Il semble difficile à mettre en œuvre sur le plan financier, et des questions se posent quant à la dignité du travail et à la volonté des gens de bénéficier d’un revenu de base universel, du moins sur le plan politique.
Les gens ont alors commencé à s’intéresser à l’idée d’un capital de base universel. La différence est que vous avez droit à ce capital si vous êtes propriétaire d’un actif. Si vous disposez d’un capital informatique universel, vous percevez des dividendes provenant de la propriété de cet actif. On peut faire valoir que, puisque l’humanité tout entière, depuis des centaines d’années, a contribué au corpus de connaissances humaines sur lequel ces modèles sont formés, nous devrions tous y avoir droit. Il existe des précédents à cela. Le modèle de dividende pétrolier de l’Alaska verse quelques milliers de dollars par an aux citoyens, et personne ne semble particulièrement s’en offusquer. Il semble fonctionner raisonnablement bien.
J’ai également vu des gens se rallier à l’idée que la redistribution n’est peut-être pas la bonne approche et qu’il faudrait plutôt se concentrer sur la prédistribution. L’argument avancé est que nous devons renforcer les droits des travailleurs et leur participation aux décisions concernant le déploiement des technologies, afin qu’ils aient un plus grand pouvoir de négociation. D’autres arguments se concentrent sur la garantie de l’emploi, qui semble bénéficier d’un certain soutien bipartite. Dans les communautés les plus touchées, la communauté pourrait se réunir pour identifier les emplois les plus nécessaires, avec une reconversion professionnelle rémunérée plutôt que non rémunérée.
De nombreuses idées sont discutées, mais le point essentiel est que personne n’a de bon plan et que les impacts potentiels sont énormes. Chaque perturbation économique majeure de l’histoire a été suivie d’un bouleversement politique massif. Il est préoccupant que personne n’ait de plan dans ce domaine.
Mounk : Deux réflexions à ce sujet. La première est que je suis d’accord avec vous sur le fait qu’il existe de nombreuses idées dans ce domaine, mais qu’aucune d’entre elles ne semble particulièrement convaincante pour diverses raisons. Nous pourrions les passer en revue une par une, mais cela serait peut-être exagéré. Elles posent toutes des problèmes logistiques et financiers très importants, ainsi qu’un problème de sens. Si les gens n’ont pas d’emploi qui leur donne un sens dans le monde, cela représente un défi personnel important, qui peut devenir un défi politique majeur.
Inventer des emplois qu’un système d’IA pourrait tout aussi bien remplir, mais que les humains continuent d’exercer en raison de règles et de réglementations, est au mieux une solution à très court terme. D’une manière ou d’une autre, toutes ces solutions semblent entrer dans l’une de ces catégories. Une autre chose qui me semble très utile est le concept de malédiction des ressources de l’IA. En sciences politiques, il existe une longue littérature sur les raisons pour lesquelles l’Arabie saoudite et d’autres pays similaires ne sont pas des démocraties.
Une réponse évidente est que les démocraties ont tendance à émerger lorsque les monarques et autres dirigeants ont vraiment besoin d’une classe moyenne éduquée comme base de revenus. Cela les incite à investir dans l’éducation et permet aux citoyens de formuler plus facilement des revendications, car ils peuvent dire : « Vous vivez de nos impôts, et en échange, nous voulons être représentés politiquement et avoir notre mot à dire sur l’utilisation de cet argent. » Si un monarque ou un dictateur a accès à de nombreuses ressources simplement grâce à la vente de pétrole, les mécanismes socio-économiques qui permettent à la classe moyenne de formuler ces revendications politiques ne se mettent jamais en place. Cela tend à être très néfaste pour le développement économique à long terme.
Si l’IA finit par remplacer de nombreux emplois de la classe moyenne et conduit à une répartition des revenus beaucoup plus polarisée, on peut la considérer comme une forme de malédiction des ressources. Cela signifierait que les personnes au sommet de la société auraient moins besoin des citoyens ordinaires pour les recettes fiscales, moins besoin d’une population éduquée et moins besoin d’une armée recrutée parmi les citoyens.
On peut imaginer qu’à un moment donné, même si cela semble encore relever de la science-fiction, ce n’est peut-être pas si lointain historiquement, de nombreux besoins en matière de sécurité seront externalisés à des drones, des robots ou d’autres systèmes. Dans ce monde, les dirigeants n’auront plus besoin de citoyens loyaux pour constituer le noyau des forces de sécurité. Tout cela serait une aubaine structurelle pour les personnes au sommet de la société.
Born : Je pense que vous abordez ici deux questions différentes, et j’aimerais les approfondir. La première concerne la dignité. Même si nous disposions d’un capital de base universel, d’une puissance de calcul, d’un revenu, peu importe le nom que vous lui donnez, cette question me semble plus facile à résoudre. Il y a des années, je faisais de la planification de scénarios, principalement pour les services de renseignement. Avant de me lancer dans la philanthropie, je travaillais dans le secteur privé, et nous faisions des travaux de prospective et de prévision pour imaginer à quoi pourrait ressembler le monde en 2050 et quelles pourraient être les implications pour la sécurité nationale si les relations sino-russes évoluaient d’une certaine manière.
Nous avons récemment fait quelque chose de similaire dans le domaine de la démocratie et avons dû travailler dur pour imaginer des scénarios qui pourraient réellement bien se dérouler en 2050, compte tenu de toutes les différentes tendances, dont l’IA est l’une parmi tant d’autres, parallèlement à la baisse des taux de natalité, au changement climatique et à l’augmentation des inégalités entre les sexes. Nous avons exploré de nombreux domaines, et la manière dont nous avons pu parvenir à la dignité dans un monde alimenté par l’IA a été de revenir au service de sa communauté. C’était essentiellement la seule voie que nous pouvions identifier qui impliquait à la fois une forte dépendance à l’IA et un certain niveau de dignité. Cela semblait être quelque chose que l’on pouvait au moins imaginer théoriquement.
Le défi auquel vous faites référence en matière de pouvoir, la malédiction des ressources et le fait que nous n’ayons peut-être plus besoin d’une classe moyenne, est beaucoup plus difficile à relever. À une époque où des personnalités comme Bezos gagnent un million de dollars par heure, nous ne savons pas vraiment quoi faire pour garantir un revenu minimum et veiller à ce que tout le monde soit pris en charge. Nous avons des idées sur la manière de gérer le plafond et d’empêcher certaines personnes d’accumuler autant de richesse et de pouvoir qu’il devient impossible pour les citoyens moyens d’avoir une influence économique, et donc politique. Mais cela revient encore une fois à une question de volonté politique.
J’aime parfois approfondir ces questions en demandant où nous ne savons vraiment pas quoi faire, et où nous savons en fait ce qu’il faudrait faire, mais où nous n’avons pas encore trouvé la volonté politique pour le faire.
Mounk : C’est une distinction très utile. Nous pourrions passer beaucoup plus de temps à discuter de ce sujet, mais je tiens à aborder un autre domaine que vous avez évoqué précédemment, à savoir le contexte géopolitique. Encore une fois, il comporte de nombreuses facettes. L’une d’elles est la concurrence entre les grandes puissances. Nous constatons déjà que la perspective d’une IA de plus en plus puissante, et le type de pouvoir que cela conférerait aux États, conduit à une concurrence entre la Chine et les États-Unis, ce qui pourrait rendre la coopération dans d’autres domaines plus difficile.
Il y a également l’élément de la technologie militaire. Comment la nature du système international serait-elle transformée si l’on pouvait produire en masse des drones capables d’attaquer un autre pays et des civils de manière très significative ? Qu’adviendrait-il de la sécurité intérieure ? Serait-il beaucoup plus facile d’assassiner des personnes si l’on pouvait envoyer un petit drone tueur pour tuer un homme politique pendant qu’il prononce un discours ou quelque chose de ce genre ? Ce sont là des questions sur les implications géopolitiques de l’IA elle-même.
Une chose qui frappe vraiment lorsque l’on lit certains des comptes rendus les plus optimistes ou les plus pessimistes, rédigés par des personnes qui pensent que l’IA va devenir incroyablement puissante très rapidement mais qui sont profondément préoccupées par l’alignement, c’est l’hypothèse selon laquelle l’ère actuelle est temporaire. Elles imaginent que la période pendant laquelle OpenAI, Anthropic et Google ont développé des modèles d’IA de pointe au sein d’entreprises privées avec un dispositif de sécurité relativement minimal va bientôt prendre fin.
À un moment donné, les autorités chargées de la sécurité nationale pourraient intervenir et déclarer que les implications pour la sécurité nationale sont si importantes que cela commencera à ressembler davantage au projet Manhattan à Los Alamos, derrière des barbelés et des habilitations de sécurité, plutôt qu’à un ensemble de laboratoires privés travaillant de manière indépendante. Que pensez-vous de ces différents éléments du contexte géopolitique de l’IA ?
Born : C’est un domaine complexe, d’autant plus qu’il s’agit de la première technologie vraiment majeure qui a été développée dans le secteur privé plutôt que par le gouvernement. Le discours autour de la course à l’armement IA avec la Chine est très fort, tout comme les inquiétudes concernant la perte de la domination économique ou militaire, ce qui alimente une histoire que beaucoup de gens trouvent très convaincante : nous ne pouvons pas réglementer ces technologies au risque de nous retrouver en position de faiblesse face à un État autoritaire, ce qui mettrait les démocraties dans une situation de retard permanent.
On a vu beaucoup de dialogues de type Track II avec la Chine, principalement dans le domaine de la sécurité. Personne ne veut que quiconque puisse développer une arme biologique ou quelque chose de ce genre. Mais au-delà de cela, la collaboration est beaucoup moins importante, car les pays essaient de déterminer qui va sortir dominant.
Ce qui me dérange le plus dans cette conversation, c’est que le risque d’être devancé par la Chine est à la fois réel et très pratique pour servir les intérêts des entreprises, car il peut être utilisé pour justifier l’absence totale de réglementation. Je ne suis pas naïf à ce sujet. Nous ne voulons pas d’une mauvaise réglementation. Mais nous avons besoin de garde-fous pour garantir que ces technologies profitent à l’autonomie gouvernementale et à la démocratie.
Je pense qu’il est possible de concilier ces objectifs. Il existe des données fiables qui le suggèrent. Je me souviens de nombreuses discussions sur le RGPD et des affirmations selon lesquelles il allait complètement anéantir les entreprises technologiques en Europe. D’après ce que j’ai pu constater, les bénéfices européens, du moins pour Google, ont pratiquement doublé entre l’introduction du RGPD et aujourd’hui. Il doit y avoir un moyen de mettre en place une réglementation raisonnable qui protège les valeurs démocratiques tout en restant compétitif dans cette course à l’armement avec la Chine.
Mounk : C’est une excellente transition vers la prochaine partie de la conversation. Vous avez toutes ces préoccupations dont nous avons parlé. Nous avons également discuté des risques existentiels, que j’ai largement abordés dans le podcast avec d’autres personnes comme Nate Soares, nous pouvons donc passer cela pour le moment.
Il existe une multitude d’opportunités, mais aussi une multitude de risques et de préoccupations. Que pensez-vous de la réponse des pouvoirs publics à tout cela ? S’agit-il vraiment de dix questions distinctes qui nécessitent dix réponses complètement distinctes, ou existe-t-il un ensemble émergent d’écoles de pensée sur l’approche générale que nous devrions adopter pour canaliser et réglementer cet espace global ?
Born : Je pense que nous aurons besoin d’interventions distinctes ou sur mesure dans chacun de ces cercles concentriques. Plus important encore, certaines interventions fondamentales et transversales seraient vraiment utiles. Je dirais qu’il y en a probablement quinze ou vingt qui font l’objet de discussions légitimes parmi les populations informées, notamment le revenu de base universel, les restrictions commerciales et les questions relatives à l’emplacement des centres de données.
Dans notre travail philanthropique, nous ne prenons pas position sur les politiques. Il serait ironique de soutenir fermement la démocratie et d’intervenir ensuite avec autorité en prétendant avoir toutes les réponses. Je crois en un débat démocratique autour de ces questions. Cela dit, il semble y avoir un réel consensus, du moins autour de trois besoins transversaux : la transparence, la confidentialité et les restrictions sur l’utilisation de ces technologies par les gouvernements.
Il y a beaucoup de discussions sur les types de transparence dont nous avons besoin pour permettre la responsabilité démocratique et la visibilité. Je pense à la transparence tout au long de la chaîne politique. Si l’on réfléchit aux données et aux infrastructures, à la manière dont elles sont construites, puis au calcul, puis à la collecte de données, des questions se posent quant aux modèles de données utilisés pour l’apprentissage et aux types de biais et de protections des droits d’auteur en place. On passe ensuite au développement de modèles et enfin au déploiement, en examinant comment les modèles sont réellement utilisés et quel est leur impact sur les personnes. La transparence est nécessaire à chaque niveau de la pile.
Un bon exemple est celui de l’emplacement des infrastructures. Dans l’Oregon, les gens essayaient de comprendre quelle quantité d’eau Google utilisait. Si je me souviens bien, ils subissaient une sécheresse depuis deux ans et ont dû intenter un procès contre le gouvernement pour avoir accès aux données montrant que Google utilisait environ 30 % de l’eau du comté. Cela souligne la nécessité réelle de lois fondamentales en matière de transparence. Nous avons besoin de ces informations pour demander des comptes aux entreprises.
La législation sur la protection de la vie privée est un autre domaine auquel nous pourrions consacrer beaucoup plus de temps. Je dis parfois à mes amis qu’aux États-Unis, il existe environ un millier de courtiers en données agréés, chacun détenant environ 1 500 points de données sur une personne donnée. Un chiffre frappant est que chaque seconde, environ 1,7 mégaoctet de données, soit l’équivalent d’un livre de 800 pages, sont collectées à notre sujet. J’ai dû faire beaucoup de recherches pour comprendre à quoi cela ressemblait. La collecte en elle-même n’est pas nécessairement le problème. Le problème réside dans la manière dont ces données sont utilisées pour prendre des décisions et faire des déductions, et les risques liés à la surveillance, comme nous l’avons vu en Chine, sont importants.
Il existe également des restrictions quant à l’utilisation de ces données par les gouvernements. Il existe un consensus assez large sur le fait que, s’il existe des domaines dans lesquels nous devons faire preuve de prudence en matière de partialité, il en existe d’autres dans lesquels ces technologies ne devraient tout simplement pas être autorisées dans une démocratie. La surveillance de masse, la police prédictive et le scoring social entrent dans cette catégorie. Il s’agit de domaines qui semblent faire l’objet d’un large consensus parmi le public, même si cela ne se traduit pas nécessairement par des mesures politiques immédiates.
Mounk : Il existe au moins un consensus général sur certains objectifs généraux concernant la manière dont ces systèmes pourraient ou non être utilisés. Parlez-moi des domaines de désaccord. Un domaine fondamental de désaccord, où nous nous rapprochons un peu plus du risque existentiel et de la dimension géopolitique, est de savoir si l’attitude du gouvernement américain, ou de certains gouvernements d’États, devrait être d’accélérer le mouvement.
Ces technologies pourraient transformer le monde de manière miraculeuse.
Elles pourraient nous permettre de découvrir de nouveaux médicaments contre le cancer, de créer une abondance matérielle et de résoudre de nombreux problèmes auxquels nous sommes confrontés. Plus vite nous les développons, mieux c’est. Elles pourraient également renforcer la puissance de notre pays. Si nous ne le faisons pas, la Chine le fera. Dans cette perspective, la réponse politique consisterait à faciliter la construction de centres de données, à augmenter les investissements publics et à veiller à ce que nous formions suffisamment de personnes possédant les compétences nécessaires pour travailler dans l’ingénierie de l’IA. C’est le point de vue des accélérationnistes.
D’un autre côté, certains ont tendance à dire que nous ne savons pas quel sera l’impact de ces technologies. Peut-être sommes-nous à l’aube d’une superintelligence qui pourrait tous nous détruire. Même si ce n’est pas le cas, ces technologies pourraient coûter leur emploi à des personnes, créer de graves risques pour la sécurité et potentiellement permettre à des terroristes de fabriquer des armes biologiques, par exemple.
De ce point de vue, l’orientation principale d’un décideur politique devrait être, comme quelqu’un l’a dit un jour dans un contexte très différent, « de se dresser face à l’histoire et de crier stop ».
Cette formulation est quelque peu caricaturale. Je suis sûr que personne ne se range entièrement dans un camp ou dans l’autre. Mais est-ce là le contour général du débat ? Ou comment devrions-nous envisager de mettre en balance les opportunités et les risques, et ce que cela implique pour l’attitude sous-jacente en matière d’élaboration des politiques ?
Born : Je vais peut-être répondre en deux parties. La première concerne les principaux points de désaccord. La seconde concerne, compte tenu du contexte actuel et des arguments que vous avez avancés sur les accélérationnistes par opposition à ceux qui sont plus favorables à la réglementation, la direction que cela pourrait prendre selon nous.
Je pense qu’il y a au moins cinq domaines que je suis de près et qui font l’objet d’un débat très animé. Nous avons déjà abordé l’un d’entre eux, à savoir les implications pour le marché du travail, notamment le revenu de base universel, le capital de base universel, la reconversion professionnelle et la prédistribution, je vais donc le laisser de côté. Un autre domaine concerne la politique commerciale et de sécurité. Devrions-nous donner ces atouts à la Chine ou à l’Arabie saoudite ? Ce débat a été très public, y compris au sein de l’administration actuelle, qui a changé de position à ce sujet. Beaucoup de gens s’inquiètent de fournir des technologies de pointe à des pays dont les gouvernements sont moins démocratiques.
Un autre domaine qui fait l’objet de nombreux débats est celui de la responsabilité. Cela inclut la responsabilité ex ante, le droit de la responsabilité civile, les droits d’action privés et la manière dont ceux-ci pourraient devoir être modifiés. Il y a également un débat au niveau des entités, notamment sur la réglementation en amont des modèles de pointe et la manière d’anticiper les dommages potentiels. Le dernier domaine que je voudrais mentionner est celui des infrastructures publiques, telles que l’emplacement des centres de données et les questions connexes.
Ce sont les domaines qui font actuellement l’objet des débats les plus animés. Les questions de responsabilité et de réglementation au niveau des entités sont particulièrement intéressantes.
Mounk : Dans quelle mesure existe-t-il à ce stade une division partisane claire autour de ces questions ? L’un des aspects intéressants lorsqu’un nouveau sujet s’impose à l’ordre du jour public est que les lignes partisanes ne sont souvent pas très marquées, du moins dans un premier temps. Il est évident qu’elles finissent par se dessiner, parfois de manière assez arbitraire.
Je pense ici à la pandémie. Si l’on remonte à février 2020, de nombreux politiciens et sénateurs républicains affirmaient que le risque était réel et qu’il fallait fermer les frontières et prendre toutes ces mesures. Nancy Pelosi s’est rendue dans le quartier chinois de San Francisco et a laissé entendre que toute personne inquiète au sujet du COVID manquait de sérieux et était peut-être motivée par des ressentiments raciaux. Un mois ou deux plus tard, les fronts se sont inversés et sont restés largement inchangés.
Les républicains se sont principalement faits les porte-parole du maintien du fonctionnement du pays, de la poursuite des activités économiques et de la nécessité de ne pas réagir de manière excessive, tandis que les démocrates ont déclaré : non, il s’agit d’une urgence sanitaire publique qui ne se produit qu’une fois par siècle, et nous devons faire tout notre possible pour arrêter la propagation du virus.
À quel stade en sommes-nous dans nos réactions à l’IA ? Est-il déjà clair que l’administration Trump s’aligne sur les accélérationnistes et que les démocrates sont ceux qui mettent l’accent sur les risques et les dangers, ou est-ce plus compliqué que cela ?
Born : Je pense que c’est un peu plus flou que cela. Il est certain qu’après le sommet sur l’IA à Paris et le discours de J.D. Vance à cette occasion, les gens ont pris conscience que cette administration accorde une grande importance à l’innovation. Les deux décrets présidentiels publiés cette année l’ont également clairement montré. L’un concernait la suppression des obstacles au leadership américain. Il visait principalement à réduire certains des paramètres de sécurité, de confidentialité, d’équité et d’inclusion mis en place par l’administration Biden. Le second décret, communément appelé « décret visant à empêcher l’IA woke au sein du gouvernement fédéral », concernait la suppression des obstacles au leadership américain.
Le premier décret, qui visait à supprimer les obstacles au leadership américain, a été considéré comme une indication très claire de l’importance accordée par cette administration à l’innovation. Pour répondre à votre question de savoir si cela s’est cristallisé, ce n’est pas le cas. Dans certains domaines, il existe un accord bipartite clair, ce qui ne signifie pas nécessairement qu’il deviendra loi, mais le besoin de transparence et de confidentialité, comme nous l’avons évoqué, est assez évident.
C’est sur le plan réglementaire que les divergences sont nombreuses, et la situation est un peu nuancée. Je vais vous exposer quelques idées, alors soyez indulgents. Il y a un débat sur le plan de la responsabilité civile. Les gens peuvent intenter des poursuites, il existe des droits d’action privés, et de nombreuses entreprises estiment que cela suffit. L’idée est de donner trois ans, d’offrir une sphère de sécurité et de voir comment ces droits d’action privés se concrétisent.
Un autre argument avancé est que nous avons besoin, au moins pour les modèles pionniers, d’une réglementation préalable au niveau des entités, basée sur la taille et le danger potentiel de ces entreprises. Cela nécessiterait des mesures telles que des évaluations préalables des capacités dangereuses, des équipes rouges et d’autres mesures connexes. Le débat qui me semble le plus fascinant est celui de la responsabilité. La responsabilité doit-elle incomber au niveau du modèle ? C’est l’approche adoptée par la Californie. Avec la loi SB 1047, l’idée était que si quelque chose tournait mal, l’entreprise ou le modèle en assumerait la responsabilité.
Le Texas a essayé une approche très différente, dans laquelle les déployeurs et les utilisateurs étaient responsables des dommages, ce qui s’est avéré largement inapplicable. La plupart des débats que je vois actuellement portent sur la responsabilité. Qui devrait être responsable des dommages, et à quel niveau cette responsabilité devrait-elle se situer ?
Mounk : Je pense que c’est évidemment une question importante. Si j’achète une voiture équipée d’une fonction de conduite autonome et qu’elle renverse quelqu’un, suis-je responsable ou est-ce le constructeur automobile qui est responsable ? Il existe ici une perspective intéressante en matière de droit et d’économie, selon laquelle cette distinction n’a peut-être pas vraiment d’importance. Ce qui importe, c’est que la loi soit claire. Si la responsabilité incombe aux constructeurs automobiles, cela signifie que le prix des voitures sera un peu plus élevé. Si la responsabilité incombe aux clients, cela signifie que le prix des voitures sera un peu plus bas. Tant que la loi est claire, vous pouvez toujours commercialiser des voitures autonomes et des technologies similaires.
Je pense que c’est un peu plus compliqué que cela, mais c’est une perspective intéressante à utiliser pour réfléchir à la question.
Born : C’est toutefois plus compliqué ici. La raison pour laquelle c’est plus compliqué est que si la responsabilité est attribuée au niveau du modèle, vous passez à côté des risques au niveau de l’entité, tels que les mauvaises pratiques de gouvernance, les protocoles de sécurité faibles, le vol de données et les problèmes connexes. Si le risque est uniquement lié au modèle, vous passez à côté de toute une catégorie de risques.
Mounk : C’est un excellent point. La question est de savoir comment inciter les entreprises à agir de manière appropriée. Qu’en est-il de la possibilité que la technologie se développe suffisamment pour que nous obtenions une forme de superintelligence qui représente un risque existentiel pour l’humanité ? Je ne suis pas convaincu que ce soit le cas, mais si c’était le cas, pensons-nous réellement que nous serions capables de la contrôler et d’arrêter son déploiement, et que faudrait-il pour y parvenir ?
Aurons-nous la chance que l’IA devienne un outil incroyablement puissant qui nous permette de faire des choses importantes en tant qu’êtres humains, mais sans jamais devenir si performante que nous ne puissions plus la contrôler ? Ou pourrons-nous l’aligner assez facilement pour qu’elle devienne plus intelligente que nous tout en restant à notre service ? Ou nous dirigeons-nous vers une forme de superintelligence que nous ne pouvons pas contrôler, avec des conséquences allant de l’esclavage à l’extinction ?
Si c’est là que mène la technologie, je suis sceptique quant à l’idée que des lois étatiques, fédérales ou des conventions des Nations unies puissent empêcher quelqu’un de développer un tel système et de le déployer. Suis-je trop fataliste ? Notre destin dépend-il largement de la trajectoire naturelle de la technologie elle-même, ou existe-t-il un ensemble concevable de règles, d’institutions ou de réglementations qui pourraient empêcher ce type de technologie d’être déployé et d’avoir des conséquences extrêmement néfastes pour le monde ?
Born : C’est la question à laquelle tout ce domaine est confronté actuellement, ce qu’on appelle le « P-doom », quelle est la probabilité que tout cela se termine mal ? Personne ne le sait. Si nous connaissions la réponse à cette question, nous aurions une conversation différente.
Je pense que vous avez raison de dire qu’il n’y a aucun moyen, si ces modèles atteignent l’intelligence artificielle générale ou la sensibilité, quelle que soit la façon dont les gens choisissent de la décrire, d’intégrer un dispositif d’arrêt d’urgence. Je suis sceptique quant à l’idée que nous puissions parvenir à un alignement irréversible, en particulier dans un monde de modèles open source.
Je partage votre scepticisme quant à la possibilité de contrôler cette intelligence artificielle générale si elle venait à voir le jour, ce qui est loin d’être certain. Beaucoup de gens pensent que l’intelligence artificielle générale n’est pas pour demain. Ils affirment que nous avons cette conversation parce qu’un énorme travail, mené depuis plus de soixante-dix ans, a soudainement fait irruption dans la conscience collective. De ce point de vue, la technologie progresse à un rythme assez régulier, mais elle semble s’accélérer parce qu’elle est devenue visible d’un seul coup.
C’est pourquoi il y a un débat très animé entre les partisans de l’IA 2027, qui pensent qu’une accélération explosive ou une catastrophe est imminente, et ceux qui pensent que l’IA est une technologie normale. Mais je pense que vous avez raison. Si c’est vraiment l’AGI, je ne vois pas comment nous pourrions la contrôler.
Mounk : Une dernière question. Vous travaillez pour la Fondation Packard, vous êtes philanthrope et vous réfléchissez à la manière d’utiliser votre budget de manière intelligente pour nous aider à tirer parti des aspects positifs de l’IA tout en nous protégeant contre les différents risques.
Comment envisagez-vous cela ? Que peuvent faire les philanthropes ? Que peuvent faire les citoyens, les universitaires, les politiciens ou les personnes qui écoutent ce podcast à ce stade pour nous aider à aller dans une meilleure direction sur ce sujet très important ?
Born : Notre travail dans le domaine de la philanthropie, qui, je pense, est assez bien compris par le public, se divise en trois volets. Le premier concerne la manière dont nous soutenons une meilleure information sur ces technologies. Comment pouvons-nous nous assurer que le public est informé, et que nous sommes informés, afin de pouvoir prendre de bonnes décisions démocratiques sur la gouvernance de ces technologies dans l’intérêt public ? Cela inclut le financement de projets tels que les outils de suivi des dommages, le journalisme et la recherche pour comprendre ce domaine.
Le Partnership on AI dispose d’un excellent outil de suivi des dommages, si vous ne le connaissez pas encore, qui permet de suivre tout, des données sociodémographiques sur les dommages aux différents cas d’utilisation, des automobiles aux armes autonomes en passant par la désinformation. La première question est donc de savoir comment nous comprenons ce domaine.
Le deuxième volet, comme nous l’avons mentionné, concerne les politiques. La philanthropie est bien placée pour susciter le débat. Je n’ai pas de point de vue particulier à ce sujet. Nous finançons des personnes de gauche et de droite afin de susciter un débat public animé sur la manière dont nous voulons réguler ces technologies.
Le troisième volet, dont nous n’avons pas beaucoup parlé, concerne l’IA au service du bien commun. J’utilise ces technologies tout le temps et je les trouve très utiles dans de nombreux cas. La question est de savoir comment aider les acteurs pro-démocratiques, y compris les dirigeants gouvernementaux et les leaders de la société civile, à se familiariser avec l’utilisation de ces technologies afin que ce travail soit suffisamment réalisé dans l’intérêt public.
Je pense que la philanthropie a un rôle à jouer dans chacun de ces domaines. Plus largement, il s’agit de promouvoir le bien public là où nous constatons des défaillances du marché ou là où les marchés, les entreprises ou les gouvernements ne parviennent pas à intervenir.


