15 observations sur l'intelligence artificielle
De la propagande ciblée à la surveillance généralisée, l’intelligence artificielle offre aux régimes autoritaires de nouveaux et redoutables outils de contrôle.
La traduction suivante de mon article original en anglais, rédigée par Peggy Sastre, a été publiée le 13 et 14 février dans Le Point.
Nombre de mes amis semblent encore penser que l'IA est un emballement qui ne durera pas. Sur les réseaux sociaux, des publications virales clament que l'intelligence artificielle ne progresse plus, que cette technologie n'est apte, au mieux, qu'à créer de pâles copies des compétences humaines et qu'elle n'a d'utilité que pour ceux qui ont envie de composer leurs dissertations en plagiant.
Ce ne sont que des stratégies de survie. Si, dans votre vie quotidienne, vous n'avez pas encore appris à vous servir d'applications comme ChatGPT, Claude et DeepSeek, vous passez à côté d'une technologie à la fois miraculeuse et extrêmement utile.
Voici quelques exemples de l'usage que j'ai fait de l'IA ces dernières semaines. Je m'en suis servi pour trouver un bon restaurant de dim sum. Pour traduire mes articles et les transcriptions de mes podcasts en français et en allemand. Pour apprendre le poker en proposant différents scénarios et en analysant les avantages et les inconvénients de différentes stratégies. Pour m'entraîner à parler chinois. Pour trouver une recette à faire avec les restes de mon frigo. Pour corriger le brouillon d'un essai. Pour comparer et opposer le conservatisme national et le néo-intégralisme en prévision d'un de mes cours. Pour me trouver des exercices de grammaire chinoise. Pour trouver le nom d'un auteur dont je ne me rappelais que quelques vagues détails. Pour m'aider à rédiger un courriel en français dans un registre de langue soutenu. Pour analyser les avantages respectifs d'investissements boursiers et immobiliers. Pour localiser la note de bas de page dans laquelle John Rawls parle de l'avortement. Pour dénicher des renseignements sur un bâtiment fascinant à partir d'une simple photo. Pour concevoir des dessins personnalisés afin d'envoyer une blague à un ami. Pour expliquer l'importance d'un psychologue dont je n'ai jamais lu les travaux. Pour résoudre un problème informatique. Pour établir le programme des activités d'une journée de vacances.
La plupart de ces choses auraient-elles pu être faites aussi bien, voire un peu mieux, par des experts humains, avec beaucoup de temps et beaucoup d'argent ? Évidemment ! Est-ce que la variété de ce que ces applications peuvent faire pour vous de façon instantanée et (quasiment) gratuitement en fait les assistants personnels les plus miraculeux jamais inventés ? Sans l'ombre d'un doute. Et si vous ne les utilisez pas, vous y perdez, assurément.
Un des arguments que j'entends souvent de la part de ses détracteurs est que l'IA n'est pas une intelligence artificielle du tout. Les sceptiques pensent que c'est une machine astucieuse qui reconnaît des modèles dans ses données d'entraînement. Cela lui permet de prédire la suite probable d'un mot, chiffre, pixel ou code. Au premier degré, c'est vrai : c'est à peu près ainsi que fonctionnent les « generative pre-trained transformers » (transformateurs génératifs pré-entraînés) utilisés par des entreprises comme OpenAI.
Affirmer que cela ne constitue pas une vraie intelligence est néanmoins faux, tout comme il serait saugrenu de dire que vous n'êtes pas vraiment intelligent parce que la réflexion très futée que vous venez de faire s'avère être le produit de neurones qui s'activent dans votre tête. Si un dispositif est capable de faire le genre de tâches qui nous ont toujours semblé être le propre de l'intelligence (de l'écriture de poèmes à la résolution de problèmes de maths), alors souligner la manière dont il procède est une curieuse manière de nier qu'il le fait.
Voulez-vous (ou connaissez-vous quelqu’un) qui aimerait recevoir mes articles et mes discussions directement dans votre boîte aux lettres en allemand ou en anglais?
Plus profondément, les humains semblent être des machines extrêmement douées pour reconnaître les modèles. Les neurosciences en sont encore à leurs balbutiements. Nous ne comprenons pas encore vraiment comment l'intelligence humaine fonctionne, et ne parlons même pas de la conscience. Et il est probable qu'il existe de grandes différences entre les humains et les machines, au point qu'il serait naïf de penser que nos cerveaux ne sont que des GPT en viande.
Un spécialiste des neurosciences m'a expliqué, par exemple, que nous devrions penser l'IA comme une troisième forme d'intelligence sur terre, qui vient s'ajouter à celle des vertébrés et des céphalopodes. Mais quand nous aurons mieux compris la nature de notre propre cerveau, l'explication scientifique des bases physiques de notre intelligence pourrait se révéler ne pas être plus flatteuse que celle de l'intelligence artificielle – et il se pourrait même que les deux explications soient bien plus proches l'une de l'autre que beaucoup le croient aujourd'hui.
Un des arguments visant à rabaisser l'IA est que ses progrès auraient supposément ralenti. Je ne prétends absolument pas être un expert technique en IA, et je n'ai certainement pas de boule de cristal qui me permettrait de prédire son futur développement. Et il semble en effet que les hypothèses optimistes sur la vitesse des futures améliorations de l'IA grâce à une augmentation de l'échelle d'injection des données et des calculs aient subi quelques revers au cours de l'année écoulée. Mais ces arguments me rendent sceptiques pour deux raisons.
Tout d'abord, dans les domaines que je peux évaluer, les progrès ont été extrêmement rapides. Quand OpenAI a lancé son modèle GPT-3.5, un étudiant d'université pouvait obtenir un B, ou peut-être un B +, en soumettant une dissertation écrite par l'IA en cours de sciences humaines ou sociales. Avec le dernier modèle de Claude ou de DeepSeek, il pourrait (en partie grâce à l'inflation des notes, mais pas seulement) obtenir un A- ou même un A dans la grande majorité des cours de sciences humaines et sociales des meilleures universités américaines.
Ensuite, les arguments qui avancent que l'approche actuelle des principaux laboratoires d'IA des États-Unis (qui se concentre sur l'augmentation du volume de données servant à l'apprentissage de ces modèles et qui en augmente constamment la puissance de calcul) va finir par conduire à des rendements décroissants, sont plutôt plausibles. Mais c'est comme ça que fonctionne le progrès en général, surtout lorsque les technologies sont protéiformes : lorsque l'approche actuelle cessera de fonctionner, ces laboratoires d'IA trouveront de nouvelles manières d'innover.
Le lancement de DeepSeek – rival chinois de ChatGPT qui a pris le marché d'assaut depuis début février – en est une bonne illustration. Il m'a fallu quelques jours pour reconnaître son importance ; après tout, ses performances, pour impressionnantes qu'elles soient, ne semblaient pas surpasser les modèles les plus sophistiqués déjà accessibles au public. Alors quelle différence ? Le lancement de DeepSeek est significatif pour au moins trois raisons.
Tout d'abord, il démontre que la Chine et les États-Unis rivalisent réellement dans la course au leadership mondial en matière d'IA. Ensuite, c'est un réel cadeau pour l'humanité. Comme LlaMa, la version plus ancienne de Meta, le modèle a été lancé en open source, c'est-à-dire qu'il sera toujours accessible à tous les humains à peu près gratuitement. Et enfin, DeepSeek est remarquable pas uniquement pour ses performances mais aussi pour son approche innovante en matière de développement.
Par exemple, DeepSeek a introduit des avancées techniques majeures, comme l'optimisation du traitement de l'information par le modèle. Si la plupart des modèles de langage analysent les textes par bribes (par mots ou parties de mots), DeepSeek améliore la technique en utilisant des unités plus grandes et plus signifiantes (comme des syntagmes ou des phrases), ce qui lui permet de mieux comprendre le contexte et les relations à l'intérieur du texte. En outre, DeepSeek utilise des techniques qui n'activent que les parties les plus pertinentes du modèle pour une tâche donnée, et « délègue » efficacement le travail aux parties du système les mieux à même de les traiter.1
Dans leur ensemble, ces changements bien documentés ont permis à DeepSeek de réduire le coût, le temps et la consommation énergétique du modèle, à la fois dans le cadre de son développement et de son utilisation quotidienne. Voilà qui démontre à quel point la créativité dans le développement de ces modèles a encore de la marge et qui devrait (à mon avis de profane) nous faire envisager qu'il reste encore des progrès possibles.2
Le lancement de DeepSeek a eu comme impact économique immédiat une chute brutale des valeurs technologiques. Il y a des explications rationnelles à ce phénomène. Clairement, les entreprises technologiques américaines les plus lourdement impactées n'ont pas sur leurs rivales chinoises la longueur d'avance que le laissent croire leurs valorisations extrêmement élevées. Et si la puissance de calcul nécessaire pour former les modèles d'IA est réellement beaucoup plus basse que prévu, on peut imaginer (sans certitude, bien sûr) que les fabricants de puces avancées, comme Nvidia, verront leurs bénéfices diminuer.
Mais cela ne signifie en rien que le lancement de DeepSeek soit une mauvaise chose pour l'économie dans son ensemble. Car si le développement de l'IA s'avère moins cher que prévu, l'humanité ne pourra qu'en profiter. Et toutes sortes de développeurs ont désormais accès à une technologie d'IA à bas coût, ce qui est susceptible de faire naître des innovations dans les années à venir. Tout grand développement a ses avantages et ses inconvénients ; mais la démocratisation d'une technologie révolutionnaire est une bonne raison de se réjouir.
Voici un exemple de domaine où le recours à l'IA, même à son niveau actuel de performances, peut conduire à d'immenses améliorations de la qualité de vie réelle : l'apprentissage d'une langue étrangère. Vous pouvez avoir des conversations dans la langue choisie avec le professeur particulier le moins cher et le plus patient du monde. Vous pouvez vous entraîner à lire un texte ou avoir un échange écrit sur les sujets plus pointus qui vous intéressent. Vous pouvez obtenir des leçons de grammaire personnalisées en fonction de vos forces et de vos faiblesses. Et vous pouvez bénéficier d'un retour instantané sur votre prononciation, assorti d'astuces détaillées pour vous aider à l'améliorer.
Mais, à l'heure actuelle, tout cela nécessite que vous conceviez votre propre cours en disant à votre professeur de langue d'IA quoi faire à chaque étape. Il y a clairement une grande marge de progression ici, idéalement la création d'une application qui vous demande systématiquement vos préférences personnelles puis intègre toutes ces fonctionnalités dans une expérience simplifiée.
Les obstacles à la réalisation d'une telle interface d'apprentissage sont bien plus ancrés dans des difficultés relevant de la conception, de la pédagogie et de l'expérience utilisateur que dans la nécessité de faire progresser la puissance du modèle sous-jacent. Il est quasiment certain que quelqu'un va régler ces problèmes et créer l'outil d'apprentissage des langues le plus puissant jamais inventé – mais, pour l'instant, une telle application n'existe pas encore.
Dans certains recoins d'Internet, DeepSeek est aussi célébré pour une autre raison. Contrairement à des modèles d'IA occidentaux comme ChatGPT et Claude, disent ces analystes, DeepSeek ne censure pas des foules de sujets. Dans une certaine mesure, je comprends ce qui les préoccupe. Il est évident que des entreprises comme OpenAI et, surtout, Google semblent avoir fait peser une main politique particulièrement lourde sur la balance pendant la phase de « finition », lors de laquelle les modérateurs humains récompensent le modèle pour les réponses qu'ils aiment et le punissent pour celles qu'ils n'aiment pas.
Quand les réseaux sociaux ont commencé à prendre de l'ampleur, le courant politique dominant a mis bien trop de temps à reconnaître à quel point il est socialement corrosif pour la Silicon Valley – ou pour les bureaucrates du gouvernement qui font pression sur la Silicon Valley – de s'ériger en arbitres de ce que peuvent ou ne peuvent pas dire les citoyens. À présent, ce courant est encore plus lent à reconnaître que le contrôle politique de l'IA devrait indigner encore davantage quiconque a de vraies valeurs libérales. Si vous croyez en la liberté humaine, vous devriez être passionnément opposé à un monde dans lequel les gouvernements s'associent à de puissants milliardaires pour décider quels faits ou même quelles opinions les outils de recherche et les assistants d'apprentissage les plus puissants du monde peuvent exprimer.
Il n'en est pas moins naïf de poser à ChatGPT et à DeepSeek des questions sur des sujets polémiques dans le discours politique occidental et d'en déduire que le premier censure davantage que le second. Chaque pays a ses tabous politiques. Certains sont évidents pour les observateurs extérieurs ; d'autres ne viendraient même pas à l'esprit de quelqu'un qui ne connaîtrait pas très bien le pays.
Après avoir posé aux deux modèles le même genre de questions politiquement sensibles ces deux derniers jours, mes premières impressions sont doubles. Tout d'abord, les deux modèles font preuve d'un conformisme décourageant, en partie parce que les opinions conventionnelles – même celles que j'estime erronées – sont probablement représentées dans la majorité des textes utilisés pour les former. Quand j'ai demandé à ces modèles de me citer quelques sujets tabous ou extrêmement controversés dans la politique américaine et d'évaluer leur véracité, les deux ont fourni des réponses qui semblaient tout droit sorties des plumes les moins imaginatives du Guardian ou de The New Republic.
Ensuite, tout comme il est facile de trouver des domaines où ChatGPT refuse de proposer une réponse, il n'est pas compliqué du tout de trouver des thèmes sur lesquels DeepSeek ne veut pas s'engager. Après avoir posé des questions sur l'Amérique, j'ai demandé aux deux modèles de faire le même genre d'analyse des tabous pour la Chine. ChatGPT m'a volontiers soumis un certain nombre de sujets pour lesquels il estime que les tabous chinois sont erronés ou dangereux (sans surprise, ces jugements étaient largement en phase avec les opinions américaines typiques au sujet de la Chine). DeepSeek, en revanche, m'a répondu que ce sujet « dépasse mes compétences actuelles », ajoutant : « Parlons d'autre chose ! »
Et l'Europe ? Sur tous ces sujets, elle est aux abonnés absents. Les quelques entreprises d'IA présentes sur le continent, comme Mistral en France, sont largement à la traîne de l'Amérique et de la Chine. Comme les entrepreneurs européens ont du mal à lever les fonds suffisants et que les meilleurs talents européens sont désormais concentrés dans la baie de San Francisco, il est difficile d'imaginer comment le continent pourrait rattraper son retard à court terme (il est parlant, par exemple, que SAP, la plus grosse société technologique allemande, ait été fondée il y a 50 ans et qu'elle reste principalement économiquement viable parce que les grandes entreprises qui ont adopté ses logiciels il y a des dizaines d'années trouvent trop compliqué de « transitionner » vers les bien meilleures solutions proposées par des rivaux américains comme Salesforce).
Et il se trouve qu'à peu près tous les politiciens et les intellectuels européens à qui j'ai parlé sur ce sujet se raccrochent à la stratégie de survie la plus désespérée de toutes les stratégies de survie : l'idée que l'Europe pourrait rester dans la course en devenant le leader mondial de la réglementation de l'IA. C'est une ambition infiniment triste, comparable à celle d'un enfant dont le rêve ultime serait de devenir celui qui est désigné pour surveiller les autres dans les couloirs. Et, pour ajouter l'humiliation au pathétique, ce n'est même pas réaliste : comment l'Europe pourrait-elle espérer influencer le développement mondial de l'IA en persistant à faire de la figuration ?
Quand ChatGPT a été lancé, je me suis demandé si l'IA finirait par rester dans les mémoires comme « la troisième humiliation de l'humanité ». Selon Sigmund Freud, la première grande humiliation a eu lieu quand Copernic a avancé que l'Univers ne tournait pas autour de la Terre. La seconde grande humiliation fut infligée lorsque Charles Darwin a découvert que nous avions évolué à partir de singes.3 Il me semble que l'IA pourrait bien être responsable de notre troisième grande humiliation.
Les modèles les plus avancés sont déjà meilleurs que n'importe quel humain aux échecs, à certains jeux vidéo et pour certaines tâches scientifiques, comme la prédiction du repliement de protéines. Ils sont meilleurs que la plupart des humains, y compris des professionnels, pour tout un éventail de tâches, des diagnostics médicaux à la traduction. Et ils ont fait de réelles percées dans des domaines créatifs comme la composition de poèmes, de chansons ou la création d'images.
Si les modèles de la prochaine génération dépassent les humains dans ces domaines, cela ne constituera pas seulement une crise existentielle pour des auteurs comme moi, cela posera aussi une question critique pour l'humanité tout entière : quelle image d'elle-même restera-t-il à l'humanité si les machines se mettent à être meilleures que nous dans certaines des tâches créatives que nous avons toujours considérées comme les plus typiquement humaines ?4
Tout au long de leur histoire, les humains se sont montrés incapables de résister à la tentation du chronocentrisme, cette fausse croyance que leur époque particulière revêtait une importance historique démesurée. Il est tout à fait possible que les prédictions selon lesquelles l'IA va s'avérer être la fin de l'humanité, ou en tout cas la fin du règne de l'humanité en tant qu'espèce la plus puissante du monde, s'avèrent tout aussi chronocentriques. Mais, si je ne pense pas que les effrayantes prédictions annonçant la fin imminente de l'humanité sont susceptibles de se vérifier, ce serait une erreur que d'en balayer totalement la possibilité.
Trois choses sont désormais clairement vraies : les meilleurs modèles d'IA commencent à rivaliser avec l'intelligence humaine. Le domaine de la robotique mécanique, des robots humanoïdes aux voitures autonomes, progresse rapidement. Et le problème de l'alignement – celui qui consiste à s'assurer que les intelligences artificielles vont faire ce qu'on leur dit, qu'elles ne pourront jamais porter préjudice à l'humanité – est loin d'être résolu. P(doom) (c'est-à-dire la probabilité d'une catastrophe provoquée par l'IA) n'est peut-être pas très élevée, mais elle n'est pas particulièrement basse non plus.
Notre réflexion sur l'éthique, à la fois dans le domaine public et « professionnel », reste mal outillée pour les questions que pose l'IA. Voici une des nombreuses interrogations qui me taraudent et qui ne trouvent pas de réponse : nous, les humains, avons clairement de bonnes raisons de résister à notre remplacement par l'IA. Certaines formes de partialité dans la pensée morale sont inévitables, et peut-être même désirables.
En tant qu'humains, nous devons défendre le futur de l'existence humaine. Mais à quel genre de tragédie assisterons-nous si notre espèce est supplantée par des machines hyper intelligentes ? Ce nouveau monde sera-t-il dénué de tout sens, peuplé de créatures sans conscience et par conséquent sans joie, sans perceptions et sans valeurs morales ? Ou est-ce que des systèmes d'IA hyper intelligents constitueront une forme de vie qui, à sa propre façon à mille lieues de la nôtre, aura sa propre valeur, une valeur qui nous permettra, à nous les humains, de tirer une petite once de fierté d'avoir été à l'origine de sa création, tout en maudissant le fait d'être contraints d'assister à notre propre fin ?
Comme je ne suis pas un expert technique, et pour illustrer l'utilité de l'IA, j'ai demandé à DeepSeek de m'aider à vérifier l'exactitude et à suggérer une formulation plus précise des quatre dernières phrases. Mon projet initial était le suivant : « Et troisièmement, DeepSeek se distingue autant par la forme de son développement que par le niveau de ses performances. DeepSeek a modifié des aspects techniques clés tels que le fait de demander au modèle de fonctionner phrase par phrase plutôt que mot par mot et de trouver un moyen pour que les parties les plus pertinentes du modèle fonctionnent tout en laissant les autres inactives lors de la réponse aux questions - essentiellement, déléguer des tâches aux parties du système les mieux équipées pour les traiter. »
Cela ne signifie pas pour autant que nous devrions croire sur parole que le développement du modèle n'a coûté que 6 millions de dollars. D'une part, cela reflète probablement le coût de la consommation d'électricité et d'autres intrants clés, et non les salaires des employés et les autres coûts liés à l'activité. D'autre part, il est impossible à ce stade de vérifier si les coûts réels de ces intrants techniques n'ont pas eux-mêmes été sous-estimés à dessein.
Sigmund Freud a également identifié une troisième grande humiliation : sa propre découverte de l'inconscient, révélant que nous ne contrôlons pas nos propres esprits. Mais cela m'a toujours semblé être une auto-promotion plutôt grandiose, qui exagère l'importance prétendument historique de son propre travail.
J'ai l'intention d'écrire plus en détail sur cette observation dans les semaines à venir.