Cette vidéo fait partie du cycle d’auditions TESaCo sur l’IA et la Robotique.
Raja Chatila est professeur émérite de robotique, d’intelligence artificielle et d’éthique à Sorbonne Université. Auparavant, il a été directeur de recherche au CNRS et a dirigé deux grands laboratoires du CNRS : le Laboratoire d’Analyse et d’Architecture des Systèmes (LAAS) à Toulouse, et l’Institut des Systèmes Intelligents et de Robotique (ISIR) à Paris. Ses domaines de recherche portent principalement sur la robotique autonome, et la robotique cognitive et interactive. Président de la société savante IEEE Robotics and Automation Society de 2014 à 2015, il préside une initiative internationale IEEE pour l’éthique dans l’intelligence artificielle et les systèmes autonomes. Il a participé à plusieurs travaux au niveau national et européen sur les implications éthiques et sociétales de la robotique et est membre du Comité National Pilote d’éthique du Numérique.
Première partie de l’audition : Les mêmes questions d’éthiques se posent-elles pour l’IA et la Robotique ?
[0.16] Mehdi Khamassi : Bonjour Raja Chatila. Merci beaucoup d’avoir accepté cette audition pour le projet TESaCo, Technologies émergentes et sagesse collective, de l’Académie des sciences morales et politiques, dirigé par Daniel Andler, qui est ici présent. Il y a d’autres membres de l’équipe de TESaCo, Anne Le Goff, Margaux Berrettoni, et moi-même, qui sont là pour te poser un certain nombre de questions.
Juste une brève introduction : tu es professeur émérite en robotique, intelligence artificielle et en éthique à Sorbonne Université, après avoir été directeur de recherche au CNRS. Et tu as été directeur de deux grands labos en France, le LAAS à Toulouse et ensuite l’ISIR à Paris. Tu es très impliqué depuis de nombreuses années sur les questions d’éthique de la robotique, de l’intelligence artificielle notamment, tu étais membre de la CERNA [et actuellement du CNPEN], tu es [président] de l’IEEE Global Initiatives on Ethics of Autonomous and Intelligent Systems. Et puis plus récemment [en 2018], tu as été nommé par la Commission européenne comme membre du groupe d’experts [qui a fait des recommandations sur des orientations éthiques en vue d’] une proposition de régulation sur l’IA, qui vient d’être publiée [en 2021] afin qu’il y ait consultation, [et qui est en cours de discussion au niveau des instances européennes].
Donc c’est au titre de toutes ces réflexions que tu mènes, que nous avions envie de te poser des questions, pour enrichir notre réflexion sur les technologies émergentes, leur évolution, et leur impact possible sur la société.
[1.41] Raja Chatila : Bonjour. D’abord merci de m’avoir invité pour cet échange. Je suis extrêmement heureux de pouvoir partager quelques idées avec vous. J’essaierai de vous répondre dans la mesure de mon possible sur ces sujets.
[2.04] Mehdi Khamassi : Une première question qu’on a envie de te poser justement dans le cadre des questions d’éthique qui peuvent se poser en IA ou en robotique. Est-ce que pour toi il y a des particularités ou des points communs à ces questions d’éthique qui font qu’il est important de mettre en avant ?
[2.23] Raja Chatila : Alors, on va être obligé d’aborder la question de la définition. Malheureusement. Aujourd’hui le choix a été fait de manière relativement officielle, d’une certaine façon, d’inclure la robotique dans l’intelligence artificielle. Je dis de manière officielle parce que, au niveau de la Commission européenne en particulier, pour élaborer le plan d’action en intelligence artificielle, il y a eu un choix de définition qui effectivement met dans la même catégorie les systèmes d’intelligence artificielle et la robotique. Bien sûr, est considérée ici une robotique intelligente, au sens où il ne s’agit pas simplement de machines qui sont guidées par des programmes répétitifs ou par des systèmes purement mécaniques. Je pense que c’est une volonté simplificatrice pour ne pas alourdir le langage. Mais après quand on va dans certains détails, on voit certaines différences. De nouveau en termes de politique. Donc je me permets de m’éloigner un peu de l’éthique pour parler de politique, parce que c’est lié.
Dans l’esprit de la Commission européenne en particulier, mais d’autres aussi, la robotique est très liée à l’industrie manufacturière. Cette compréhension de la robotique comme étant des machines qui sont dans l’industrie manufacturière, évidemment, limite grandement l’intelligence des robots. Parce que dans l’industrie manufacturière, on a des tâches répétitives, on a des tâches où on ne demande pas une grande variété, une compréhension vraiment de l’environnement, enfin tous les aspects sémantiques qui peuvent nous intéresser. Mais c’est donc une simplification de dire que la robotique et l’intelligence artificielle, c’est la même chose.
Cette démarche a aussi été adoptée par l’OCDE. La définition de l’intelligence artificielle par l’OCDE aujourd’hui est en train d’être de plus en plus universellement acceptée, à cause de sa simplicité. Elle a été reprise d’ailleurs par la Commission européenne, avec une légère modification, dans la définition qu’elle utilise pour sa proposition de règlement qu’elle a publié le 21 avril [2021], abandonnant ainsi une définition beaucoup plus détaillée, beaucoup plus large, en plusieurs pages, qui a été élaborée par le groupe d’experts que la Commission avait nommé pour l’aider à élaborer son instrument législatif. Il est intéressant de voir aussi que la définition de l’intelligence artificielle telle qu’elle est donnée par l’OCDE est une définition qui inclut aussi la robotique, puisque cette définition-là parle de systèmes qui peuvent agir y compris sur leur environnement physique. Dans ce sens, ça inclut la robotique, par opposition à un environnement virtuel que des purs programmes informatiques pourraient utiliser. Donc là, il n’y a pas de différence dans cette définition.
Aux origines de l’IA et de la robotique
[6.31] Raja Chatila : D’ailleurs, d’une certaine façon, on retrouve l’absence de distinction entre robotique et intelligence artificielle dans la définition d’origine de l’intelligence artificielle. Parce que le programme de recherche fondateur de l’intelligence artificielle de Dartmouth College ne parlait pas de robotique et d’intelligence artificielle. Il parlait de machines, et de fonctions ou de capacités intelligentes : l’apprentissage, le langage, la formation de concepts, la perception. Ils négligeaient complètement l’action, en revanche. Cependant, dans leur esprit, dans leur texte, il n’y avait pas de distinction entre une machine physique et une machine qui utiliserait uniquement des logiciels. Cependant, ce fait que l’action n’était pas considérée comme vraiment importante dans la manière dont l’intelligence artificielle a été définie et ensuite développée, a constitué en quelque sorte un péché originel du programme de recherche en IA. En effet, les travaux se sont focalisés évidemment à ce moment-là davantage sur ce qu’on considérait comme intelligent, sans définir l’intelligence. Donc plutôt des tâches abstraites, et non pas des actions dans le monde réel, même si la perception faisait partie très largement des travaux qui ont été menés dès le départ.
Il faut passer de 1956 à la fin des années 60, avec d’une part Hans Moravec à Stanford – où on voit le premier robot au sens d’une machine physique pilotée par la vision ; son travail essentiel était sur la stéréovision, pour qu’un robot se déplace en évitant des obstacles découverts par la stéréovision ; c’était juste un lien entre la perception visuelle et l’action de déplacement –, pour voir des projets, des programmes, financés par la DARPA qui s’appelaient Hand-Eye Program, où on essayait de faire une action par un robot manipulateur basé sur la vision, mais surtout avec le projet Shakey au SRI, fin des années 60, début des années 70, avec une publication en 1969 à la première conférence internationale d’intelligence artificielle, qui parlait de ce projet, de ce robot Shakey. Ce dernier n’était pas considéré à proprement parler comme un robot puisque l’article parlait d’un automate : « application des techniques d’intelligence artificielle sur un automate ». Donc on ne parlait pas de robot, et Shakey était, je dirais, le parangon du robot mobile qui découvre son environnement, qui s’y déplace, qui prend des décisions, puisque les premiers systèmes de planification STRIPS, symboliques, ont été élaborés à ce moment-là, et l’algorithme A* a été élaboré dans le cadre du projet Shakey. Mais on était en train de mettre en œuvre des systèmes d’intelligence artificielle. Pour eux, il n’y avait pas de différence. Le robot ne représentait pas une singularité dans le paysage de l’IA.
Il faut remarquer qu’en même temps, au début des années 60, le robot fait son apparition dans l’industrie. UNIMATE, le système qui a été inventé par Engel Burger et d’autres pour faire des actions dans les usines, peinture, soudures, etc., qui était un automate, à purement parler un automate, et pourtant ne s’appelait pas un automate. Il s’appelait un « mover » au début. Et le mot robot a été utilisé pour des raisons commerciales, car il est plus attractif. C’est comme ça que le terme robot a migré d’Asimov, de la science-fiction, à la science et à la technologie. Mais au départ on considérait des machines et de l’IA. Et ensuite le mot robot a eu des usages beaucoup plus développés dans le domaine dit de la Robotique, qui au départ incluait des chercheurs en IA travaillant sur la robotique, et qui petit à petit se sont rendus compte qu’il y avait un problème pour agir dans le monde réel. Il se sont rendus compte que les techniques d’IA utilisées jusque-là ne permettaient pas d’appréhender correctement l’interaction et la dynamique avec le monde réel.
C’est là qu’il y a eu aussi, au début des années 80, avec Rodney Brooks en particulier, qui a bien formulé ce problème dans l’un de ses papiers : « Elephants don’t play chess », qui est revenu en arrière, disons, sur une critique de l’intelligence artificielle, et en particulier de l’intelligence artificielle symbolique, non pas à l’avantage des approches connexionnistes, mais plutôt avec une vision behavioriste du comportement, et donc de l’intelligence, avec l’idée que des couches comportementales pourraient effectivement mieux modéliser, mieux exprimer l’intelligence d’une machine qui interagit avec son environnement.
Retour à la question de l’éthique
[13.19] Raja Chatila : Pour revenir à la question qui portait sur l’éthique en réalité, et non pas sur la définition, mais j’ai été obligé de passer par la définition, à cause maintenant de l’unification, disons, du concept de machine intelligente, qui inclut robot et systèmes d’intelligence artificielle, on peut dire qu’il n’y a pas de différence fondamentale quand on parle d’éthique. Les problématiques éthiques qui se posent ne sont pas exactement les mêmes. En effet, les robots ne vont pas traiter des masses de données, et ne vont donc pas fréquemment être confrontés aux problèmes de biais que l’on rencontre quand on focalise sur les systèmes d’apprentissage modernes. Mais oui, en même temps, si un robot est une machine qui est un agent conversationnel qui bouge et qui collecte des données, alors on va rencontrer ces problèmes-là.
Donc je dirais qu’en réalité il n’y a pas de différence fondamentale du point de vue éthique, entre les systèmes d’IA pure, disons, agissant dans un environnement virtuel, et de robotique agissant dans un environnement réel.
En revanche, il peut y avoir une différence dans la mise en œuvre, dans l’action, puisque le robot agit. Mais il n’agit que comme conséquence des décisions, d’un raisonnement, d’une élaboration de plans, qui eux sont du domaine de l’IA en général. Le robot agit à partir d’une interprétation du monde à travers sa perception, son interprétation des situations, et c’est là peut-être qu’il y a une différence avec les systèmes virtuels. Je ne veux néanmoins pas limiter l’IA aux systèmes virtuels. Mais en tout cas, les systèmes virtuels ne sont ni situés dans un monde réel qui évolue, ni matérialisés, c’est-à-dire soumis aux contraintes de la physique ou de la mécanique, qu’ils ne connaissent pas. A ce moment-là, leur perception du monde, la perception du monde, leur compréhension, leur interprétation, peuvent s’en trouver différente. Est-ce que ça différencie la délibération éthique ? Peut-être dans la mesure où certaines décisions ne pourront pas être effectuées, ne pourront pas être mises en œuvre, par exemple. Ou bien parce que justement la problématique éthique de l’interprétation de situations exige des raisonnements qu’on ne maîtrise pas aujourd’hui. Mais ça reste pour moi de l’intelligence artificielle.
Liens avec la cognition incarnée en sciences cognitives
[16.40] Mehdi Khamassi : Daniel, tu voulais rebondir là-dessus ?
[16.46] Daniel Andler : Oui, je suis très heureux de la réponse de Raja. Je suis d’accord. La seule chose c’est qu’il y a, comme Raja le sait très bien, plutôt du côté des sciences cognitives que de l’IA, cette idée que, ce que les sciences cognitives classiques, qui sont quand même pas mal associées au paradigme symbolique en IA, ce qu’elles ont complètement loupé, c’est le côté incarné. C’est-à-dire qu’on accuse les sciences cognitives du début d’être purement intellectualistes, imaginant un cerveau dans une cuve qui reçoit des informations de la tour de contrôle, et qui transmet des informations aux organes moteurs, et que d’une certaine façon, on passe à côté de quelque chose d’essentiel, à savoir que la cognition est fondamentalement incarnée. Je me demandais comment tu voyais ça : est-ce qu’on peut dire que la robotique est à l’IA disons purement virtuelle, ou purement orientée traitement de l’information, ce que la cognition incarnée serait à la cognition intellectualiste des débuts ? Est-ce qu’il y a un parallèle intéressant, ou tout ça c’est simplement une mauvaise façon de découper les choses ?
[18.13] Raja Chatila : D’une certaine façon, oui. Mais je vais peut-être insister sur un point. Je pense que l’interprétation du monde réel est impossible pour une IA qui n’est pas incarnée. Je pense que comprendre le monde est inhérent au fait qu’on puisse y agir. Donc ce n’est au fond pas du tout la même forme d’intelligence. C’est de l’intelligence artificielle si on veut, quand on parle de systèmes, de machines. Mais ce n’est pas du tout la même forme d’intelligence. Des intelligences artificielles – je n’aime pas du tout mettre des articles comme ça, en disant « une intelligence artificielle » –, enfin, un système d’intelligence artificielle qui ne fait que traiter des données pour faire des classifications ou pour faire n’importe quoi, ne pourra pas appréhender la signification du monde physique. Seule la matérialisation pourrait éventuellement le permettre. Et ça, ça crée une différence importante : finalement la « véritable intelligence » au sens propre, au sens de compréhension, ne peut être qu’incarnée.
Non pas une IA mais des IA
[20.04] Daniel Andler : Ok, merci. Très bien. Je suis très heureux de voir que tu n’aimes pas « une IA », mais « des IA ». Parce que moi-même je déteste ça, et j’ai inventé mon propre sigle. Mais on est tout à fait d’accord. J’appelle ça des « SAIs », des systèmes artificiels intelligents.
[20.22] Raja Chatila : Tout à fait. Je dis aussi « systèmes d’intelligence artificielle ». C’est ce que j’utilise le plus souvent, et là je te rejoins complètement.
[20.35] Daniel Andler : Ok, parfait.
Interprétation du monde par une IA forte
[20.38] Mehdi Khamassi : Pour rebondir sur ça, sur la question de l’interprétation du monde que pourrait faire un agent artificiel, et si possible un agent incarné, donc de compréhension et de raisonnement sur le monde, on arrive vite à des questions de potentiel développement de ce que certains appellent une IA forte. Est-ce que c’est quelque chose que tu considères comme possible ? Est-ce que tu es sceptique sur ça ? Est-ce que tu trouves que ce terme convient ou pas ? Qu’est-ce que tu en penses ?
[21.26] Raja Chatila : Je n’aime pas cette classification d’IA forte et IA faible, etc. Assez paradoxalement, c’est drôle car à l’origine la distinction a été faite, je crois, pour justement prouver que l’IA forte n’existe pas. C’est John Searle qui désignait l’IA forte comme une IA qui est capable de faire des raisonnements comme humain, alors que l’IA faible n’en faisait pas, pour dire qu’il n’y avait que de l’IA faible en réalité. Je résume. Et maintenant c’est devenu le terme qui désigne la vraie intelligence artificielle. Personnellement, je pense que, pour répondre un peu plus globalement, l’intelligence artificielle ce sont des mécanismes calculatoires qui vont traiter des données. Ces données peuvent être de toutes sortes, numériques, ou peuvent être symboliques au sens qu’on les a déjà prémachées, et donc on a donné des symboles. Mais il n’en demeure pas moins que ce sont des calculs. Des calculs qui, par définition, parce qu’on utilise une machine de Turing, vont être des calculs algorithmiques. Que les algorithmes soient explicites, c’est-à-dire écrits par des êtres humains, comme on fait classiquement des algorithmes, ou implicites, c’est-à-dire produits par des mécanismes d’apprentissage statistique – et je souligne statistique, c’est de ça qu’il s’agit –, qui produit un modèle qui finalement est capable de prendre des nouvelles entrées et de produire des sorties, mais ce faisant, ce modèle a intégré une sorte d’algorithme de traitement (mais qui n’est pas explicite, qui n’a pas été programmé explicitement), dans les deux cas, ce sont des calculs. Donc ces algorithmes et ces systèmes ne pourront jamais sortir du cadre de ce calcul, qu’il soit explicitement programmé ou implicitement programmé.
L’intelligence qu’on appelle « intelligence forte » exigerait qu’on puisse sortir de ce cadre. Un peu de manière comparable à ce que fait le cerveau humain. On n’a encore jamais prouvé que le cerveau humain est une machine de Turing. Donc ça c’est un point d’interrogation, évidemment. Je n’en sais rien et personne ne le sait. On fait comme si c’était le cas, pour beaucoup. Je veux dire, quand on parle d’intelligence artificielle, on fait comme si le cerveau humain était une machine de Turing, voire une machine de Turing un peu complexe, parce qu’elle ne comprend pas un seul algorithme, une seule entrée, etc., mais c’est quand même une machine de Turing sur le fond. Donc, pour arriver à l’intelligence artificielle forte, il faudrait que l’on ait dans la machine des capacités de traitement qui puissent sortir du cadre de ce qui a été explicitement appris, ou explicitement programmé. Ce n’est tout simplement pas le cas. Donc je ne vois pas du tout comment on pourrait aboutir à une intelligence artificielle forte avec la définition qui est communément admise, c’est-à-dire une intelligence qui soit capable de ne pas être focalisée sur tel ou tel type de données, ou tel ou tel domaine, et qui soit, disons, suffisamment générale pour être comparable à l’intelligence humaine.
Tu es muté (anglicisme).
[26.29] Mehdi Khamassi : Voilà ! (rires) C’est intéressant parce qu’effectivement dans ce débat on a aussi la question des définitions qui contraint l’angle d’attaque, et en même temps mon impression est quand même que, dans la communauté de chercheurs actuellement en robotique autonome ou en intelligence artificielle, ça parait presque comme une évidence que d’ici un certain nombre d’années, on ne sait pas combien, on pourrait atteindre en tout cas des niveaux d’intelligence sur la machine qui soient comparables à l’humain – donc ce qu’on peut appeler « human-like intelligence », ou des termes comme « artificial general intelligence » –, ou même une intelligence qui dépasse l’humain. Au-delà des termes même, il y a quand même un certain nombre de travaux, et puis des choses sur lesquelles on a collaboré aussi ensemble : comment organiser, au sein d’un agent, une architecture cognitive informatique, qui va combiner plusieurs fonctions cognitives, de la perception, de la mise en mémoire, de l’analyse de la connaissance qui peut y avoir en mémoire pour ensuite délibérer, et réagir à une situation présente, proposer une action, éventuellement apprendre sur la base des conséquences de l’action, réfléchir sur ce que l’on a fait. Avec cette réflexion sur les architectures cognitives, on peut se demander : qu’est-ce qui pourrait constituer une barrière, peut-être sur le long terme, à permettre (1) un haut degré d’autonomie de la machine, et puis (2) une adaptation à des situations qui ne sont pas prévues par l’homme, donc sortir du cadre du calcul qui a été prédéfini, tel que tu le décris ?
Différences avec le cerveau humain
[27.22] Raja Chatila : Évidemment, l’existence matérielle du cerveau humain ou animal montre qu’il est possible qu’il y ait une entité qui soit capable de raisonner, au sens humain du terme, de prendre des décisions, d’être autonome, d’avoir une capacité de réflexivité, etc. Donc il y a une preuve d’existence en quelques sortes. Mais le fonctionnement de ce cerveau n’est pas compris. On n’a pas encore élaboré un modèle qui puisse se traduire effectivement par une formulation qui pourrait être effectivement mise en œuvre sur une machine, donc qui pourrait être calculatoire. Ça ne veut pas dire qu’on ne pourra jamais le faire. Je ne dis jamais « jamais ». Mais je pense que tant qu’on n’a pas réalisé un système artificiel qui puisse mettre en œuvre des mécanismes que je ne connais pas encore, et qui ne sont pas forcément des mécanismes imitant le cerveau, mais des mécanismes qui puissent effectivement avoir cette réflexivité, avoir cette capacité d’auto-évaluation, avoir cette capacité de méta-raisonner, i.e., de raisonner sur soi-même, on n’aura pas accompli le pas nécessaire pour franchir la frontière entre une machine au sens « machine de Turing », et une entité, j’évite d’utiliser le mot « machine », qui est le cerveau [humain]. Je ne sais pas comment on y arrivera. Mais ce qui est quand même clair, c’est que le chemin que l’on prend actuellement avec l’intelligence artificielle n’est pas ce chemin-là. On en reste au niveau syntaxique. On en reste au niveau du traitement de données de plus en plus importantes, de plus en plus massives, pour essayer de manière mécanistique, à partir de ces données, de produire des résultats ou des comportements.
Donc la question architecturale que tu poses est une question fondamentale, parce que c’est probablement dans l’organisation des systèmes que se trouve peut-être l’un des secrets, l’une des voies, pour essayer de comprendre comment on peut raisonner sur ses propres actions, les évaluer, comment on peut avoir cette sorte de méta-raisonnement que je pense essentielle pour parler d’une intelligence plus proche de celle de l’être humain. Et de nouveau pour moi ça ne peut se produire que comme résultat, à la fois un résultat mais aussi une condition, de l’interaction de ce système avec son environnement. Parce que c’est l’unique manière de comprendre la sémantique de l’environnement ; c’est d’interagir avec lui. Donc pour le moment je ne sais pas comment faire. Comme tu le sais, on a travaillé sur des projets qui se voulaient aller dans ce sens. Mais on était très loin d’aboutir. Et l’idée même d’avoir essayé de mettre dans un système des mécanismes d’apprentissage différents, par exemple, et des choix pour passer d’un apprentissage habituel à un apprentissage basé sur des modèles ou des objectifs, inspirée en cela des modèles des neurosciences, montre qu’il y a peut-être une voie là. Mais cette voie est restée pour moi très limitée par le fait qu’elle était préétablie. Il manquait singulièrement de plasticité, une capacité d’évolution, une capacité de choix de ce qu’on appelle le méta-contrôleur, de choix plus informés, plus approfondis. Je ne sais pas quel terme il faut utiliser car il n’y a pas de terme pour désigner ça qui soit correct.
Donc oui, il y a des questions architecturales. Et bien sûr quand on regarde le cerveau on voit qu’il y a des réseaux de neurones dont le comportement, le fonctionnement est un peu semblable aux réseaux de neurones de l’apprentissage profond, on voit qu’il y a des architectures qui sont tout à fait différentes. Donc il est possible de s’inspirer de cela pour construire des systèmes qui dépassent les limites de l’IA faible. Mais je n’en ai pas la moindre idée. Je ne sais pas comment faire. Tout le reste n’est que projection dans un futur incertain. Et je ne sais pas si c’est la bonne voie. Je suis très hésitant dans ma réponse. La question est très importante. Mais on n’a pas de piste réelle pour essayer d’y aboutir. Donc ce sont des considérations un peu non fondées, non scientifiques. C’est difficile.
[26.29] Mehdi Khamassi : C’est vrai que dans les débats actuels, beaucoup de gens sont tentés de ramener la question à celle d’une IA avec une super intelligence qui arriverait à un moment donné dans la société. Or, ce que je comprends de ce que tu dis, c’est que ce n’est pas forcément là le cœur des questions qu’on peut se poser sur l’impact sociétal de l’IA, sur les questions d’éthique, sur ce que l’on en fait. Ce n’est pas sur ça qu’il faut réagir pour l’instant, qu’il faut pouvoir réguler et organiser, parce que c’est encore au stade de recherche et qu’il faut d’abord clarifier encore tout ça et mieux fonder tout ça.
Quelle échéance pour une super intelligence ?
[34.41] Daniel Andler : Si je peux, juste en complément. Moi je suis tout à fait enchanté de la réponse de Raja, qui me conforte dans l’idée que je pouvais m’en faire. Mais je ne suis pas un spécialiste qui fait le boulot. Je regarde de loin. Mais je voulais quand même lui demander : comme il doit certainement le savoir, il y a eu une enquête auprès des centres ou des grands chercheurs en IA, en leur demandant à quelle échéance ils pensent qu’il y aura une super intelligence, ou du moins une « human-level intelligence ». Et les réponses s’étageaient entre « dans 20 ans », « dans 30 ans », « dans 50 ans ». Et ce qu’en ont conclu les journalistes, c’est qu’on ne sait pas si c’est 20, 30, 50 ou 100, mais enfin, ça va arriver fatalement. C’est quand même étrange d’une certaine façon que lorsqu’ils répondent à des questionnaires, ou qu’ils répondent à des journalistes, beaucoup de tes confrères se laissent quand même aller à faire des prédictions qui, au fond, ne sont pas vraiment sérieuses. C’est purement intuitif d’après ce que tu dis.
[35.56] Raja Chatila : Alors, il y a plusieurs catégories de chercheurs et de réponses. Il y a ceux qui confondent, de nouveau, vitesse de calcul, calcul, taille mémoire, avec intelligence. Ce sont les tenants de la singularité, disons plus ou moins, qui ont choisi une courbe exponentielle judicieusement, en choisissant les points par lesquels elle pourrait passer, s’inspirant de la loi de Moore qui n’a rien de scientifique, bien sûr, pour dire « voilà, en 2045, le 23 septembre [mettons], on atteindra un point où les ordinateurs, la machine, pourra dépasser le cerveau humain. » Évidemment, ils n’ont aucune idée de comment. Le calcul, la capacité de calcul, et d’ailleurs celle-ci existe déjà qui dépasse le cerveau humain dans plusieurs domaines, mais la capacité de calcul toute seule n’est pas suffisante évidemment. A la limite, je dis que puisque c’est comme ça, je prends mes 100 milliards de neurones et je les jette sur une table, comme ça, éparpillés. Ça ne fait pas mon cerveau. Donc le fait de dire ça n’a pas de sens. Mais les tenants de la singularité ont aussi un programme, disons, des intérêts pour dire ça.
Et puis il y a les chercheurs plus honnêtes, je dirais, qui pensent que puisque c’est notre objectif de faire des systèmes d’intelligence artificielle, on va y aboutir un jour. D’une certaine façon, c’est une honnêteté de dire « je travaille sur un programme qui un jour va aboutir à quelque chose ». Mais ils n’en ont pas la moindre idée. En réalité, je pense, d’ailleurs, que pour la plupart, ils n’ont pas un tel programme de recherche, mais sont plutôt focalisés sur certains éléments.
En gros, l’idée c’est qu’il y a un chemin, qui est sans doute escarpé, mais le sommet de la montagne existe : c’est le cerveau humain. On y arrivera bien un jour. Peut-être. De nouveau, je ne dis jamais « jamais ». Mais je pense qu’il est très probable qu’il faudra attaquer ça par une face nord et par un passage qui n’a pas encore été découvert. Et puis il y a beaucoup de gens qui répondent parce qu’on leur pose la question. Les journalistes sont assez doués pour sous-tirer des réponses même quand on ne veut pas répondre. Mais je n’ai absolument aucune idée sur comment on peut atteindre cela, ni quand, pour être très honnête.