27 Juin, 2022
Audition Jean-Gabriel Ganascia (Partie 2)

Audition de Jean-Gabriel Ganascia par Mehdi Khamassi

Cette vidéo fait partie du cycle d’auditions TESaCo sur l’IA et la Robotique.

Jean-Gabriel Ganascia est professeur d’Informatique à Sorbonne Université, spécialiste d’Intelligence Artificielle et de Sciences Cognitives. Il a créé et dirigé en 1993 le Programme de Recherches Coordonnées « Sciences Cognitives » pour le compte du ministère de la recherche, puis le Groupement d’Intérêt Scientifique « Sciences de la cognition » (Pour le ministère de la recherche, le CNRS, le CEA, l’INRIA, et l’INRETS) (de 1995-2000). Depuis 2016, il est président du Comité d’éthique du CNRS, mais également membre depuis 2012 de la CERNA (Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene). Il est aussi membre du tout jeune Comité Pilote de l’Éthique du Numérique, créé fin 2019 par le Comité Consultatif National d’Éthique.

Il a notamment publié les ouvrages suivants :

Ganascia, J. G. (2022). Servitudes virtuelles. Éditions du Seuil.

Ganascia, J. G. (2017). Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ? Le Seuil.

Ganascia, J. G. (2017). Intelligence artificielle : vers une domination programmée ? Le Cavalier Bleu Editions.

Nevejans, N., Hauser, J., Ganascia, J. G., & Édition, L. E. H. (2017). Traité de Droit et d’éthique de la robotique civile. LEH édition.

Braly, J. P., & Ganascia, J. G. (2017). Le temps des robots est-il venu ? Découvrez comment ils transforment déjà notre quotidien. Editions Quae.

Ganascia, J. G. (2006). Les sciences cognitives. Le pommier.

Ganascia, J. G. (1993). L’intelligence artificielle. Flammarion (Collection Dominos).

Il a aussi publié, en 2019, un roman intitulé « Ce matin, maman a été téléchargée » sous le nom de plume de Gabriel Naëj (Buchet-Chastel)

La notion d’IA forte a-t-elle un sens ?

[0.12] Mehdi Khamassi : Alors cela me donne envie qu’on discute un petit peu de la notion d’IA forte. Comme tu l’as souligné plusieurs fois dans tes ouvrages et notamment dans Le mythe de la singularité, une partie de ceux qui annoncent l’avènement de l’IA forte, enrobent ça de plein de choses, comme l’idée d’une singularité dans l’évolution des sociétés humaines. Il y a beaucoup d’arguments farfelus, alarmistes mais on va y revenir. Mais au fond, à vouloir dire [comme tu le fais], et c’est important, “Attention il faut décomposer ces raisonnements-là et les ramener à des choses réalistes basées sur un raisonnement scientifique”, parfois tu dis à du “catastrophisme éclairé” comme le propose Jean-Pierre Dupuy, il arrive qu’on se demande si tu es sceptique sur l’avènement d’une IA forte qui dépasserait l’homme ou alors si tu considères que c’est éloigné dans le temps.

[1.04] Jean-Gabriel Ganascia : Moi je trouve que le concept même d’IA forte est très problématique en lui-même parce qu’il repose sur un article de foi, tandis que l’intelligence artificielle depuis qu’elle se développe, est d’abord une discipline empirique, de modélisation et de confrontation [des performances des machines et des hommes, ou des machines entre elles]. On est capable de mieux en mieux comprendre certains aspects de l’intelligence, certaines fonctions cognitives en les simulant et en mesurant l’écart entre la simulation et la réalité. Ça peut être la cognition humaine ou la cognition animale. C’est quelque chose que je trouve extraordinaire. C’est d’ailleurs pour cela que j’ai commencé à faire de l’IA, parce que je me demandais ce qu’était l’intelligence. Quand j’étais enfant, on faisait passer [à tous les écoliers] des tests de QI qui demeuraient très mystérieux pour moi. J’ai essayé de comprendre quelle en était la signification et les limites. C’est quelque chose de passionnant. […]

L’IA forte c’est autre chose. C’est l’idée qu’à un moment donné, la machine va s’emballer et prendre le pouvoir sur nous. [Cela m’apparaît invraisemblable. C’est un article de foi, pas une hypothèse scientifique.] Paradoxalement, la notion d’IA forte a été introduite par John Searle pour critiquer un certain nombre de philosophes, pas du tout pour…

[2.38] Mehdi Khamassi : .. pour annoncer l’avènement.

[2.40] Jean-Gabriel Ganascia : Oui c’est ça. En réalité, il a essayé de radicaliser la position de ses collègues [, les philosophes cognitivistes, avec qui il était en désaccord]. Il l’a fait au milieu des années 1980-85, en introduction à son expérience de pensée sur la chambre chinoise. Là, il explique qu’il n’a rien contre l’intelligence artificielle, que ça le fascine, qu’il est certain que cette discipline va faire des progrès considérables et que ce n’est pas la puissance empirique des machines qu’il met en cause. Il va même jusqu’à affirmer qu’on sera peut-être capable, un jour, de fabriquer une machine qui simulera complètement le vivant. Là n’est pas le problème. Ce qui lui paraissait extrêmement douteux, c’est l’idée selon laquelle quelques manipulations de symboles suffisent à reproduire des phénomènes sémantiques. Selon lui, il faudrait, si on voulait simuler le vivant, qu’il y ait un degré de finesse qui soit analogue à celui de la chimie. La grossièreté des moyens mis en œuvre par l’intelligence artificielle permettra, certainement, de rendre des services pratiques, mais on n’arrivera jamais à accéder aux phénomènes producteurs du sens, à la sémantique. Pour caractériser cela, il l’appelle « IA forte » une IA qui accèderait au sens et « IA faible » une IA qui se contente de procéder à des manipulations de symboles et de faire illusion. Curieusement, la notion d’« IA forte » a été reprise quelques années plus tard par des spécialistes d’intelligence artificielle, en particulier par un roboticien qui s’appelle Hans Moravec, et par d’autres qui ont tous affirmé qu’ils étaient en train de réaliser l’IA forte. En fait, ce qu’ils voulaient dire à propos des méthodes symboliques que critiquait John Searle, c’est que l’intelligence artificielle d’aujourd’hui — nous étions au milieu des années quatre-vingts — sera capable d’aller au-delà puisqu’elle ne se limite pas aux méthodes symboliques. C’est pour ça qu’on a inventé l’idée de GOFAI. Le problème c’est que cette critique faite au milieu des années 1980 pour critiquer l’intelligence artificielle du début des années 1980 et de la fin des années 1970 n’a plus de pertinence aujourd’hui, 35 ans plus tard, car cette nouvelle approche de l’intelligence artificielle, qu’on a appelé « la nouvelle intelligence artificielle », est presque aussi vieille que l’autre. En plus de ça, elle passe sous silence le fait qu’il y avait déjà du numérique auparavant, au tout début de l’IA et, surtout avant, avec la cybernétique. Ce qui est très curieux donc, c’est que ce sont des arguments contextuels qui auraient dû disparaître avec le temps. À l’époque, pour donner plus de poids à ses arguments, Hans Moravec prophétise qu’on va arriver à l’IA forte, celle dont John Searle disait qu’elle n’était pas accessible à partir des méthodes symboliques classiques. Et il explique que l’approche sub-symbolique qu’il déploie y arrivera [, puisqu’elle s’affranchira des limitations de l’approche symbolique]. C’était quand même d’une très grande naïveté parce que, bien sûr, ça n’atteignait pas le « niveau de finesse » de la chimie qui seul aurait permis, selon Searle, d’accéder aux phénomènes sémantiques. Et, bien évidemment, ce n’est toujours pas le cas aujourd’hui, et l’on en est toujours extrêmement éloigné. Il ne s’agit pas ici de critiquer des méthodes qui se révèlent très puissantes, mais simplement de dénoncer des prétentions excessives. Dit autrement, il y a une démarche scientifique rationnelle, reposant sur des preuves empiriques et/ou mathématiques — c’est la science telle qu’elle existe — et puis il y a des « croyants » qui affirment avec une forme de dévotion que l’intelligence artificielle adviendra bientôt. Et, ici, on sort du champ de la rationalité ; cela relève de la foi, puisqu’on nous explique que ça va arriver, parce que ça doit arriver. [C’est de cette idée dont il faut se départir.] 

Une dernière chose. Que les machines soient plus performantes que les hommes dans l’exécution de certaines tâches, c’est évidemment vrai depuis longtemps, en particulier depuis le début des ordinateurs. Ceux-ci font bien mieux les multiplications que nous ; et, il en allait ainsi avant même les premiers ordinateurs, avec les machines à calculer qu’Alan Turing a fabriqué pendant la seconde guerre mondiale. Donc, que les machines nous dépassent, on le sait depuis très longtemps. La question c’est de savoir si elles vont — et c’est cela qu’on craint avec l’IA forte — prendre le pouvoir pour nous asservir, au sens où on n’aura plus de capacités à nous autodéterminer. Je pense qu’il n’y a aucun argument sérieux derrière cette idée. 

Quand les succès de l’IA marquent son éloignement des modèles de la cognition humaine, est-ce un échec ?

[7.27] Mehdi Khamassi : Justement sur cette construction de symboles et notamment pour raisonner ou pour ensuite faire du langage, même s’il me semble que les méthodes ont beaucoup évolué, avec des méthodes numériques et des réseaux profonds ou autres, ce qui est fascinant c’est qu’encore aujourd’hui il y a toujours une négligence de certains processus comme l’importance du corps dans la construction d’un symbole, qui me semble pourtant quelque chose de central en sciences cognitives. Certes on a des algorithmes de plus en plus efficaces, par exemple, pour faire de la traduction automatique ou pour générer du texte. Ces textes peuvent paraître surprenants car on aurait presque l’impression qu’ils sont générés par un humain étant donné qu’ils respectent des régularités statistiques observées dans des grandes quantités de données. Mais au fond, ça ne veut pas dire qu’il y a compréhension des termes manipulés. On a l’intuition qu’éventuellement des travaux qui pourraient être faits – sur du très long terme – prenant en compte les informations sensori-motrices, le corps, et donc peut-être plus du côté de la programmation de l’intelligence artificielle sur des robots, pourraient être plus prometteurs. Ne serait-ce que, dans mon intérêt, pour comprendre comment chez l’être humain l’émergence de symboles est ancrée dans le sensori-moteur. Peut-être que de ce point de vue là, on pourrait arriver à des choses intéressantes, à une prochaine étape.

[8.49] Jean-Gabriel Ganascia : Oui tout à fait. Je crois utile de se pencher de nouveau sur les premiers travaux de Turing. Avant d’écrire son article sur l’intelligence computationnelle dans la revue Mind, il avait commencé par d’autres articles, qui étaient des essais préliminaires sur cette question. Dès le départ, il était bien conscient de la complexité de la notion d’intelligence ; il ne souhaitait pas la réduire ; mais, dans un premier temps, il essaya d’éliminer un certain nombre de dimensions, en particulier tout ce qui était ancré dans le monde, parce qu’il jugeait que c’était trop difficile à simuler. Ce n’est pas parce qu’il pensait que ça ne relevait pas de l’intelligence. Plus tard, beaucoup de gens ont critiqué son approche en disant “C’est trop abstrait”. Pourtant, il n’a jamais restreint l’intelligence à des abstractions. Il a simplement préféré, dans un premier temps, s’occuper de choses simples, pour obtenir des premiers résultats. Cela le conduisit à isoler un certain nombre de tâches intellectuelles qui ne requéraient pas de perception et de présence au monde, et qui peuvent donc se faire de façon totalement abstraite. Il en voit plusieurs : il pense aux jeux, notamment au jeu d’échecs, ensuite à la cryptographie et à la traduction automatique. 

[10.09] Mehdi Khamassi : Ah. Alors là je serais moins d’accord.

[10.12] Jean-Gabriel Ganascia : Peu importe ce qu’on en pense aujourd’hui, mais c’est révélateur du point de vue de Turing. Ensuite, après avoir envisagé la traduction automatique, il songe au dialogue. Cela va le conduire à la deuxième version du test dit de Turing, qui passe par une simulation de dialogue alors que la première était un jeu d’échecs. Et, comme il se rend compte que, pour conduire un dialogue, il faut disposer d’une immense quantité de connaissances sur le monde, il réfléchit à leur acquisition, ce qui l’amène à réfléchir aux différentes techniques d’apprentissage automatique que devrait concevoir. Pour la traduction, il la voit comme purement statistique. Rappelons que l’histoire de la traduction automatique commence sur ces bases-là en 1952, avant l’intelligence artificielle. Les premiers projets de machines à traduire datent même de 1949 avec Warren Weaver, juste après les théories de l’information de Claude Shannon. Les premières machines à traduire se basent sur des gros dictionnaires. En 1964, le rapport ALPAC [Automatic Language Processing Advisory Committee ; rédigé par un comité de sept scientifiques menés par John R. Pierce met en cause ces efforts de traduction automatique. Des linguistes affirment que c’est vain ; qu’on ne parviendra jamais à traduire de cette manière, sans compréhension, sans connaissances linguistiques, qu’elles soient syntaxiques, sémantiques ou pragmatiques. Dans les quarante ans qui suivirent, on n’a pas arrêté de dire qu’il fallait se référer à différents niveaux linguistiques (lexical, syntaxique, sémantique, pragmatique, etc.) et introduire des connaissances spécialisées relatives à chacun pour faire de la traduction. Je me souviens des cours de Jacques Pitrat sur le langage naturel où il expliquait qu’il ne fallait surtout pas utiliser les anciennes méthodes des années 1950. Et en 2005, tout change. Apparaît alors une nouvelle hallucinante : Google affirme — même si d’autres personnes avaient commencé à le suggérer — qu’il suffit de faire des statistiques. Que les connaissances linguistiques sont inutiles. Et, les résultats le prouvent ! Les performances des systèmes de traduction statistique sont excellentes, bien meilleures que celles des systèmes fondés sur l’utilisation de connaissances linguistiques. Pour le futur on ne sait pas dire. Il y a certainement des subtilités dont on ne parviendra pas à rendre compte si on n’approche pas les aspects syntaxiques et sémantiques, etc. Pour l’instant, ces outils de traduction automatique marchent bien. Mais on ne sait pas pourquoi ça marche, ça reste mystérieux. Il faudrait vraisemblablement faire appel à d’autres domaines du savoir pour les améliorer. Ce qui est difficile avec l’intelligence artificielle, c’est qu’il y a des choses dont on se dit qu’elles devraient se faire comme ça, car elles sont faites comme ça, et pourtant on obtient de meilleurs résultats avec des méthodes qui sont totalement différentes. D’un côté, on peut dire c’est la puissance de l’intelligence artificielle, et d’un autre côté, c’est son échec. 

Je vais essayer de m’expliquer sur cet échec en prenant pour illustration justement, et sans jeu de mots, le jeu d’échecs. On a commencé à vouloir faire des machines qui jouent aux échecs très tôt. Par exemple, Torres y Quevedo [réalisa dans les années 1920 un automate qui jouait face à un adversaire humain des finales Roi et Tour contre Roi seul]. Claude Shannon et Alan Turing ont écrit des programmes informatiques du jeu d’échecs, parce que les échecs paraissaient emblématiques de l’intelligence. Le film de Bergman, Le 7ème sceau, met en scène le diable, intelligence abstraite [et désincarnée], qui joue aux échecs. Cela paraissait crucial. On se disputait sur les performances des machines. Certains prétendaient qu’un jour une machine battrait un homme, un grand maître, tous les hommes… D’autres se refusaient à l’admettre. En 1968, David Levy, grand maître international, paria qu’aucune machine ne le battrait d’ici dix ans. En 1978, il gagna son pari, mais comprit que des machines l’emporteraient bientôt. Ce fût fait en 1989 avec la machine Deep Thought qui le battit. Ensuite, je passe les détails, mais en 1996 une nouvelle machine, Deep Blue, l’emporta sur le meilleur joueur au monde, Garry Kasparov. [Que ce soit Deep Thought ou Deep Blue,] la machine joue avec ce qu’on appelle la « force brute », à savoir à l’exploration d’un grand nombre de possibilités, du moins grosso modo, car il y a tout de même, dans ces programmes des connaissances sur les ouvertures de parties, des catalogues de fins de parties, des stratégies variables selon la phase de jeu, etc. Mais c’est la puissance de calcul qui l’emporte, ce qui veut dire que la machine ne joue pas comme les hommes, même s’il ne faut pas caricaturer, car ces programmes emploient tout de même quelques connaissances humaines, comme nous venons de le voir. Mais, le succès de Deep Blue contre Kasparov a donné un coup d’arrêt aux recherches conduites auparavant par les chercheurs qui essayaient de modéliser la façon dont les joueurs humains jouaient. En particulier, Herbert Simon et Fernand Gobet avaient fait des études formidables où ils avaient utilisé les travaux d’un psychologue, Adriaan de Groot, lui-même joueur d’échec, et qui avait interviewé beaucoup de grands maîtres aux échecs afin de comprendre comment ils se représentaient le jeu, comment ils mémorisaient la partie en cours, comment ils décidaient de jouer, quelles étaient leurs stratégies, etc. Or, tous ces travaux n’intéressaient plus personne, car ce qui les justifiait c’était qu’une machine l’emporte sur le champion du monde au jeu d’échecs. Donc d’un côté, c’est une victoire de l’intelligence artificielle capable de l’emporter sur Kasparov, le meilleur joueur d’échecs au monde, et en même temps c’est un échec, parce que ce n’est pas la modélisation des facultés cognitives humaines qui a permis de l’emporter. On retrouve ça avec le jeu de go et un peu partout. C’est en effet un paradoxe de l’intelligence artificielle. Lorsqu’elle arrive à réaliser des tâches de façon extrêmement efficace avec des méthodes qui ne sont pas les mêmes que celles qu’emploient les hommes, elles ont d’un côté des résultats qui sont pragmatiquement époustouflants, mais d’un autre côté comme ce sont des méthodes différentes des humains, cela joue en sa défaveur. En tout cas pour la traduction automatique c’est ça. Donc, il est vrai que cela permet de faire des progrès si on est capable de poursuivre dans la modélisation. Mais bien sûr, si on ne fait plus de modélisation comme cela se produit aujourd’hui en traduction automatique, d’une certaine façon cela a un côté stérilisant pour les sciences du langage, en tout cas pour l’étude de la traduction, puisqu’on ne va plus s’intéresser à des subtilités liées à la façon dont les hommes traduisent.

[16.50] Mehdi Khamassi : et dont la compréhension pourrait peut-être aider à plus long terme l’intelligence artificielle elle-même, qui sera à ce moment-là sur des subtilités.

[16.56] Jean-Gabriel Ganascia : Tout à fait.

Audition Jean-Gabriel Ganascia (Partie 1)

https://youtu.be/N5v9bzlZ8A8 Audition de Jean-Gabriel Ganascia par Mehdi Khamassi Cette vidéo fait partie du cycle d’auditions TESaCo sur l’IA et la Robotique. Jean-Gabriel Ganascia est professeur d’Informatique à Sorbonne Université, spécialiste d’Intelligence...

Webinaires · Sciences cognitives appliquées

Webinaires · Sciences cognitives appliquées

Cycle de webinaires Sciences cognitives appliquées. Les jeudis à 17h sur Zoom, en suivant ce lien. L'objectif de cette série de conférences en ligne est de réunir des décideurs et des entrepreneurs avec des spécialistes du comportement de haut niveau travaillant sur...

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée.