26 Sep, 2021

Audition Jean-Gabriel Ganascia (Partie 1)

Audition de Jean-Gabriel Ganascia par Mehdi Khamassi

Cette vidéo fait partie du cycle d’auditions TESaCo sur l’IA et la Robotique.

 

Jean-Gabriel Ganascia est professeur d’Informatique à Sorbonne Université, spécialiste d’Intelligence Artificielle et de Sciences Cognitives. Il a créé et dirigé en 1993 le Programme de Recherches Coordonnées « Sciences Cognitives » pour le compte du ministère de la recherche, puis le Groupement d’Intérêt Scientifique « Sciences de la cognition » (Pour le ministère de la recherche, le CNRS, le CEA, l’INRIA, et l’INRETS) (de 1995-2000). Depuis 2016, il est président du Comité d’éthique du CNRS, mais également membre depuis 2012 de la CERNA (Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene). Il est aussi membre du tout jeune Comité Pilote de l’Éthique du Numérique, créé fin 2019 par le Comité Consultatif National d’Éthique.

Il a notamment publié les ouvrages suivants :

Ganascia, J. G. (2022). Servitudes virtuelles. Éditions du Seuil.

Ganascia, J. G. (2017). Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ? Le Seuil.

Ganascia, J. G. (2017). Intelligence artificielle : vers une domination programmée ? Le Cavalier Bleu Editions.

Nevejans, N., Hauser, J., Ganascia, J. G., & Édition, L. E. H. (2017). Traité de Droit et d’éthique de la robotique civile. LEH édition.

Braly, J. P., & Ganascia, J. G. (2017). Le temps des robots est-il venu ? Découvrez comment ils transforment déjà notre quotidien. Editions Quae.

Ganascia, J. G. (2006). Les sciences cognitives. Le pommier.

Ganascia, J. G. (1993). L’intelligence artificielle. Flammarion (Collection Dominos).

Il a aussi publié, en 2019, un roman intitulé « Ce matin, maman a été téléchargée » sous le nom de plume de Gabriel Naëj (Buchet-Chastel)

 

Partie 1 – Historique de l’IA

 

[0.07] Mehdi Khamassi : Bonjour Jean-Gabriel Ganascia. Tu es professeur d’informatique à Sorbonne Université, spécialiste d’intelligence artificielle et de sciences cognitives. Tu as dirigé différents programmes de sciences cognitives en France. De façon assez importante pour les questions que nous nous posons dans TESaCo, tu es très impliqué sur beaucoup de questions éthiques depuis quelques années. Tu es notamment, depuis 2016, Président du Comité d’éthique du CNRS, et d’autres comités que je ne vais pas tous citer. Mais je suis également très intéressé par le fait que tu es aussi membre du tout jeune Comité pilote du numérique qui a été créé fin 2019 par le Comité consultatif national d’éthique. Ce n’est un secret pour personne, les questions d’éthique et de sciences en société t’importent beaucoup, et c’est à ce titre qu’il est important pour nous d’avoir ton regard et ta vision des choses, et qu’on en discute dans le cadre des technologies émergentes et en particulier de l’intelligence artificielle.

Historique et évolution de l’intelligence artificielle

[0.48] Mehdi Khamassi : Je voulais te demander d’abord de resituer les choses sur les débuts et l’évolution de l’intelligence artificielle, tels que tu les vois. Je voudrais notamment partir d’un passage d’un de tes ouvrages récents Le mythe de la singularité où tu rappelles qu’en 1955 la naissance de l’utilisation du terme “Intelligence artificielle” par John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon, vient d’un projet pour un workshop à Dartmouth College qui a lieu l’année suivante, dont l’idée est de décomposer chaque aspect de l’apprentissage ou de tout autre caractéristique de l’intelligence en petits modules qu’on pourrait décrire si précisément qu’une machine pourrait être programmée pour les simuler. Pour moi, ce qui est frappant là-dedans c’est : d’une part le fait que ce n’est pas forcément le but de faire une intelligence artificielle générale, globale, il s’agit plutôt de s’intéresser vraiment à des fonctions cognitives distinctes ; d’autre part, je trouve que l’objectif de décrire et de simuler pour essayer de mieux comprendre des fonctions cognitives est très proche d’objectifs qu’on peut voir en psychologie cognitive ou en neurosciences. 

Comment vois-tu cette évolution, c’est-à-dire cette éventuelle séparation qui a eu lieu, avec aujourd’hui l’apprentissage machine qui cherche rarement la bio-inspiration, mais qui est plutôt intéressé par l’efficacité statistique pour extraire de la connaissance de masse de données ? Comment vois-tu éventuellement à nouveau des échanges aujourd’hui ?

[2.13] Jean-Gabriel Ganascia : D’abord bonjour et merci de m’avoir invité. Effectivement, quand on regarde le début de l’intelligence artificielle et le projet qui a été soumis par John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon à la Rockefeller Foundation afin d’obtenir un financement pour une école d’été, l’ambition est très proche de celle des sciences cognitives. Il n’y a pas de différences fondamentales. Cela puise aussi son inspiration dans les travaux qui avaient été conduits quelques années auparavant dans le cadre de la cybernétique, même si les orientations ne sont pas tout à fait les mêmes. Nous avons dans le projet, c’est dit explicitement, l’objectif de fonder une science nouvelle qui permettrait de mieux comprendre l’intelligence en procédant à des simulations avec ces outils assez étonnants pour l’époque qu’étaient les ordinateurs. Il faut bien comprendre que Marvin Minsky et surtout John McCarthy étaient des mathématiciens. Ils avaient découvert l’informatique au cours de leurs études et ils pensaient qu’elle ouvrait des pistes nouvelles. Il en allait de même pour tous les autres participants de l’école d’été de Dartmouth College, qu’il s’agisse d’Herbert Simon, qui deviendra prix Nobel d’économie, d’Allen Newell, de Ray Solomonoff, de John Holland, d’Oliver Selfridge ou a fortiori de Nathaniel Rochester, directeur scientifique d’IBM et de Claude Shannon l’homme de la théorie de l’information. Ils étaient fascinés par les ordinateurs, qui ouvraient un champ de potentialités extrêmement grand. 

En même temps, quand on lit bien les textes, en tout cas ceux qui apparaîtront après, on voit que très tôt les précurseurs de l’intelligence artificielle ont eu le sentiment qu’il y avait deux perspectives qui n’étaient pas nécessairement antagonistes, mais complémentaires. L’une était de mieux comprendre la nature de l’intelligence, en procédant à des simulations de différentes fonctions cognitives, puis à confrontations empiriques avec les facultés cognitives humaines, de façon à valider ces modèles informatiques. Il faut bien comprendre que le concept d’intelligence est un très vieux concept en philosophie, et qu’il a été utilisé il y a longtemps, par exemple, par Giambattista Vico au début du XVIIIe siècle, avant d’être quasiment abandonné par les philosophes, qui ne l’emploient presque plus. Désormais, ils parlent plutôt d’esprit et de théorie de l’esprit que d’intelligence. Ceux qui, parmi eux, mentionnèrent encore le terme « intelligence », comme Hyppolite Taine, auteur d’un traité paru en 1870 et intitulé « De l’intelligence », le firent parce qu’ils étudiaient les problématiques philosophiques, en particulier les théories de la connaissance, de façon empirique, avec des méthodes expérimentales issues des sciences de la nature, en particulier de la physique, et donc de façon très interdisciplinaire. Il s’ensuit qu’à partir du XIXe siècle, le concept d’intelligence s’employa surtout en psychologie, entendu comme la discipline scientifique qui aborde des problématiques philosophiques avec les méthodes des sciences de la nature. C’est là une première perspective sur l’intelligence artificielle. Mais, il en existe une autre qui apparaît très tôt et qui se révèle être pratique. Dès ses premiers articles sur l’intelligence artificielle, Herbert Simon explique qu’outre la perspective scientifique susmentionnée, l’intelligence artificielle contribue à la résolution de problèmes, ce qui serait susceptible d’avoir de nombreuses applications pratiques fort utiles dans bien des secteurs. Avec le temps, les aspects plus fondamentaux, scientifiques, ont été repris entre autres par les sciences cognitives, qui viennent, il est important de le rappeler, de l’intelligence artificielle. Plus exactement, les sciences cognitives trouvent leur origine avec la cybernétique, avec l’idée qu’existe un parallèle entre des systèmes de traitement de l’information et la cognition. Mais le terme « sciences cognitives » a été introduit par l’intelligence artificielle sémantique, au milieu des années 1970, et a ensuite été repris et généralisé dans le milieu des années quatre-vingts pour englober des études sur le cerveau. Au départ, il y avait assez peu de neurosciences dans les tout premiers travaux de sciences cognitives ; celles-ci se centraient sur la linguistique, la psychologie, l’intelligence artificielle et l’informatique. Les choses sont donc un peu surprenantes parce qu’avec le temps, cette perspective scientifique semble être un peu sortie du champ de l’intelligence artificielle, surtout en France, mais peut-être un peu moins aux États-Unis. Sans doute car aux États-Unis, les liens entre l’intelligence artificielle et les sciences cognitives ont plus subsisté ; pour des raisons pratiques aussi, du fait d’un engouement pour l’intelligence artificielle, et de l’existence de sources de financements considérables en l’intelligence artificielle. Mais ce n’était pas le cas au tout début des sciences cognitives. Il est toujours très intéressant d’avoir une vue généalogique des disciplines car on comprend mieux leurs racines et, par conséquent, leur assise épistémologique.

Place centrale de l’apprentissage en IA

[6.58] Mehdi Khamassi : Oui, tout à fait. Comme tu l’as mentionné, très vite une des perspectives a été de s’intéresser à la résolution de problèmes – d’ailleurs considérée comme jusqu’alors réservé à l’homme, – et aux questions de raisonnements. Mais dès le départ, on a l’impression qu’il y avait une place centrale pour le rôle de l’apprentissage, au point même qu’aujourd’hui on a l’impression que dans la tête de nombreuses personnes, intelligence artificielle et apprentissage machine se confondent un peu. Qu’en penses-tu ? Au fond, c’est peut-être important et peut-être partages-tu cette idée selon laquelle, de toute façon on ne pourra atteindre d’intelligence artificielle que lorsque des systèmes seront capables d’apprendre par eux-mêmes. Mais est-ce que cela va plus loin ? Ce rôle d’apprentissage est-il à ce point central pour toi ?

[7.39] Jean-Gabriel Ganascia : Ça a été central depuis le début de l’intelligence artificielle. Même avant. Les travaux de Turing dans son célèbre article Computing Machinery and Intelligence, dans la revue Mind, évoquent déjà l’apprentissage car il pressent qu’il est essentiel, si on veut fabriquer des machines qui semblent penser, qu’elles se fondent sur une immense quantité de connaissances. Quand il conçoit son fameux “Test de Turing”, qui est plus une expérience de pensée qu’un projet de réalisation matérielle, il n’avait pas l’idée qu’on irait, un jour, jusqu’à fabriquer une machine qui le mettrait en œuvre. Plus exactement, ce n’était pas son objectif premier dans l’article. Il dit que pour arriver à conduire un dialogue avec un homme et/ou une femme, et prêter au change, c’est-à-dire faire illusion, il faut qu’une machine dispose d’un nombre considérable de connaissances. À cette fin, on peut soit transférer les données directement dans la machine, ce qui est extrêmement long et fastidieux, soit essayer de faire en sorte que la machine les acquiert d’elle-même ; c’est ce qui fait l’objet de l’apprentissage. Il donne d’ailleurs plusieurs métaphores de ce que pourrait être l’apprentissage machine. Il imagine que ça pourrait ressembler à la façon dont un individu apprend ; on dresse là une analogie entre la machine et de psychisme humain ; il imagine aussi que cela se présente comme avec un cerveau, ou comme des populations dont le patrimoine génétique évolue, ou encore, en usant d’un parallèle avec la culture collective, comme les idées qui naissent dans l’intérieur des sociétés. Tout cela a été pensé avant que le terme « intelligence artificielle » n’ait été inventé. Dans le texte introductif de l’école de Dartmouth College, il est dit, comme tu l’as rappelé tout à l’heure, que l’intelligence artificielle aspire à modéliser toutes les fonctions cognitives, qu’elles relèvent de l’apprentissage, voire même des apprentissages, tant l’apprentissage est multiple, ou de toutes les autres caractéristiques de l’intelligence, raisonnement, mémoire, décision, réflexion, etc. Ici, l’apprentissage est même mis en premier, avant les autres aspects de l’intelligence. Les organisateurs de l’école d’été de Dartmouth College savaient qu’il y avait un soucis. En effet, Marvin Minsky était lui-même cybernéticien. Il avait travaillé, au cours de sa thèse sur des réseaux de neurones formels et avait essayé de faire de l’apprentissage machine, mais en vain. Il s’était heurté à de très grandes difficultés qu’il n’était pas parvenu à surmonter. Il savait donc à quel point c’était problématique. Quand il a écrit avec Seymour Papert en 1969 l’ouvrage intitulé Perceptrons, pour faire une critique de l’algorithme d’apprentissage du perceptron de Rosenblatt, il avait lui-même une très bonne connaissance de l’apprentissage dans les réseaux de neurones formels. 

Indépendamment de l’importance des mécanismes d’apprentissage, il y a l’idée assez naturelle que, si on veut être capable de faire des choses qui soient vraiment nouvelles, il ne faut pas simplement déployer un enchaînement mécanique de raisons, mais construire automatiquement de nouvelles connaissances. Les premiers travaux d’Arthur Samuel sur l’apprentissage par renforcement datent d’ailleurs de 1959 : il était arrivé, avec les techniques qu’il avait conçues, à ce que le programme de jeux de dames qu’il avait réalisé s’améliore automatiquement, jusqu’à battre l’un des meilleurs joueurs aux États-Unis. Donc dès le départ l’apprentissage accompagne l’intelligence artificielle. Toutefois, même si l’apprentissage y prend une part importance, ne recouvre pas l’intégralité du champ de l’intelligence artificielle. Ainsi, dès 1956, Herbert Simon simule sur des ordinateurs la résolution de problèmes en transférant, manuellement, des connaissances dans les machines.

Aujourd’hui ce qui est vraiment particulier, c’est qu’on a tendance à réduire l’intégralité de l’intelligence artificielle à l’apprentissage, et surtout à une seule forme d’apprentissage, l’apprentissage supervisé, et parmi les techniques d’apprentissage supervisé, à une seule technique, l’apprentissage profond, alors qu’au début il était question de tous les apprentissages possibles, c’est-à-dire de toutes les capacités qu’aurait une machine de construire des connaissances en s’inspirant de différents modèles. On observe donc une réduction de l’empan de l’intelligence artificielle aujourd’hui et, en quelque sorte, à une régression. D’autant plus, et bizarrement, que les concepts présents aujourd’hui apparaissent relativement anciens, même s’ils ont subi des évolutions, même s’il y a un grand nombre d’astuces et de tours de mains déployés pour mettre en œuvre ces technologies, enfin, même si les progrès des ordinateurs font qu’on est capable de mettre en œuvre des choses qui auraient été impossibles auparavant. 

En résumé, on observe toujours une prééminence de l’apprentissage aujourd’hui en intelligence artificielle. Moi-même j’ai commencé à travailler sur des systèmes à base de connaissances. C’était les premiers systèmes experts, et assez vite, dès que j’ai eu ma thèse de Docteur ingénieur, j’ai poursuivi sur l’apprentissage car j’ai eu l’intuition que c’était central. Il s’agissait d’apprentissage symbolique, donc pas tout à fait d’apprentissage avec les réseaux de neurones formels, mais tout de même je m’y intéressais, je regardais ce qui se faisait. À l’époque on m’a appris que les algorithmes employés pour l’apprentissage neuronal étaient instables. Il a fallu attendre 1986, avec les algorithmes de rétro-propagation de gradient qui généralisaient les algorithmes d’apprentissage du perceptron, pour avoir des résultats tangibles. Mais ceux-ci demeuraient encore très ténus.

Jusqu’où va l’opposition entre les approches symboliques et l’apprentissage statistique ?

[13.02] Mehdi Khamassi : Alors tu as anticipé ma question suivante. Comme tu es spécialiste de l’apprentissage machine, il me semble qu’au début de tes travaux, comme tu l’as dit, tu étais plutôt sur des approches symboliques. Ce qui me frappe c’est qu’il semble y avoir très vite une opposition entre les apprentissages dans les réseaux de neurones distribués, avec quand même des tentatives de formalisation de choses qui viennent des statistiques, mais comme s’il y avait une opposition avec l’apprentissage symbolique. Aujourd’hui, on a presque l’impression avec le deep learning ou autre qu’on est purement dans l’efficacité de l’apprentissage distribué sans chercher à faire un retour vers la construction de symboles qui vont permettre le raisonnement. Je me demande donc dans quelle mesure une hybridation, où à un moment donné de faire communiquer ces différents niveaux, est nécessaire pour une cognition satisfaisante.

[13.52] Jean-Gabriel Ganascia : C’est toujours apparu nécessaire. Il y a une expression courante, reprise parfois par des philosophes peu soucieux de philologie et d’histoire des sciences, pour décrire les approches symboliques de l’intelligence artificielle, GOFAI “Good Old Fashioned Artificial Intelligence”. Cette expression laisse entendre qu’au départ l’intelligence artificielle était symbolique et puis qu’ensuite elle est devenue numérique. C’est une contre-vérité. Il suffit de lire les papiers des pionniers, par exemple le projet d’école d’été de Dartmouth College tel qu’il a été soumis par John MacCarthy et Marvin Minsky à la Rockefeller Foundation : la référence aux réseaux de neurones y est explicite. Il y a donc eu, dès le départ de l’intelligence artificielle, une composante numérique importante. De plus, à l’époque, les chercheurs étaient d’abord des numériciens, avec une formation d’ingénieurs spécialisés dans le traitement du signal, etc. Moi-même, quand j’ai commencé, je connaissais très bien le traitement du signal. J’ai découvert la logique après, en faisant de l’intelligence artificielle. Il y eu, avec le temps, un abandon des approches numériques en l’intelligence artificielle, mais très vite on s’est rendu compte qu’il fallait coupler les deux.

Rappelons d’abord que, dans son livre publié en 1969 et intitulé Perceptrons, Marvin Minsky explique que les techniques d’apprentissage sur des perceptrons multicouches se heurtent à des obstacles quasiment insurmontables. Soit on a affaire à un perceptron à deux couches, auquel cas l’apprentissage se limite à des classes de fonctions très pauvres, soit on a affaire un perceptron à trois couches et plus, et la complexité algorithmique des procédures d’apprentissage devient rédhibitoire. On sait depuis le tout premier article princeps de Walter Pitts sur les réseaux de neurones, qu’à partir de trois couches, un réseau de neurones est universel, il implémente n’importe quelle fonction logique. Au départ, cette propriété se limitait à des fonctions booléennes, c’est-à-dire, à des fonctions logiques qui donnent des valeurs 1 pour vrai ou 0 pour faux ; plus tard, on a étendu ce résultat d’universalité aux fonctions continues. Or, l’algorithme d’apprentissage du perceptron de Frank Rosenblatt était limité à des perceptrons à deux couches ; son extension à des perceptrons à plus de deux couches paraissait à Marvin Minsky très difficile, voire impossible. Dans le même temps, Marvin Minsky expliquait que, pour résoudre ce problème, il faudrait ajouter des traits sémantiques dans la représentation. L’idée de couplage était donc déjà présente. 

Je me souviens moi-même que, quand j’ai travaillé avec Yves Kodratoff sur l’apprentissage symbolique dès le début des années quatre-vingts, nous avons eu très vite des échanges avec des spécialistes de l’analyse de données en particulier avec des chercheurs qui venaient de l’école du mathématicien Jean-Paul Benzécri, fondateur de méthodes d’analyse de données comme l’analyse factorielle par correspondance. Moi-même, je connaissais bien Edwin Diday qui a été dans mon jury de thèse d’État. Il y avait toute une école qui travaillait sur l’hybridation des méthodes et on avait organisé des journées “symbolique / numérique”. Encore une fois, l’idée du couplage des deux est présente très tôt. Dès 1983, nous avons organisé des journées communes avec Françoise Fogelman où l’on comparait les différentes techniques d’apprentissage, dont les techniques d’apprentissage neuronal. Moi-même, plus tard, j’ai eu un projet dans les années 1990 sur l’extraction de règles à partir de réseaux de neurones formels avec une étudiante, Irina Tchoumatchenko et un collègue, spécialiste des réseaux de neurones, Maurice Milgram. Notre approche consistait à « durcir » progressivement les poids synaptiques des réseaux de neurones artificiels au cours de l’apprentissage pour être en mesure d’interpréter les résultats à l’issue de l’apprentissage. Il existait d’autres travaux semblables aux États-Unis, par exemple ceux de Jude Shavlik.  Dès le début, cette jonction du symbolique et du numérique est apparue comme quelque chose d’extrêmement important. Aujourd’hui, c’est encore plus important d’une certaine façon, parce qu’on a beaucoup développé les méthodes d’apprentissage numérique avec les méthodes des réseaux de neurones formels, en oubliant d’ailleurs un peu toutes les autres méthodes qui avaient été développées avec les SVM, les machines à noyau, toute les théories formelles de l’apprentissage etc. Aujourd’hui, on dispose d’algorithmes d’apprentissage supervisé remarquablement efficaces. Mais, les classifieurs résultant de cet apprentissage s’imposent comme des espèces d’oracles aveugles, c’est-à-dire comme des boîtes noires dont on ne sait pas expliquer pourquoi elles produisent telle ou telle sortie. Dans certaines situations, cela ne pose pas trop de problème. S’il s’agit, par exemple, d’examiner des grains de beauté et de faire un diagnostic médical pour savoir s’ils sont potentiellement malins ou bénins, cela ne pose pas trop de problème parce que de toute façon ça va aider le médecin à faire un premier diagnostic qu’il confirmera ensuite avec d’autres moyens. Pour d’autres applications c’est plus problématique parce qu’on a absolument besoin de justifier la réponse. Il ne faut pas se contenter de dire « oui » ou « non ». On doit fournir ce qu’on appelle des explications en indiquant, sur le cas particulier en cours d’études, les éléments d’informations qui ont conduit à telle ou telle conclusion. Si par exemple, on a un système informatique qui aide la banque à décider d’un prêt bancaire et que celui-ci dit à un client “Non, on vous refuse votre prêt. » il faut être capable de lui en indiquer les raisons, par exemple parce qu’il est trop âgé, qu’il ne gagne pas assez, qu’il dépense trop etc. Si le système répond juste “Non, parce que votre score est à 0,75 et qu’il faut 0,80 pour vous donner le prêt.” ce n’est pas du tout acceptable. Bien sûr, ces questions ne sont pas neuves… Mais, cela ne veut pas dire que nous sommes capables de les résoudre.

Symbolisme, explications et argumentation

[20.01] Mehdi Khamassi : C’est très intéressant que tu parles de la notion d’explication car au fond quand on pense à nous humains, on est, la plupart du temps ou du moins de temps en temps, capable de dire “J’ai abouti à telle solution parce que j’ai raisonné comme ceci, comme cela”. On est capable d’ailleurs d’échanger et de partager pour ensuite corriger le raisonnement de l’autre et d’avancer dans ce sens. Pour l’instant, il me semble que les machines développées et les programmes ne sont pas encore capables de donner ces explications elles-mêmes. Pour pouvoir donner des explications, il faut peut-être quelque part extraire, simplifier des choses sur le processus et le rendre un peu symbolique, il me semble. 

[20.42] Jean-Gabriel Ganascia : C’est exactement ce qu’on essaye de faire aujourd’hui, car on se rend compte qu’autrement on sera conduit à une impasse. Il y a aura peut-être certaines applications en reconnaissance d’image qui fonctionneront, mais tout un tas d’autres applications qui sont extrêmement bénéfiques en pratique, ne seront pas acceptées socialement. Donc cela est tout à fait essentiel. Concernant le deuxième point important que tu évoques, il y a non seulement les explications mais aussi l’argumentation. Il faut être capable, lorsqu’une machine nous donne un certain nombre de réponses, de mettre en cause certains éléments, de dire “voilà tel argument est compréhensible, mais il semble qu’il y ait un contre-argument à cet argument”. Des travaux commencent à se déployer aujourd’hui pour mettre en évidence ces phénomènes d’argumentation collective. Ça peut être une argumentation entre des hommes ou entre des hommes et des machines. Et, bien sûr, lorsque cette argumentation se déploie entre des hommes et des machines, les arguments de la machine peuvent être construits à partir des résultats de l’apprentissage. Cela ouvre bien sûr beaucoup de possibilités. Ce qui est important c’est que l’ordinateur ne deviennent pas un oracle dont on se sente forcé d’accepter les sentences, sans rien dire. C’est la raison pour laquelle il faut instaurer un dialogue entre des hommes et des machines d’un côté, et entre des hommes par l’intermédiaire des machines.

Audition Jean-Gabriel Ganascia (Partie 2)

https://www.youtube.com/watch?v=Nlay2LRfRiw Audition de Jean-Gabriel Ganascia par Mehdi Khamassi Cette vidéo fait partie du cycle d’auditions TESaCo sur l’IA et la Robotique. Jean-Gabriel Ganascia est professeur d’Informatique à Sorbonne Université, spécialiste...

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *