Audition de Jean-Gabriel Ganascia par Mehdi Khamassi

Cette vidéo fait partie du cycle d’auditions TESaCo sur l’IA et la Robotique.

Jean-Gabriel Ganascia est professeur d’Informatique à Sorbonne Université, spécialiste d’Intelligence Artificielle et de Sciences Cognitives. Il a créé et dirigé en 1993 le Programme de Recherches Coordonnées « Sciences Cognitives » pour le compte du ministère de la recherche, puis le Groupement d’Intérêt Scientifique « Sciences de la cognition » (Pour le ministère de la recherche, le CNRS, le CEA, l’INRIA, et l’INRETS) (de 1995-2000). Depuis 2016, il est président du Comité d’éthique du CNRS, mais également membre depuis 2012 de la CERNA (Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene). Il est aussi membre du tout jeune Comité Pilote de l’Éthique du Numérique, créé fin 2019 par le Comité Consultatif National d’Éthique.

Il a notamment publié les ouvrages suivants :

Ganascia, J. G. (2022). Servitudes virtuelles. Éditions du Seuil.

Ganascia, J. G. (2017). Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ? Le Seuil.

Ganascia, J. G. (2017). Intelligence artificielle : vers une domination programmée ? Le Cavalier Bleu Editions.

Nevejans, N., Hauser, J., Ganascia, J. G., & Édition, L. E. H. (2017). Traité de Droit et d’éthique de la robotique civile. LEH édition.

Braly, J. P., & Ganascia, J. G. (2017). Le temps des robots est-il venu ? Découvrez comment ils transforment déjà notre quotidien. Editions Quae.

Ganascia, J. G. (2006). Les sciences cognitives. Le pommier.

Ganascia, J. G. (1993). L’intelligence artificielle. Flammarion (Collection Dominos).

Il a aussi publié, en 2019, un roman intitulé « Ce matin, maman a été téléchargée » sous le nom de plume de Gabriel Naëj (Buchet-Chastel)

Sommes-nous dans un processus d’intelligence collective sur les questions d’éthique et d’enjeux sociétaux liés à l’IA ?

[0.19] Mehdi Khamassi : Au fond, comme tu l’écris, cela produit une sorte de captation de l’attention vers des scénarios catastrophistes qui ne sont pas vraiment basés sur un raisonnement éclairé et qui quelque part, j’ai envie de dire, nous empêchent de bien penser ce que l’intelligence artificielle va pouvoir apporter à notre société. Et, comme tu le soulignes, l’intelligence artificielle peut nous apporter beaucoup de choses aussi. Par exemple, elle peut nous aider à faire sens des nombreuses données qu’on a, pour mieux comprendre le monde, prendre de meilleures décisions, ce qui serait un objectif humaniste justement. Et puis on pourrait aussi réfléchir aux risques qui nous semblent probables et à ce qu’on doit faire. Je voulais du coup te demander ton point de vue, avec ton expérience dans des comités d’éthique et tes interventions, penses-tu que la façon dont les États, l’Europe, mais aussi les sociétés savantes, essayent de gérer cette poussée de l’intelligence artificielle, relève quelque part d’un processus d’intelligence collective ? Y a-t-il des choses à améliorer ? Est-ce que les comités d’éthique suffisent ? Qu’est-ce qu’il manque dans tout ça ?

[1.16] Jean-Gabriel Ganascia : Il y a plusieurs choses. Il y a d’abord le besoin d’une stratégie. Les États essaient d’avoir une stratégie parce qu’ils sentent que c’est déterminant pour leur futur. Je ne suis pas sûr que l’Europe ou que la France y parvienne, parce que souvent l’intelligence artificielle s’est mise en place à partir de petites structures et puis ensuite avec la capacité de lancer de très grandes compagnies. Or, en Europe on a du mal, d’autant plus que comme le monde européen est ouvert sur l’extérieur, dès que de petites sociétés commencent à prendre de l’importance, elles peuvent être rachetées par ces grosses sociétés. On comprend bien sûr que les ingénieurs qui lancent des jeunes pousses gagnent de l’argent au moment où celles-ci sont rachetées. C’est d’ailleurs leur seule chance de gagner un peu d’argent. Donc ils ne vont pas s’y opposer, c’est difficile de le leur demander. En plus, l’Europe n’encourage pas vraiment la création de très grands groupes, et même elle les décourage de multiples façons. Ça c’est un problème de stratégie industrielle qui est énorme. D’autant plus que les financements européens sont donnés avec un mécanisme d’évaluation de projets ouvert à tous les partenaires extra-européens. Les grands groupes internationaux ont accès à toutes les informations européennes puisque c’est totalement ouvert. Ils ont un pouvoir de lobbying extrêmement fort. Si on regarde, que ce soit à la Commission européenne ou au Parlement européen, ils sont en permanence présents dans les réunions. On est dans une situation qui empêche toute stratégie industrielle autonome.

Quand on lit les travaux des comités d’éthique, on l’a vu par exemple avec le livre blanc sur l’intelligence artificielle qui a été fait au plan européen, ce qui est très étonnant c’est qu’on nous explique que l’intelligence artificielle est essentielle, que l’Europe s’engage à faire un effort considérable et à mettre de l’argent pour devenir un champion du monde dans ce secteur. Or, l’enveloppe du budget promis est 10 fois moins importante que celle que mettent les États-Unis, et 50 fois moins que la Chine. Donc ce n’est pas sérieux. Surtout, on ne nous explique pas, ce qui est extraordinaire, tout ce que tu évoquais tout à l’heure sur les perspectives qu’on peut ouvrir avec l’intelligence artificielle, tout ce qui pourrait motiver les européens, ce qui fait qu’il y a un futur. Et c’est particulièrement vrai en France où on est très pessimistes par rapport à ça. En revanche, on nous parle de tous les dangers, de toutes les limites qu’il faut imposer, de toutes les restrictions nécessaires, etc. Bref, on montre tous les aspects négatifs et toutes les précautions qu’on prend, mais jamais des aspects positifs…

Les comités d’éthique sur l’IA

[4.00] Jean-Gabriel Ganascia : Quant aux comités d’éthique que l’on met en place, ce sont bien plutôt des comités de régulation. En tout état de cause, ce ne sont pas vraiment des comités de réflexion sur l’éthique ; l’enjeu n’est pas d’ordre philosophique ; il est d’abord et essentiellement juridique. On a fait ça avec le RGPD, qui a ses qualités et ses défauts. Quand on le regarde en détail, il s’avère très lourd, très coûteux et très ambiguë. D’ailleurs, les différents États européens ne l’interprètent pas tous de la même façon. Et puis sur d’autres choses aussi, on n’engage pas les réflexions qui devraient avoir lieu. Il faudrait former l’ensemble des citoyens et des ingénieurs à une réflexion ouverte à chaque moment, parce qu’on ne peut pas anticiper ce qui se passe. Le problème des technologies de l’information c’est que les modes d’appropriation sont toujours différents de ceux qu’on imagine. Qui aurait anticipé qu’avec des réseaux de copains, que sont les réseaux sociaux, on arrive tout à coup à transformer la politique dans le monde et à créer à la fois des empires financiers immenses mais surtout des transformations complètes de la politique ? Donc ça, ce sont des choses qu’on a découvert petit à petit. On ne peut pas exiger dès le départ de savoir ce qui va être bénéfique ou néfaste. Quand on regarde les résultats des rapports qui ont été rédigés par les différents comités d’éthique, ils partent de grands principes de bioéthique qui sont tous un peu discutables et qui, de toute les façons, ne s’appliquent pas vraiment au numérique. En effet, à mon sens les questions d’éthique du numérique ne s’imposent pas dans les mêmes termes que les questions de bioéthique, parce qu’elles ne portent pas sur un individu à un moment donné. Ainsi, en bioéthique, on le sait depuis Hippocrate, le médecin ne doit pas nuire, il doit procurer des remèdes qui soignent et bannir le poison. Peut-on transposer ça et prétendre qu’on ne peut autoriser que des développements technologiques bénéfiques et non maléfiques ? Était-il possible, en 2007, à la naissance de Facebook, de savoir si les réseaux sociaux seraient bons et pas mauvais ? Je crois vraiment qu’il faut qu’il y ait une réflexion plus en profondeur, une discussion vraiment philosophique, et pas seulement des comités à vocation règlementaire qui rédigent des textes et des recommandations insipides, plus nuisible qu’autre chose. 

Discussions au parlement européen

[6.45] Jean-Gabriel Ganascia : On l’a vu d’ailleurs dans les régulations du Parlement européen, par exemple, le fait qu’on a eu cette résolution sur la personnalité juridique des robots. Si on réfléchit un peu, ça n’a pas grand sens parce que cela veut dire qu’on va avoir un fond d’assurance pour indemniser les victimes. On a dit que c’était une fiction juridique analogue à la fiction d’une personnalité morale des sociétés. Mais le parallèle ne tient pas : une société possède naturellement de l’argent, c’est sa fonction, alors que, dans le cas des robots, il n’y en a pas. D’autre part, s’il y a un accident mortel, ça relève du pénal, et ça échappera à ce type de législation. Ça veut dire que la cible est extrêmement étroite. En plus de ça, s’il y a un accident qui a des répercussions financières, le fait d’indemniser la victime sans faire d’enquête, en attribuant la responsabilité au robot et enjoignant à l’assurance d’effectuer le remboursement, est très dommageable. Cela permet de faire l’économie de l’enquête alors qu’il conviendrait de pousser les investigations jusqu’au bout pour déterminer les responsabilités exactes et pour améliorer la technologie. Donc, à mon sens, il ne faut surtout pas accepter une personnalité juridique des robots. Je suis donc très gêné face à cette résolution qui m’apparaît éthiquement condamnable. 

De même sur les systèmes d’armes autonomes, il y a eu beaucoup de bêtises qui ont été dites, car on suppose, — c’est ce qu’on nous explique dans les projets de moratoires, — qu’ils constituent une révolution dans l’art de la guerre qui serait analogue celle qu’ont introduite la poudre à canon et la bombe atomique. Or ça n’a rien à voir parce que ce n’est pas d’une puissance de feux dont il est question avec les armes autonomes. De plus, il n’y a pas révolution. Ce sont des armes automatiques — c’est pour ça que la différence entre automatisme et autonomie est si importante, — c’est donc une continuation de ce qui s’est toujours fait. Entre une mine et une arme autonome il n’y a pas de différence fondamentale, si ce n’est que la mine normalement est immobile (encore qu’il puisse y avoir des mines mobiles, par exemple en mer). Sous la pression d’un certain nombre de groupes d’influence, cela a conduit le Parlement européen, en février 2019, à voter une résolution qui demande à la Commission européenne de ne pas financer les industriels qui fabriqueraient des systèmes d’armes avec de l’intelligence artificielle. Or, aujourd’hui, tout système d’arme moderne contient de l’intelligence artificielle. Cela revient donc à demander à la commission européenne de renoncer à financer une industrie militaire européenne. En conséquence, cela revient à interdire à l’Europe d’avoir une défense souveraine (à désarmer l’Europe). Quand on analyse la généalogie de ce type de résolution, on voit qu’elle vient de groupes de pression anglo-saxons, à la fois américains mais surtout anglais. Il faut savoir que c’était à l’époque où les anglais faisaient encore partie de l’Europe mais allaient quitter l’Europe. Or les anglais ont une industrie de l’armement. Donc ça les arrangeait vraiment que l’Europe ne finance pas d’autres industries de l’armement. Ça veut dire que les législations qui sont en cours d’adoption, ou disons qui ont fait l’objet de résolutions au niveau du Parlement européen, se révèlent délétères. 

On invoque souvent l’éthique, mais, je ne suis pas sûr que ce soient des questions d’éthique ou des considérations éthiques qui motivent ces décisions. L’éthique c’est d’abord — et surtout sur des domaines nouveaux comme ceux-là, — une réflexion sur ce qui est en train d’advenir, une réflexion vive et ouverte à toutes les nouveautés. Et pas simplement des corpus de règles contraignantes qui lient les mains.

Une stratégie européenne sur l’IA ?

[10.30] Mehdi Khamassi : Alors il y a plusieurs éléments : il y a les questions d’éthique et puis cette réflexion en profondeur vraiment à un niveau philosophique, et puis tu parles, et c’est important, de stratégie au niveau européen. Dans ce sens-là, est-ce qu’une intelligence artificielle européenne est quelque chose qui a du sens et un avenir selon toi ?

[10.50] Jean-Gabriel Ganascia : Ça devrait avoir un sens ! En tout cas, je crois qu’on a besoin, dans le domaine du numérique, de travailler à une échelle plus grande qui est celle des nations telles qu’elles existent aujourd’hui, en particulier des États-nations européens. Ce qui fait la puissance des États-Unis c’est qu’ils ont un énorme marché intérieur, avec en plus tout le marché européen. Il me semble que si on veut être capable de mettre en place des très grandes sociétés, il faudrait qu’on puisse avoir un marché de taille équivalente, parce que les données sont proportionnelles à la taille et que la puissance d’un réseau de communication est une fonction quadratique du nombre de nœuds de ce réseau. Donc, plus il y a d’échanges, plus il y a de données et plus on peut développer les techniques d’intelligence artificielle. Je crois donc qu’il est absolument essentiel d’avoir des stratégies européennes. Peut-être que le problème jusqu’à présent, est qu’il n’y a pas de conscience suffisante de cette nécessité en Europe. Sans doute aussi parce que l’Europe est en situation de faiblesse ; elle se prend à son propre piège : elle veut être ouverte au monde entier et donc elle accueille tous les acteurs d’internet qui font leur propre lobbying et qui sabordent un certain nombre d’initiatives strictement européennes. Qui plus est, ils émargent souvent, à travers leurs différentes filiales, à des programmes européens dont ils pompent les financements. Ils recrutent aussi les meilleurs étudiants dont ils aspirent le savoir-faire. Donc, on se retrouve dans une situation où l’Europe est ponctionnée par différents acteurs. Je pense qu’un jour il y a aura une conscience de ces enjeux-là et à ce moment les choses se transformeront. Mais aujourd’hui on se retrouve dans une situation très difficile de ce point de vue-là.

Questionnements éthiques du chercheur en IA 

[12.32] Mehdi Khamassi : Du coup une question que peut se poser le chercheur dans ses actes individuels du quotidien, dans son éthique, dans ses tentatives de contribuer à des choses et parfois juste à une petite échelle : parfois on est exposé à des pétitions qu’on est invité à signer. Notamment, ces dernières années, il y en a qui ont été initiées par des instituts comme, par exemple, le Futur of Life Institute, dont tu rappelles dans tes ouvrages qu’ils sont financés en lien avec ces géants du web, des choses liées à la singularité. Alors au départ, il y avait des premières pétitions et des concepts un peu fumeux effectivement, de la singularité ou autre, sur lesquels je restais sceptique. Et puis, je me rappelle il y a quelques années, peut-être 2017-2018, il y a eu cette pétition qui disait qu’il fallait faire quelque chose par rapport aux armes autonomes. Je me suis retrouvé face à cette pétition à me dire : dois-je me méfier des personnes qui appellent à signer ? En même temps, le contenu me paraissait important pour qu’on prenne conscience de ça et pour que le débat soit ouvert. Et, par exemple, cette pétition-là je l’ai signée, comme un certain nombre de collègues. Mais avec tout ce que tu racontes, il y avait peut-être des intentions derrières. Que doit-on faire ?

[13.37] Jean-Gabriel Ganascia : Alors c’est très difficile. Justement sur les armes autonomes, au moment où je l’ai vue, j’ai quand même pris la peine de regarder en détails. Je me suis rendu compte qu’une analyse vraiment approfondie des termes montrait que c’était absurde. Souvent on nous explique que c’est une troisième révolution dans l’art de la guerre. On nous donne des exemples pathétiques avec ces quadricoptères dévastateurs qui attaqueraient des étudiants sans défense ; il y a eu des films à gros budget qui ont été faits pour nous marquer. Quand on les regarde, au premier abord on est effrayé, on a tendance à signer. Mais si l’on fait une analyse plus approfondie, si l’on discute avec des spécialistes de ce genre de choses, si l’on en parle avec des militaires, on se rend compte des affabulations. Il y a des enjeux très particuliers et il faut être très vigilant. C’est la difficulté parce qu’effectivement au départ, dans nos milieux et nos générations, on n’est en général pas très favorables aux industries de l’armement et on n’aime pas tellement la guerre. Donc effectivement lutter contre ça peut sembler relever d’un mouvement spontané de protection contre les méfaits de la guerre. Je conçois qu’on soit contre les armes et contre la guerre, mais lorsqu’on cible les armes autonomes, la portée est toute autre. Quand on lit le texte lui-même, il n’apparaît pas du tout hostile à la guerre. Il affirme même le contraire en expliquant que c’est inévitable car les États sont en train de les développer. En parallèle, il affirme que ce sont des armes seront peu chères, ce qui est contradictoire. Il fait mine d’ignorer que, contrairement à ce qui se produisait dans les années 1950, ce ne sont plus les militaires qui financent les industries de l’armement — c’est beaucoup plus compliqué que ça —, c’est l’industrie grand public et en particulier sur ces dispositifs, c’est plutôt le jeu vidéo qui va financer des recherches qui ensuite pourront être exploitées par les militaires. On est donc dans un cas de figure totalement différent de celui qui existait auparavant. C’est l’absence d’analyse de ce type de choses qui me semble très problématique. Je crois qu’il faut être très vigilant. J’ai écrit, il y a quelques années, un article sur le sujet. J’ai examiné les enjeux européens autour de ces questions. J’ai constaté qu’il y a des mouvements très forts pour imposer un moratoire au développement de ces armes autonomes. Et, derrière, il y a des enjeux d’ordre politique et économiques qui demanderaient à être élucidés avec une grande perspicacité.

Vers une IA éthique et bienfaisante ?

[17.03] Mehdi Khamassi : J’ai envie de te poser une dernière question qui suit cette direction. Au fond l’objectif d’une intelligence artificielle éthique bienfaisante, qu’on pourrait développer au niveau européen et pousser dans ce sens, semble, en même temps tel que tu le décris, en tension avec les réalités géostratégiques, peut-être avec les ambitions du gouvernement américain, des grandes entreprises comme les géants du web et avec les ambitions de la Chine. Comment faut-il selon toi aborder le problème ?

[17.33] Jean-Gabriel Ganascia : Il faudrait d’abord une éducation de l’ensemble de la population. C’est la très forte demande d’un côté et le refus d’un certain nombre d’applications jugées néfastes de l’autre, qui aideront. Mais, pour cela, il faut expliquer les enjeux. Prenons l’exemple de la reconnaissance faciale et la reconnaissance de postures. Certains veulent l’interdire. Moi je pense que ce serait dommage parce que cela peut avoir des applications extrêmement utiles. Il existe aujourd’hui un patrimoine cinématographique énorme. La reconnaissance faciale peut aider à l’indexer automatiquement. On ne va pas, sous prétexte qu’on peut l’utiliser de façon malfaisante, se priver de ce genre de techniques qui sont essentielles pour mettre en valeur notre patrimoine et notre culture. En même temps, il faut refuser des applications comme celles qu’on développe en Chine, avec un suivi des individus. Je crois que ça ne pourra se faire que s’il y a une société qui est aux aguets et qui s’inquiète à juste titre des applications des technologies. Notre rôle de scientifiques est de bien mettre l’accent sur ce qui est vraiment problématique et sur ce qui l’est moins. Il faut être très attentif parce qu’il y a des mécompréhensions. Au moment de la covid avec les systèmes de traçage il y a eu des inquiétudes qui lorsqu’on les analyse dans le détail n’étaient absolument pas justifiées, parce qu’il y avait une très grande attention, notamment entre autres de la part de chercheurs de l’INRIA, à la protection des données personnelles. Beaucoup craignaient qu’avec les applications de traçage, toute les données de santé individuelles deviennent accessibles à l’État, sans songer qu’elles le sont déjà ! Si on décide de ne jamais mettre les données individuelles de santé à disposition de l’État, il faudrait exiger le démantèlement de la sécurité sociale. On doit être raisonnable ! Il faut essayer d’expliquer les différents risques et les mesures de prévention, puis de les mettre en rapport les unes avec les autres, en expliquant la nature des compromis que l’on choisit, collectivement, de faire. Je pense que c’est ça qui est très difficile dans le monde actuel. Je crois que ce qu’il faut c’est qu’il y ait d’abord une conscience des dangers et des enjeux, et en même temps un projet commun, qui sera aussi une motivation, qui ne soit pas simplement un projet frileux, sinon on n’y arrivera jamais, et que l’ensemble de la population européenne et en particulier française s’intéresse à ces choses-là. Or, malheureusement quand on interview des gens dans la rue, on voit qu’il y a surtout des craintes. Les comités d’éthique que l’on a réunis font surtout écho aux craintes. Ils sont là pour dire “On va y aller mais à reculons”. Alors qu’il faut y aller de façon enthousiaste et, en même temps, être capable de mettre en place des garde-fous contre un certain nombre d’utilisations qui seraient extrêmement dommageables. J’ai mentionné tout à l’heure la notion de “crédit social” telle qu’elle existe en Chine. Je trouve cela terrifiant. Mais il y a plein d’autres applications qui pourraient être problématiques pour notre liberté si l’on n’y prend pas garde. Pour le résumer en un mot, ce qui m’embête, c’est que ces comités d’éthique qui se réunissent depuis 4-5 ans et qui dictent un tas de chartes, de principes et de recommandations, ne se sont jamais opposés au projet d’Elon Musk dans sa société Neuralink, et à sa volonté de connecter tous les cerveaux au réseau internet. D’un point de vue éthique, il n’y a rien de pire : il va nous mettre ce qu’il veut dans la tête. Si cela devait vraiment advenir, ça serait la pire dictature qu’on puisse imaginer. Ce qui m’étonne est que ces comités d’éthique ne s’y sont jamais opposés, alors qu’on aurait dû interdire à Elon Musk de proposer de tels projets. De même, Mark Zuckerberg dit qu’il veut développer des interfaces cerveau-ordinateur. Les interfaces cerveau-ordinateur peuvent jouer un rôle formidable et majeur dans beaucoup de domaines, comme la rééducation après un AVC, etc. Mais Zuckerberg souhaite faire ça dans le but de communiquer entre réseaux sociaux et individus, pour percevoir leurs désirs. C’est ici aussi la pire des choses au point de vue éthique. La morale c’est d’abord d’instituer une distance avec son désir, qu’on est capable de réfréner. Là encore je n’ai pas vu d’opposition par rapport à son projet. C’est cela qu’il faut réussir à dénoncer, et que l’ensemble de la population dise “voilà ce qu’on veut faire, et voilà ce qu’on ne veut pas faire”.

[21.58] Mehdi Khamassi : Un grand merci, car tous ces éléments sont vraiment éclairants, et vont alimenter nos réflexions dans TESaCo. Et au plaisir de rediscuter de tout ça avec toi. 

[22.17] Jean-Gabriel Ganascia : Au plaisir. Sur les questions de technologies, enfin de neurotechnologies cognitives, je voulais qu’on fasse un avis avec le comité d’éthique de l’Inserm. Je ne sais pas si on en aura le temps. Mais ce sont vraiment des questions qu’il faudrait se poser. Il y a beaucoup de jeunes gens hyper sympas qui montent des petites boîtes développant des technologies neurocognitives ; ils n’ont pas d’intentions machiavéliques. Bien au contraire, ils souhaitent améliorer le bien-être. Mais il faut se demander quels effets induits cela peut avoir, par exemple avec la neurostimulation cognitive. Je pense que dans chaque cas de figure, il faut regarder avec attention ce qui est proposé et être capable d’alerter si nécessaire, tout en faisant en sorte de rassurer lorsque c’est possible. J’ai lu par exemple la loi sur la sécurité globale. J’ai ensuite été interviewé, mais je n’osais pas trop m’exprimer, car c’était une émission à la radio, au moment de la covid, à l’aveugle et je ne voyais ni l’interviewer ni les autres interviewés. De plus, le producteur diffusait des informations très hostiles à la loi. Beaucoup ont cristallisé leurs critiques sur l’article 24, dont ils craignaient qu’il interdise la photographie de policiers au cours de manifestations. Il y a peut-être eu plusieurs rédactions de cet article, mais dans celle que j’ai eu, il n’y avait vraiment pas de quoi s’offusquer. Plus précisément, l’article 24 comprend deux sous-articles. Le premier stipule qu’on n’a pas le droit de publier sur les réseaux sociaux des photos qui permettent de reconnaître des agents des forces de l’ordre. Beaucoup ont interprété ça comme une interdiction de prendre en photo les forces de l’ordre. Or, ce n’est pas le cas. En effet, le deuxième sous-article explique qu’il est possible, si ça se justifie, d’envoyer à la justice des photos qui permettent de reconnaître des policiers qui se seraient mal conduits. En cela, on ne veut pas que les gens se fassent justice eux-mêmes. L a loi vise à interdire l’appel public à la haine sur les réseaux sociaux, comme cela s’est produit avec Samuel Paty. Cela apparaît justifié. Il faut l’expliquer. Il y a une mauvaise compréhension. Pourtant, il suffit de lire la loi pour s’en convaincre. Je ne suis pas certain que la première rédaction ait été aussi limpide que celle que j’ai lue, mais celle-là était vraiment très claire. C’est notre rôle je crois d’essayer d’expliquer et de démêler le vrai du faux. Malheureusement, c’est difficile parce que nous sommes dans un monde de technologies de l’information où toutes sortes d’informations circulent et où nos facultés d’attention sont saturées. On n’a pas les capacités cognitives de tout lire. C’est un problème de communication. Dans la communication, il y a l’émetteur, le récepteur, le canal et le code. Et, trop souvent, face à la profusion, le récepteur ne prend, dans le flot immense d’information qu’il reçoit, que celles qui l’intéressent. 

[25.23] Mehdi Khamassi : Et c’est un exercice très délicat pour le chercheur parce que des fois on peut avoir l’air de dire “attention il y a cet aspect positif, ou il y cela qu’il faut nuancer”, mais on peut, si on n’a pas bien expliqué certaines choses, être vite mis dans le même sac “Alors lui, il justifie le système”. Cela peut donner l’effet inverse, et qu’il n’y aot pas plus beaucoup d’écoute.

[25.41] Jean-Gabriel Ganascia : Sur la reconnaissance faciale, j’ai pris ça comme exemple car c’est vrai que c’est extrêmement intéressant de faire l’indexation des vidéos. On ne va pas s’en priver. Il y a plein d’autres applications d’authentification. L’authentification on peut dire que c’est un peu sécuritaire. En revanche, là, l’indexation de données multimédia n’apparaît pas vraiment sécuritaire ; c’est d’un autre ordre. Pour des raisons culturelles, on doit l’encourager. Notre rôle, en tant que chercheurs, est d’expliquer et d’essayer de faire passer ces idées dans la population en éduquant.

[26.24] Mehdi Khamassi : C’est une belle conclusion.