Cette vidéo fait partie du cycle d’auditions TESaCo sur l’IA et la Robotique.
Jean-Gabriel Ganascia est professeur d’Informatique à Sorbonne Université, spécialiste d’Intelligence Artificielle et de Sciences Cognitives. Il a créé et dirigé en 1993 le Programme de Recherches Coordonnées « Sciences Cognitives » pour le compte du ministère de la recherche, puis le Groupement d’Intérêt Scientifique « Sciences de la cognition » (Pour le ministère de la recherche, le CNRS, le CEA, l’INRIA, et l’INRETS) (de 1995-2000). Depuis 2016, il est président du Comité d’éthique du CNRS, mais également membre depuis 2012 de la CERNA (Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene). Il est aussi membre du tout jeune Comité Pilote de l’Éthique du Numérique, créé fin 2019 par le Comité Consultatif National d’Éthique.
Il a notamment publié les ouvrages suivants :
Ganascia, J. G. (2022). Servitudes virtuelles. Éditions du Seuil.
Ganascia, J. G. (2017). Le Mythe de la Singularité. Faut-il craindre l’intelligence artificielle ? Le Seuil.
Ganascia, J. G. (2017). Intelligence artificielle : vers une domination programmée ? Le Cavalier Bleu Editions.
Nevejans, N., Hauser, J., Ganascia, J. G., & Édition, L. E. H. (2017). Traité de Droit et d’éthique de la robotique civile. LEH édition.
Braly, J. P., & Ganascia, J. G. (2017). Le temps des robots est-il venu ? Découvrez comment ils transforment déjà notre quotidien. Editions Quae.
Ganascia, J. G. (2006). Les sciences cognitives. Le pommier.
Ganascia, J. G. (1993). L’intelligence artificielle. Flammarion (Collection Dominos).
Il a aussi publié, en 2019, un roman intitulé « Ce matin, maman a été téléchargée » sous le nom de plume de Gabriel Naëj (Buchet-Chastel)
Quelle forme d’autonomie peuvent atteindre les systèmes artificiels ?
[0.11] Mehdi Khamassi : Dans cette veine, on pourrait se poser la question : est-ce qu’une machine, un système artificiel, peut être autonome ? Je trouve que c’est une question importante. Tu le soulignes, notamment dans Le mythe de la singularité, qu’il faut faire une distinction entre d’une part une autonomie technique – par exemple apprendre à une machine de guerre à décider si elle tire ou non – ce qui est juste la base de l’autonomie. D’autre part, l’autonomie philosophique qui est beaucoup plus large et qui consiste à se définir ses propres buts, donc un autre cadre. J’ai l’impression que, même s’il y a peu d’équipes qui sont en train de le faire, qu’il n’y a rien qui me semble empêcher des machines d’être programmées pour avoir un niveau d’autonomie intermédiaire, avoir des fonctions de récompenses, avoir des objectifs de maximiser une quantité d’énergie, d’obtenir de l’information pour construire un modèle ou une représentation de l’espace. En même temps, à partir de ces fonctions de très haut niveau qui pourraient, elles, être fixes, on pourrait leur permettre de définir elles-mêmes des sous-buts et de définir ce qu’elles doivent faire à un moment donné comme mission par rapport à une autre. Cela serait, il me semble, un autre degré d’autonomie. Déjà, es-tu d’accord avec ça ?
[1.25] Jean-Gabriel Ganascia : Qu’on puisse avoir des machines qui se comportent de façon automatique, ce qu’on appelle “autonome” — par exemple, un véhicule autonome qui soit extrêmement élaboré —, et qui, vues de l’extérieur, nous semble présenter une certaine autonomie ça ne pose pas de problème. Mais que des machines soient autonomes, au sens moral, c’est une autre affaire. Pour bien comprendre, prenons la notion de conscience. Que voudrait dire “être conscient” pour une machine ? Pour qu’on puisse y répondre, il faudrait préciser ce que l’on entend par conscience. Or, il y a plusieurs choses derrière ce terme. Dans les Systèmes Intentionnels (1978), Daniel Dennett, s’intéresse à ce qui se produit de l’extérieur, lorsqu’on attribue des intentions à la machine parce qu’au vu de son comportement elle fait illusion ; tout se passe là comme s’il y avait une entité consciente, un agent rationnel. Ce dernier est un investissement qu’on fait ; on prête à la machine des intentions et des connaissances. Ce prêt est rentable, si l’attribution de buts et de connaissances à cet agent permet d’anticiper le comportement ultérieur de la machine. Cette stratégie est très générale ; elle vaut aussi pour un animal ou n’importe quoi d’autres. Lorsqu’on projette des émotions sur un animal, c’est juste une hypothèse que nous faisons ; nous ne savons rien de ce qu’il éprouve vraiment. Mais ça nous permet d’anticiper assez bien les dispositions dans lesquelles il se trouve et, par-là, son comportement ultérieur. On peut faire la même chose avec les machines. Il n’y a aucun doute sur la capacité qu’on aura, dans le futur, à fabriquer des machines sur lesquelles on pourra faire des projections de ce type-là. Il y a une deuxième acception de la notion de conscience relative à la capacité des machines à s’auto-observer. Quand Stanislas Dehaene nous dit qu’il est capable d’approcher la conscience, c’est de cette dimension dont il parle, à savoir de la faculté de s’observer soi-même. Dans le futur, on sera certainement capable de fabriquer des machines qui le font. D’ailleurs, parmi les techniques d’apprentissage, il y a eu, dans les années quatre-vingts, des chercheurs qui abordaient ces problématiques. C’est ce qu’on appelait l’apprentissage par explication. La machine examinait ses comportements passés et, à partir de ses observations, elle essayait de faire en sorte de ne pas reproduire les mêmes errements, et de devenir plus efficace. Elle regardait son parcours et se disait “j’ai été dans telle direction mais ça ne m’a pas servi à grand-chose ; la prochaine fois, j’irai plus droit au but avec les questions analogues”. Nous avons là une modélisation de la réflexion. Rien ne s’oppose donc à ce qu’une machine puisse être dotée de cette conscience réflexive. Ça lui donnerait un degré d’autonomie, en tout cas d’automaticité, encore plus fort. Ensuite, bien sûr, demeure la question de l’autonomie : est-ce possible ? C’est une question déjà mystérieuse pour nous. Que veut dire pour nous être autonome ? Sommes-nous vraiment autonomes ? Ça ramène à des questions éthiques anciennes. Dans les comités d’éthique de l’intelligence artificielle, on affirme, en s’inspirant des grands principes de bioéthique, qu’il faut préserver à tout prix l’autonomie de la personne humaine. Or, l’autonomie n’est jamais donnée ; elle se conquiert, par la volonté ; et, il en va de même de la liberté. D’ailleurs, toutes les éthiques ne reposent pas sur l’autonomie de la volonté. Ce sont surtout les éthiques des Lumières, au XVIIIème siècle, et à partir de penseurs comme Rousseau, Kant, etc. qui fondent la loi morale sur l’autonomie de la volonté, c’est-à-dire sur la capacité à se donner, soi-même, ses propres règles, sans se soumettre aux traditions ou aux préceptes de la religion. Un sujet de raison s’impose de lui-même un certain nombre de maximes auxquelles il soumet son comportement. Bien sûr, je crois nécessaire de le répéter, cette autonomie n’est pas donnée. Kant explique très bien que, par exemple si on a trop faim, on ne peut pas obéir à ses propres règles. À un moment, le corps se rappelle à nous et nous empêche d’être des sujets autonomes. L’autonomie relève d’un idéal ; un être de raison devrait se comporter de façon autonome ; mais, nous ne sommes pas que des êtres de raison ; nous sommes aussi des êtres de chair et de sang, nous avons faim, nous éprouvons des désirs, etc. Dire qu’une machine peut être autonome en ce sens-là, cela fait peur, car cela suppose qu’elle a des intentions propres qui nous échappent. Lorsque des gens nous disent que tout d’un coup la machine va prendre le pouvoir, c’est l’idée qu’elle va avoir son propre objectif et qu’elle va nous l’imposer. On n’a aucun élément qui nous permette de suggérer ce genre de choses. En revanche, qu’une machine tout d’un coup prenne des décisions qui vont à l’opposé de ce que l’on souhaite et qu’on ne sache pas l’arrêter, ça c’est pas du tout impossible. Ça se voit tous les jours.
Mehdi Khamassi : C’est déjà arrivé oui.
Jean-Gabriel Ganascia : Même si elles font exactement ce qu’on leur a dit de faire, ça ne correspond pas tout à fait à ce qu’on veut qu’elles fassent au moment où elles le font.
[6.18] Mehdi Khamassi : Je suis totalement d’accord. Au fond, sans forcément impliquer que des machines atteignent l’autonomie idéale, – vu qu’on n’est pas sûr de cette autonomie idéale chez l’humain, – il n’y a pas de raison, qu’on n’arrive pas à programmer des machines avec des modèles qui soient assez proches de ce qu’on comprend de l’autonomie décisionnelle telle qu’on l’observe chez l’humain.
[6.45] Jean-Gabriel Ganascia : Tout à fait de ce point de vue-là. C’est juste que la notion d’autonomie morale a quelque chose de très particulier. Il y a, dans la tradition philosophique contemporaine, des personnalités comme Emmanuel Levinas qui s’opposent à Kant sur ce point, parce que justement ce n’est pas le sujet autonome lui-même qui est moral, c’est au contraire dans le rapport à l’autre, l’ouverture au regard de l’autre, au visage de l’autre, – aujourd’hui avec les masques, cette question est d’une douloureuse actualité… je l’ai relu récemment Levinas pour ça. Il parle de “l’épiphanie de l’autre”. Effectivement, c’est dans cette altérité radicale de l’autre que tout d’un coup il y a une naissance de la conscience éthique, qui est très différente de l’idée kantienne. Il ne faut pas mélanger les choses et je crois qu’il faut être assez prudent. L’étymologie d’autonomie, auto-nomos, renvoie à nomos, la loi ; cela signifie ce qui se donne sa propre loi. Or, les machines n’ont pas d’intentions propres, même si elles peuvent se comporter de l’extérieur comme si, en effet, elles avaient des intentions. Ça c’est important parce que du point de vue philosophique, il y a des différences. Il y a toujours eu des incompréhensions. Quand Daniel Dennett a travaillé sur les systèmes intentionnels, il a bien souligné que ce n’était pas une question métaphysique. Pour lui, c’est toujours dans une stratégie de compréhension des machines, qu’on leur attribue des intentions et des connaissances. C’est de ça dont il est question.
Implications sociétales des discours annonçant la singularité
[8.42] Mehdi Khamassi : J’aimerais qu’on aboutisse maintenant à la question sociétale de l’implication de ces discours qui vont annoncer notamment la singularité. Comme tu le soulignes, certaines personnes qui l’annoncent se basent non pas sur un vrai raisonnement scientifique, éclairé, mais plus sur des choses de l’ordre du mythe, des peurs et des émotions. En même temps, une partie de ces gens, qui peuvent parfois avoir des liens forts avec des géants du web, sont finalement ceux aussi qui peut-être bénéficieraient du fait de l’avènement de ça et de ces technologies. Est-ce que tu penses qu’il s’agit en partie d’une opération marketing, qui a moins comme visée de nous éclairer dans le débat, de nous aider à mieux comprendre, mieux réagir et nous adapter dans le futur à la présence d’intelligences artificielles, que d’en faire un certain beurre ? Peut-être qu’il ne faut pas schématiser comme ça. Qu’est-ce que tu en penses ?
[9.36] Jean-Gabriel Ganascia : C’est parce que j’ai entendu tout un tas de déclarations de personnalités reconnus, d’anciens ingénieurs comme Ray Kurzweil, de scientifiques éminents comme Stephen Hawking ou Frank Wilczek, prix Nobel de physique, d’homme d’affaires célèbres comme Elon Musk, même de chercheurs très renommés en intelligence artificielle comme Stuart Russell qui tous alertaient le monde entier en expliquant qu’il y avait quelque chose d’inquiétant dans le développement des machines, que j’ai essayé de lire en détail leurs arguments. Au début, je trouvais cela ennuyeux. La lecture de leurs écrits m’a confirmé dans mon intuition première : scientifiquement il n’y a rien là de tangible. L’histoire de la loi de Moore ça n’est quand même pas très sérieux. Ça ne veut pas dire que la loi de Moore ne va pas se poursuivre, mais on n’en sait rien. Et quand bien même elle continuerait, ça ne signifie pas que les machines deviendront conscientes et qu’elles nous deviendront hostiles. De même la “superintelligence” de Nick Bostrom n’est pas définie ; elle est affirmée comme devant advenir, puis différents scénarios sont dressés. J’ai essayé de lire son bouquin ; c’est d’une très grande opacité. Il faudrait revenir à la question initiale : qu’est-ce que l’intelligence ? C’est ce qui m’a motivé au départ pour faire de l’intelligence artificielle. Ça reste un mystère. On ne se sait pas ce que c’est. On l’approche en la réduisant à un ensemble de fonctions cognitives. Il y a peut-être quelque chose d’autre qui échappe à la modélisation, par exemple la création de concepts, mais peu importe, là n’est pas la question. En tout cas, on ne peut pas réduire l’intelligence à une vitesse de calcul d’un processeur. C’est d’un ordre différent. J’ai regardé en détail les articles, les déclarations et les ouvrages des tenants de la Singularité technologique ou de la super-intelligence et j’ai été très surpris parce qu’il n’y avait rien d’autre que des vues très naïves sur l’intelligence et de la science-fiction assez datée. Ce qui est curieux c’est que les géants du web, qui utilisent beaucoup l’intelligence artificielle, nous expliquent en même temps qu’elle fait peur. On se trouve dans une situation très paradoxale. C’est comme si un marchand de tabac nous expliquait que la cigarette est dangereuse. La cigarette est dangereuse, je n’en doute pas, mais que le marchand de tabac essaie de m’en convaincre, sans que je ne lui aie rien demandé, cela laisse suspecter quelque chose de louche. Les GAFA nous expliquent que l’intelligence artificielle est dangereuse et, pourtant, ils la développent et s’en font les champions. Quel danger annoncent-t-il ? Ils nous racontent une fable incroyable qui se retourne toujours : d’un mal, dont ils prétendent nous avertir, ils tirent un bien. Quand, par exemple, Ray Kurzweil nous dit qu’il faut faire attention parce que la singularité est proche, en même temps il nous dit qu’on va être sauvés par la singularité puisqu’on va pouvoir se survivre et devenir immortel en téléchargeant notre conscience sur les machines. Promesse d’apocalypse ! On sort du champ de la rationalité. De même, quand Elon Musk affirme que l’intelligence artificielle est dangereuse, et qu’il prétend nous sauver en nous aidant à rivaliser avec l’intelligence artificielle grâce aux puces qu’il mettra dans nos têtes pour augmenter nos facultés cognitives. Je ne suis pas un spécialiste de neurosciences mais concernant la capacité qu’on aurait à augmenter nos capacités mnésiques en ajoutant des dispositifs électroniques de stockage, c’est outrancièrement réducteur ! On sait tous que la mémoire, ce n’est pas seulement le stockage, c’est quelque chose de beaucoup plus passionnant que ça.
Mehdi Khamassi : Oui, le tri par exemple.
Jean-Gabriel Ganascia : Tout ce qui est de l’ordre du codage, de ce qui se passe pendant le sommeil, le rêve, la consolidation, ce qui est lié à l’accès, à la réminiscence, tout est évacué ! Cette vision est tellement simpliste qu’elle en est risible. Pourquoi ai-je écrit ce livre sur le mythe de la singularité ? Parce que je me suis rendu compte qu’il y avait beaucoup de discours là-dessus et beaucoup d’arguments qui ne tenaient pas vraiment ; qu’on nageait en pleine confusion. J’ai alors réalisé que c’était à moi, en tant que scientifique et spécialiste d’intelligence artificielle, de relire ces choses et d’expliquer, dans les promesses, celles qui sont tenables et celles qui ne le sont pas. Ça conduit alors à expliquer au grand public ce qu’est la loi de Moore, l’exponentiel et pour quelles raisons les arguments qui se fondent uniquement là-dessus n’ont rien de scientifique. On ne peut pas anticiper ce qui va se passer à partir de la loi de Moore, car ce n’est qu’un résumé d’observations de l’évolution technologique à un moment donné de l’état de la technologie, ce qui fait que, lorsque la technologie évolue, on n’a plus de certitude sur sa viabilité. Mais après, une fois qu’on a montré l’inanité de ces affirmations, ce qui est intéressant, c’est de se demander pourquoi des personnalités reconnues, alors qu’elles n’ont pas l’air d’être idiotes, allèguent des théories aussi farfelues, au risque de se décrédibiliser ?
Mon hypothèse est que plutôt que de nous éclairer, ils essayent de jeter un écran de fumée sur ce qui est en train de se produire. Pourquoi ? Parce que derrière ils ont une stratégie qui, au-delà d’être économique, est politique. Ces grands acteurs de l’internet veulent essayer de prendre le pouvoir au-delà des États, d’assumer à leur place un certain nombre d’attributs de la souveraineté. Ils nous racontent donc une fable qui a pour visée de nous endormir. Mais en réalité, derrière, ils veulent aller très loin. Bien sûr, si on a peur de la singularité, on ne va pas voir ce qui se produit vraiment. Ce qui se produit vraiment c’est non seulement une puissance économique considérable mais aussi des attitudes qui défient en permanence les États. On l’a vu, par exemple, avec Apple. Au moment du premier confinement contre la CoViD, l’accord entre Apple et Google, le protocole qu’ils ont essayé d’imposer aux États européens, est tout à fait révélateur de ce type d’attitudes. Et dernièrement, Twitter a décidé de supprimer le compte de Donald Trump. Je n’ai aucune sympathie avec Donald Trump, mais il s’agit là d’une prise de pouvoir vraiment considérable : s’opposer au président de la république de son propre pays ! Cela pose tout un tas de questions. À partir du moment où les outils de communication sont essentiels pour les citoyens, puisque ça fait partie de leur vie civique, on ne peut pas leur supprimer l’accès à ces outils de façon autoritaire, sans procès, sans instruction du dossier, simplement parce que le propriétaire du réseau social l’a décidé. Cela aurait dû passer par la loi. Les réseaux auraient dû appliquer le droit. De même, en France la question se trouve posée avec la loi Avia. Sur le principe, le gouvernement avait raison, il faut imposer des limites à ce qu’on est peut dire sur les réseaux sociaux : la diffamation, l’incitation à la haine et à la violence sont inadmissibles ; mais il y a des lois qui établissent, avec précision, ces limites ; il suffit de les appliquer. Le problème de la loi Avia, et c’est pour cette raison que le Conseil Constitutionnel ne l’a pas acceptée, c’est qu’elle proposait de confier aux réseaux sociaux la responsabilité de décider de ce qui est acceptable ou non. Cela leur donne à mon sens un pouvoir de censure vraiment considérable. J’ai eu le sentiment que derrière les affabulations des GAFAM au sujet de la Singularité, il y avait des stratégies politiques passant par l’obscurcissement, le brouillage de ce qui en train de se tramer en secret. Je dois dire que j’ai été très étonné de voir à quel point ces fantasmagories avaient du poids.
Difficulté à publier en anglais une critique de la singularité
[17.51] Jean-Gabriel Ganascia : Pour donner un exemple, un peu avant que j’écrive le mythe de la Singularité, un de mes anciens élèves qui avait un poste important chez Axa m’avait posé des questions pour savoir comment la Singularité changerait le futur et quels étaient les risques. Comment est-ce possible qu’une société aussi importante se soit posée des questions là-dessus ? Comment se fait-il qu’ils aient été impressionnés ? À cela il est important d’ajouter que la puissance de ces grands acteurs de l’internet fait que même les philosophes du domaine étaient très réticents à critiquer la Singularité technologique. Ainsi, au plan personnel, je m’étais intéressé, depuis quelques années, aux questions philosophiques liées à l’informatique et à l’intelligence artificielle, en particulier à la modélisation des raisonnements éthiques avec des outils d’intelligence artificielle, autrement dit à ce que l’on appelle l’éthique computationnelle, et je continue de travailler là-dessus. C’est à ce moment que, constatant qu’il y avait trop de discours absurdes sur la Singularité, j’ai ressenti le besoin d’écrire sur le sujet. J’ai donc écrit un article pour une conférence où il y avait trois pelés dans la salle. Après moi, dans la même session, il y avait quelqu’un qui disait des âneries sur l’intelligence artificielle. C’était assez pitoyable. Puis, j’ai écrit un article pour le publier dans l’édition spéciale de la revue qui faisait suite à la conférence. Il y a eu deux relecteurs. L’un, très positif, m’a demandé de changer quelques détails, comme il est d’usage. L’autre m’a répondu qu’il ne pouvait pas être d’accord avec moi sur certaines critiques que j’adressais à Singularité et il m’a demandé de citer 4 fois un article avec le même premier auteur. J’ai alors supposé qu’il s’agissait du premier auteur de l’article. J’ai regardé sur le web ; il se trouve que je le connaissais et qu’il était régulièrement invité à faire des exposés dans les universités de la Singularité ! On a donc donné un article critique sur la Singularité à relire à un tenant de la Singularité. Puis, la personne chargée d’éditer le numéro spécial m’a répondu que, comme nous étions le relecteur et moi, sur deux positions opposées, et que mon article était bien évalué, qu’elle allait lui demander de rédiger une réponse. Cela me réjouissait. Mais, quelques mois plus tard, alors que j’avais oublié l’article entre temps, je reçois une revue d’un troisième relecteur, vraiment furieux, qui proposait de vider l’article de son contenu. J’étais un peu étonné. Je connaissais bien le rédacteur en chef de la revue. Je lui ai demandé si je pouvais réécrire mon article. Il m’a découragé en m’expliquant qu’il y avait très peu de chances que l’article soit finalement accepté et publié dans cette revue, quoi qu’il advienne. Puis je l’ai revu après et il m’a avoué qu’il était difficile d’écrire quelque chose contre la singularité car les enjeux étaient trop importants. J’ai donc compris qu’il y avait une difficulté à parler de ces choses-là en anglais. J’ai donc décidé d’écrire un livre en français. Aujourd’hui, le bouquin est traduit en japonais, en coréen, en portugais, en arabe mais pas en anglais. Fort de cette expérience, je crois pouvoir affirmer qu’il y a sur ces questions-là une ligne extrêmement forte dans les pays anglo-saxons.
Ces théories de la singularité viennent de la science-fiction
[21.37] Jean-Gabriel Ganascia : La dernière chose étonnante est que ces théories de la singularité viennent de la science-fiction. Si on regarde Elon Musk, ses grands projets industriels en viennent. Prenons par exemple SpaceX : le projet vient d’histoires un peu ridicule de petits hommes verts rencontrés lors d’expéditions sur Mars. Aujourd’hui, il est impensable d’envoyer un homme sur Mars. Un robot ou une fusée, oui. Mais ce serait d’une extrême cruauté que de laisser quelqu’un trois ans dans une fusée dans des conditions difficiles. De même, Neuralink est emprunté à la science-fiction, de l’écrivain Iain Banks par exemple, etc. On a donc l’impression que les grands entrepreneurs de l’internet empruntent à la science-fiction un certain nombre de thématiques en expliquant qu’ils vont les réaliser. Ce faisant, on inverse la fonction de la science-fiction. Au début, songeons à Jules Verne, elle prenait acte des réalisations des scientifiques et en nourrissait un imaginaire littéraire, tandis qu’aujourd’hui, on part de l’imaginaire de la science-fiction et on l’introduit dans les projets technologiques des entreprises privées. Bizarrement, tant la Commission européenne que les organismes de financement de la recherche aux États-Unis, souhaitent qu’on décrive de la science-fiction dans les projets de recherche ; ce qu’on appelle un “breakthrough”, une promesse de percée technologique, condition nécessaire pour qu’un projet soit financé, tient justement à un conte de science-fiction auquel on doit se référer. Je suis sûr que toi aussi quand tu as écrit tes papiers ou tes demandes de financements, on t’a demandé de mettre en avant ces “technological breakthrough”.
Mehdi Khamassi : Oui, souvent.
Jean-Gabriel Ganascia : En réalité ce que demandent les bureaucrates européens c’est qu’on promette de réaliser des rêves de science-fiction, de la science-fiction qu’ils connaissent, c’est-à-dire de science-fiction un peu éculée, d’histoire de robots soldats, de voyages sur Mars, de mise en réseau des cerveaux… On se retrouve alors, en tant que scientifiques, dans une situation déconcertante où, face aux besoins de financements de nos équipes de recherche, nous nous prêtons à ce jeu. C’est le cas pour nous en tant que chercheurs ; ça l’est aussi pour les industriels. C’est grâce à ça qu’ils décrochent des contrats et qu’ils séduisent les investisseurs. Si maintenant on examine ce que fait Elon Musk, qui est un entrepreneur extrêmement avisé — aujourd’hui certains disent même que c’est l’homme le plus riche du monde —, on constate que ses entreprises sont comme les fusées, à deux étages. Par exemple, avec Neuralink il y a un premier étage qui porte sur les implants neuronaux, dont on sait qu’ils peuvent avoir des applications thérapeutiques extrêmement utiles, et un deuxième étage complètement aberrant qui porte sur cette augmentation de la mémoire et de l’intelligence en connectant les cerveaux au réseau. Régulièrement, il envoie des communiqués pour annoncer que son projet progresse et qu’il obtient des résultats extraordinaires. Mais si on regarde de près, on constate qu’il reproduit des expériences relativement classiques, comme des interfaces ordinateur-cerveau avec des porcs ou des singes, et éventuellement des implants thérapeutiques, encore qu’il n’a pas fait beaucoup parler de ses réalisations sur le sujet. Là-dessus, on sait qu’on peut progresser. En revanche, sur le deuxième étage, on ne progresse pas. Et, rien de ce qui est présenté aujourd’hui n’aborde ce point. Le deuxième étage est conçu non pour être réalisé, mais pour faire rêver et obtenir des financements qui lui permettent de développer le premier. Même chose pour SpaceX, il nous dit qu’on va pouvoir aller sur Mars, mais il n’est pas du tout en train d’aller sur Mars. Il est en train de faire des navettes spatiales ou des lanceurs satellites qui sont en train de damer le pion à Arianespace. Alors d’un point de vue industriel c’est extrêmement utile mais justement il faut bien voir que ça a un rôle qui est de brouiller les pistes et de stimuler l’intérêt des investisseurs.