auditions

Cycle d’auditions sur l’IA et la Robotique

Le groupe de travail « Robotique et IA » du projet Technologies Émergentes et Sagesse Collective (TESaCo) réalise un cycle d’auditions sur l’IA et la Robotique. Ces auditions, sous forme de vidéo avec texte accompagnant, paraîtront régulièrement sur cette page à partir de juin 2022.

Les technologies liées à l’intelligence artificielle et à la robotique autonome sont récentes et évoluent rapidement. Émergentes, hautement techniques, elles ébranlent la société de multiples façons, difficiles à mesurer et plus encore à prévoir. Il est cependant essentiel, compte tenu de la puissance de leur impact, d’identifier les problèmes éthiques qu’elles soulèvent dès à présent ou dans un avenir proche, à partir d’une analyse de leur trajectoire probable.

Audition de Michèle Sebag en trois parties

Partie 1

  • Grands modèles de langage
  • Écart entre les réalisations de l’IA et ce qu’on en comprend
  • Tester ChatGPT, c’est contribuer à l’améliorer
  • Les LLMs sont-ils des singes ?
  • Comment empêcher le moteur d’aller n’importe où ?
  • Quelles sont les capacités actuelles des LLMs ?

Partie 2

  • Apprentissage de modèles internes
  • Importance de la décomposition et de la cognition sociale
  • Distinction conscient/inconscient
  • Renouer avec les pères fondateurs de l’IA

Partie 3

  • Applications de l’IA et soutenabilité
  • La formation à l’éthique est-elle la solution ?
  • Utiliser l’IA pour aider à résoudre des problèmes de société
  • Souligner les potentiels positifs de l’IA sans négliger les possibles effets négatifs
  • Y a-t-il encore une tendance à aller vers des IA de plus en plus autonomes ?
  • Règlementations européennes sur l’IA

Audition de Raja Chatila en trois parties

Partie 1

  • Les mêmes questions d’éthiques se posent-elles pour l’IA et la Robotique ?
  • Aux origines de l’IA et de la robotique
  • Retour à la question de l’éthique
  • Liens avec la cognition incarnée en sciences cognitives
  • Non pas une IA mais des IA
  • Interprétation du monde par une IA forte
  • Différences avec le cerveau humain
  • Quelle échéance pour une super intelligence ?

Partie 2

  • Action conjointe entre un robot et un humain
  • Lien avec les architectures cognitives humaines
  • Le cerveau humain et les robots suspendent-ils la tâche en cours de la même manière ?
  • Vers une IA autonome ou plutôt un attelage humain-machine ?

Partie 3

  • Déploiement de l’IA dans la société
  • Les comités d’éthique suffisent-ils ?
  • Régulations au niveau des États ou européen
  • Problème de l’auto-certification
  • Disparité des moyens publics/privés et guerre de l’IA
  • Problème de souveraineté numérique
  • Formation et éducation en IA
  • Réflexion philosophique sur l’être humain et la machine

Partie 4

  • IA générative et grands modèles de langage
  • Définition de l’IA générative et des Transformers
  • Agents conversationnels avec grands modèles de langage
  • Des risques existentiels pour l’humanité ?
  • Hubris des entrepreneurs annonceurs de l’extinction
  • Comprenons-nous bien ces systèmes ?
  • Illusion d’intelligence des systèmes conversationnels
  • Bientôt un remplacement de toutes sortes de métiers ?
  • Risques réels, dont la fracturation de la société

 

 

Audition de Jean-Gabriel Ganascia en quatre parties

Partie 1

  • Historique et évolution de l’Intelligence Artificielle
  • Place centrale de l’apprentissage en IA 
  • Jusqu’où va l’opposition entre les approches symboliques et et l’apprentissage statistique ?
  • Symbolisme, explications et argumentation 

Partie 2

  • La notion d’IA forte a-t-elle un sens ?
  • Quand les succès de l’IA marquent son éloignement des modèles de la cognition humaine, est-ce un échec ?
  • Retour sur les premiers travaux d’Alain Turing
  • Focus sur le jeu d’échecs

Partie 3

  • Quelle forme d’autonomie peuvent atteindre les systèmes artificiels ?  
  • Implications sociétales des discours annonçant la singularité 
  • Difficulté à publier en anglais une critique de la singularité
  • Ces théories de la singularité viennent de la science-fiction

Partie 4

  • Sommes-nous dans un processus d’intelligence collective sur l’IA ?
  • Les comités d’éthique sur l’IA
  • Discussions au Parlement européen
  • Une stratégie européenne sur l’IA ? 
  • Questionnements éthiques du chercheur en IA
  • Vers une IA éthique et bienfaisante ?