Robotique & IA

Les technologies liées à l’intelligence artificielle et à la robotique autonome sont récentes et évoluent rapidement. Émergentes, hautement techniques, elles ébranlent la société de multiples façons, difficiles à mesurer et plus encore à prévoir. Il est cependant essentiel, compte tenu de la puissance de leur impact, d’identifier les problèmes éthiques qu’elles soulèvent dès à présent ou dans un avenir proche, à partir d’une analyse de leur trajectoire probable.

Apports sociétaux examinés :

  • Connaissances fondamentales (contributions de l’IA aux sciences cognitives, à la compréhension de l’intelligence et du fonctionnement de systèmes complexes, à la maîtrise du contrôle de systèmes artificiels embarqués et distribués, à l’extraction de connaissances à partir du traitement statistique de grands corpus sur n’importe quel sujet),
  • Apports économiques potentiels (productivité et efficacité accrues, réduction des risques d’erreur),
  • Apports éducatifs potentiels (outils numériques, caractère ludique et stimulant, jeux éducatifs adaptatifs),
  • Autres apports sociétaux potentiels (aide à l’autonomie de la personne, nouveaux outils d’assistance thérapeutique).

 

Risques principaux examinés :

  • Dangers physiques (armes, killer robots, utilisations malveillantes, mauvaise maîtrise des interactions physiques humain-robot),
  • Risques écologiques (surconsommation d’énergie nécessaire aux calculs ou au fonctionnement des robots),
  • Risques économiques (Propriété/gouvernance, concentration des capacités technologiques sur quelques grands groupes privés, emploi, assèchement du milieu académique au profit des entreprises privées, publicité et marketing ciblés peuvent amener à encore plus de consommation d’objets inutiles ou mauvais pour la santé (impacts écologiques et sur l’obésité)),
  • Confidentialité/consentement liés aux données traitées (croisement des données, extraction automatique du profil psychologique, revente des données sans transparence, impossibilité d’accéder à des logiciels ou service sans céder des droits sur les données, non-transparence sur les données détenues/utilisées),
  • Risques psychologiques (Non-transparence sur le fonctionnement et sur le pourquoi d’une sortie produite par un algorithme, influence et réduction de liberté individuelle, abrutissement accru des tâches laissées au travailleur, manipulation des opinions exacerbée dans des contextes électoraux, inondation des corpus/Internet par du bruit diluant ainsi la capacité à distinguer le vrai du faux dans les contenus, celait pourrait même être intentionnellement mal utilisé pour troller wikipedia et autres sources et faire que le contenu devienne inutilisable),
  • Éducation inégalitaire (Inégalités d’accès à ces technologies et de formation à leur utilisation, assèchement du milieu académique au profit des entreprises privées qui impacte la capacité d’enseignement à l’université et les capacités de réflexions sur l’éthique et les impacts sociétaux qui peuvent y avoir lieu).

 

 

Séminaires
Auditions passées
  •  Jean-Gabriel Ganascia, professeur d’informatique à la faculté des sciences de Sorbonne Université, membre senior de l’Institut Universitaire de France et spécialiste d’intelligence artificielle, d’apprentissage machine et de fouille de données.
  • Jean-Paul Laumond,

    roboticien, directeur de recherche émérite au CNRS, il a rejoint l’équipe Willow du département informatique de l’ENS à Paris.

  • David Cohen, chef du service de psychiatrie de l’enfant et de l’adolescent à l’hôpital de la Pitié-Salpêtrière et professeur à l’Université Pierre et Marie Curie.

Groupe de travail piloté par :

Mehdi Khamassi

Mehdi Khamassi est directeur de recherche en sciences cognitives au CNRS, rattaché à l’Institut des Systèmes Intelligents et de Robotique de Sorbonne Université, Paris. Il est également co-directeur des études pour le master de sciences cognitives de l’École Normale Supérieure / EHESS / Université de Paris. Après un diplôme d’ingénieur à l’ENSIIE (anciennement sous la tutelle du CNAM) à Evry, il a effectué un DEA de Sciences Cognitives (Cogmaster) puis une thèse entre l’Université Pierre et Marie Curie et le Collège de France dirigée par Agnès Guillot et Sidney I. Wiener sur l’apprentissage en situation de navigation chez les animaux et les robots.