Alexei Grinbaum – La valeur éthique du hasard pour les systèmes autonomes

Jeudi 12 décembre 2019 (Jour entier) - Vendredi 31 janvier 2020 (Jour entier)

Séminaire philo-info / Philosophy-informatics seminar

28 janvier 2020

(English version below)

Evenement facebook

La deuxième session du séminaire philosophie-informatique aura lieu en 2020 (événement reporté à cause du mouvement social en décembre 2019) au Loria (amphithéâtre).

Le laboratoire LORIA se trouve sur le campus de la Faculté des Sciences et Technologies (arrêt de tram: Velodrome; prévoyez 10-15 minutes pour y accéder depuis l'arrêt, notamment étant donné le système de contrôle à l'entrée du bâtiment – magnifique – de Loria. Mais il ne faut pas que cela vous arrête!

L’invité du jour sera Alexei GRINBAUM, philosophe et physicien. Chercheur au laboratoire Larsim du CEA-Saclay, il est spécialiste de l’information quantique. Depuis 2003, il s’intéresse aux questions éthiques liées aux nouvelles technologies, notamment aux nanotechnologies, à l’intelligence artificielle et à la robotique. Il a été coordinateur pour la France de l’Observatoire européen des nanotechnologies et partenaire du projet européen « Recherche et innovation responsables en pratique » (RRI-Practice). Membre du Comité national pilote d’éthique du numérique et de l’IA et de la Commission d’éthique de la recherche en numérique (Cerna), il a publié « Mécanique des étreintes » (Encre Marine, 2014) et « Les robots et le mal » (Desclée de Brouwer, 2019).

La valeur éthique du hasard pour les systèmes autonomes

L'exposé de Alexei Grinbaum sera suivi d'un court commentaire de Samuel Nowakowski, MCF HDR à l’université de Lorraine, chercheur au LORIA, au sein de l’équipe KIWI (Knowledge Information and Web Intelligence).
Ses recherches actuelles sont principalement centrées sur la modélisation des usages du web, l’Intelligence artificielle, les systèmes de compagnon intelligents et leurs mises en oeuvre dans des projets transversaux en eEducation

RESUME
Des robots domestiques se font délateurs, des agents conversationnels injurient leurs interlocuteurs. Pire encore : des systèmes informatiques participent aux conflits humains et parfois même les provoquent. Le 18 mars 2018, un véhicule autonome de la société Uber a tué une femme qui traversait la rue dans une ville de l’Arizona. Ce fut la première mort d’un piéton provoquée par un algorithme.
Qui est responsable ? La réponse à cette question compte parmi les défis les plus urgents à relever dans notre rapport aux technologies numériques. Mais il ne s’agit pas de savoir comment rendre l’intelligence artificielle bienveillante. Il s’agit de faire en sorte qu’elle ne se substitue pas à l’homme en tant qu’agent moral. Seul le recours au hasard, et ceci dès sa conception, peut libérer la machine de la responsabilité qu’on veut lui faire porter.

ORGANISATION
Ce séminaire s’inscrit dans le cadre du projet LUE Open Language and Knowledge for Citizens et vous est proposé par Maël Pégny, Anna Zielinska et Cyrille Imbert, nos partenaires des Archives Henri-Poincaré.

ENGLISH

We will welcome Alexei GRINBAUM for a philosophy-informatics seminar on Janunary 28, 2020, in the LORIA lab.

Alexei Grinbaum, Ph.D., HDR, is a physicist and philosopher at LARSIM, the Philosophy of Science Group at CEA-Saclay near Paris. His main interest is in the foundations of quantum theory. He also writes on the ethical and social aspects of emerging technologies, including nanotechnology, synthetic biology, robotics and artificial intelligence. He was coordinator for France of the “European Observatory of Nanotechnologies” and partner in the project “Responsible Research and Innovation in Practice”. Grinbaum is a member of the French national ethics committee for digital technologies and AI as well as of the French ethics commission for research in information technology (Cerna). His books include “Mécanique des étreintes” (2014) and “Les robots et le mal” (2019).

Chance as a value for artificial intelligence

ABSTRACT
Deep learning techniques lead to fundamentally non-interpretable decisions made by the machine. Although such choices do not have an explanation, they impact the users in significant ways. If the ultimate innovator is a machine, what is the meaning of responsible conduct? I argue in a recent book that the capacity to extract an AI system from human judgment, by reducing transparency in favor of opacity, is an essential value in machine ethics. This can be achieved through the use of randomness, as illustrated with the example of the trolley dilemma. Methodologically, a comparison of common motives between technological setups and mythological narratives is used to achieve ethical insights.

The presentation will be followed by a short comment by Samuel NOWAKOWSKI.

This seminar is part of the LUE project Open Language and Knowledge for Citizens and is initiated by our colleagues Maël Pégny, Anna Zielinska et Cyrille Imbert, from the Archives Henri-Poincaré Lab.

Affichage: 
Sur la page d'accueil
Date de l'événement: 
Mardi 28 janvier 2020 - 13:30
Salle: 
LORIA, FST, amphithéâtre