Les véhicules autonomes, assistants virtuels et autres systèmes d'intelligence artificielle sont conçus pour prendre eux-mêmes des décisions. Alors... > Lire la suite
Les véhicules autonomes, assistants virtuels et autres systèmes d'intelligence artificielle sont conçus pour prendre eux-mêmes des décisions. Alors qu'ils sont appelés à occuper une place grandissante dans nos vies, nous devons nous demander en fonction de quels principes moraux nous voulons les programmer, ce qui soulève des questions inédites. Qu'est-ce qu'un agent moral artificiel? Existe-t-il de bons et de mauvais robots? Et s'il est vrai que les machines reflètent les valeurs de ceux qui les conçoivent, comment éviter de reproduire certains biais et préjugés?
Martin Gibert est philosophe et chercheur en éthique à l'Université de Montréal. Il a déjà publié L'imagination en morale (Hermann, 2014) et Voir son steak comme un animal mort (Lux, 2015).