Ethique et Robotique

La Commission mondiale d’éthique des connaissances scientifiques et des technologies (COMEST) a récemment publié un rapport sur les questions éthiques soulevées par la robotique.

La robotique se développe à grande vitesse ; les robots deviennent de plus en plus « autonomes » : qui devrait porter la responsabilité éthique et morale des robots ?

Alors que les technologies robotiques étaient, à l’origine, destinées essentiellement à des fins militaires et industrielles, elles prennent actuellement de multiples formes, dans les domaines des transports, de l’éducation, de la santé, de l’aide à la personne, de la robotique domestique, etc.

Par ailleurs, la robotique repose de plus en plus sur l’intelligence artificielle, à base d’algorithmes. On parle ainsi de robots « cognitifs » qui sont capables d’apprendre à partir de leurs expériences passées et de recalibrer eux-mêmes leurs algorithmes ; par conséquent, leur comportement ne sera pas entièrement prévisible, ce qui demande une sérieuse réflexion éthique.

Par exemple, en ce qui concerne les voitures autonomes, la question essentielle sur le plan éthique concerne les processus décisionnels intégrés à ces véhicules autonomes. Comment le véhicule devra-t-il être programmé à se comporter dans l’éventualité d’un accident impossible à éviter ? Devra-t-il chercher à réduire au minimum le nombre de victimes, même si cela signifie sacrifier ses occupants, ou bien devra-t-il protéger ces derniers à tout prix ? De telles questions devraient-elles être réglementées par la loi, des normes ou des codes de conduite ?

Le rapport propose une réflexion autour de valeurs et principes éthiques qui concernent la dignité humaine, l’autonomie des personnes, le respect de la vie privée,l’innocuité, la responsabilité, la bienfaisance et la justice.

Quelques extraits du rapport :

« La dignité est intrinsèque aux êtres humains mais non aux machines et aux robots. Il n’est pas possible, par conséquent, d’assimiler les robots à des êtres humains, même dans le cas de robots androïdes ayant l’apparence séductrice d’un être humain ou de robots cognitifs puissants dotés de capacités d’apprentissage supérieures aux capacités cognitives humaines individuelles. Les robots ne sont pas des êtres humains ; ils sont le produit de la créativité humaine et ont besoin, pour être efficaces et demeurer des outils ou des médiateurs efficients, d’un système de soutien technique. »

« Le principe d’innocuité désigne la ligne à ne pas franchir par les robots. Comme nombre de technologies, les robots ont potentiellement un « double usage ». Ils sont généralement conçus à des fins utiles ou positives (par exemple, réduire les risques sur le lieu de travail), pour aider les êtres humains et non pour leur porter préjudice ou pour porter atteinte à leur vie. (…). Si l’on prend ce principe éthique au sérieux, il est nécessaire de se demander si les armes autonomes et les drones armés devraient être interdits. »

« Les robots déterministes, et même les robots cognitifs sophistiqués, ne peuvent endosser une quelconque responsabilité éthique ; cette responsabilité est celle du concepteur, du fabricant, du vendeur, de l’utilisateur et de l’État. Les êtres humains, par conséquent, doivent toujours être dans le circuit et avoir la possibilité de contrôler un robot par différents moyens (traçabilité, coupe-circuit), afin de maintenir la responsabilité humaine sur les plans moral et légal. »

Cette approche rejoint les recommandations en cours d’élaboration au niveau des instances européennes et nationales, avec comme points d’attention, que les robots n’échappent pas à la maîtrise humaine et l’organisation de la mutation du travail humain.

Allez plus loin :