Il rompicapo della regolamentazione delle auto a guida auotonoma

JULIEN DUPONT-CALBOBENOÎT GEORGES

LES PREMIÈRES PISTES SUR LES RÈGLES À FIXER AUX ALGORITHMES AUTOMOBILES COMMENCENT À ÉMERGER. A LA FOIS CRUCIAL ET TRÈS COMPLEXE, LE SUJET IMPLIQUE DES CHOIX MORAUX SUSCEPTIBLES DE VARIER SELON LES CULTURES.
Il est temps de s’y mettre. Alors que les tests sur route ouverte de véhicules autonomes se multiplient dans le monde entier et que certains véhicules de série, chez Tesla ou Audi, sont désormais capables de rouler seuls ou presque dans les embouteillages et sur autoroute, le sujet des règles à fixer au « logiciel conducteur » devient incontournable.

En Allemagne, une commission d’éthique vient de rendre un rapport sur le sujet au ministère des Transports. Les experts ont dressé vingt grands principes. Le premier ? La voiture autonome doit éviter tout accident avec des humains, a fortiori des piétons, quitte à écraser des animaux ou provoquer des dégâts matériels. De même, l’algorithme ne devra pas faire de discrimination entre les personnes. Il faudra également savoir de manière claire et démontrable qui conduit à un moment M – l’humain ou l’intelligence artificielle -, afin de trouver le responsable en cas d’accident. Boîte noire obligatoire, donc.

Aux Etats-Unis, on se pose le même type de questions. Après une première ébauche l’an dernier, l’agence de régulation automobile doit publier un cadre de travail un peu plus précis dans le courant du mois de septembre. En juillet, un groupement de constructeurs avait écrit aux parlementaires américains pour leur demander de définir le plus vite possible des règles claires. Un préalable pour ces industriels à toute diffusion de masse de la technologie.

« Des décisions morales »
« Il y aura beaucoup de choix à faire. Ce seront des décisions morales. Qui établira les règles ? », s’interrogeait l’an dernier Barack Obama. Régir le sujet risque effectivement d’être une gageure. « C’est beaucoup plus compliqué que dans l’aéronautique », où les autorités contrôlent le fonctionnement de pilotes automatiques, juge Patrick Koller, le patron de l’équipementier Faurecia. D’abord, le nombre de parties prenantes et la multiplicité des situations possibles devraient rapidement complexifier l’obtention d’un consensus sur les règles à modifier. Les références à l’être humain sont nombreuses dans les textes internationaux régissant la sécurité automobile. Pour les modifier, industriels, associations de consommateurs, pouvoirs publics, citoyens et assureurs, voire représentants religieux devront s’entendre.

Des systèmes hermétiques
Des problèmes moraux et très concrets se posent également. L’un des principaux sera le recours aux technologies d’apprentissage automatique (« machine learning » ou « deep learning »), dans lesquelles le système d’intelligence artificielle va évoluer en fonction de son expérience. Utilisés notamment pour la reconnaissance d’images, donc pour les outils de vision de la route et des obstacles, ces systèmes fonctionnent un peu mystérieusement : on connaît les données qui y entrent et qui en sortent, mais on ne sait pas concrètement comment la machine différencie un arbre d’un piéton ou d’un panneau d’affichage.

« Aujourd’hui, on estime que le “machine learning” peut convenir pour la perception, mais pas pour la prise de décision, car son fonctionnement n’est pas traçable », expliquait en septembre le directeur scientifique d’un constructeur automobile lors d’une réunion sur l’éthique de l’intelligence artificielle organisée à Bruxelles.

Plus choquante, la question du « profil éthique » de la voiture autonome se pose également : d’un point de vue technique, rien n’empêche que le niveau de prudence du véhicule (par exemple « conduite altruiste » ou « conduite égoïste ») soit modifiable par les occupants du véhicule. Mais dans la réalité, il est peu probable que l’on laisse l’utilisateur, ou même le constructeur, libre de régler lui-même ce paramètre. Il faudra donc aboutir à un consensus sur ce que doit être le « profil éthique » général du véhicule. Au vu des différences d’attitudes des conducteurs sur l’ensemble de la planète, le chantier promet d’être juste titanesque. Quel sera le comportement d’un véhicule en Inde, confronté à un risque d’accident avec une vache ?

À noter
Les autorités américaines considèrent depuis l’an dernier l’intelligence artificielle de la Google Car comme un conducteur « normal », responsable en cas d’accident.

Les chiffres clefs 30 % du surcoût
d’une voiture autonome est dû au prix du logiciel, selon Bryan, Garnier & Co.

Raja Chatila : « Ces systèmes de conduite aboutissent à une dilution de la responsabilité »
B. G.

PIONNIER DE LA ROBOTIQUE EN FRANCE, RAJA CHATILA DIRIGE L’INSTITUT DES SYSTÈMES INTELLIGENTS ET DE ROBOTIQUE (ISIR), UNITÉ DE RECHERCHE COMMUNE AU CNRS ET À L’UNIVERSITÉ PIERRE-ET-MARIE-CURIE. IL A PARTICIPÉ À PLUSIEURS PROJETS DE RECHERCHE FRANÇAIS ET EUROPÉENS SUR L’ÉTHIQUE EN ROBOTIQUE.
Que pensez-vous de la démarche des experts allemands, qui ont sélectionné une vingtaine de règles éthiques pour les véhicules autonomes ?

Je crois que c’est la bonne voie. Il faut s’en tenir à des principes simples plutôt que chercher à programmer explicitement chaque cas de figure possible, car cela entraîne des responsabilités énormes. On peut plutôt explorer des principes issus de la philosophie éthique et morale, comme de toujours protéger le plus faible – ce qui veut dire, si le véhicule doit percuter soit une voiture soit un piéton, ne pas choisir le piéton. Il faut aussi prendre en compte l’incertitude et l’imprécision des données qui sont utilisées pour prendre la décision, par exemple dans le cas d’un manque de visibilité. Le problème se pose également dans le cas de la conduite humaine, mais une fois que les règles figurent dans le code, l’auteur de la décision sera l’algorithme. Qui sera alors responsable en cas d’accident ? La conduite autonome aboutit à une dilution de la responsabilité entre la personne qui écrit le code, l’équipementier, le constructeur, le propriétaire, ou même l’opérateur de service dans le cas d’une flotte de voitures à la demande…

Dans ce contexte, qui devrait réguler ?

Les constructeurs et les équipementiers auront un rôle à jouer, tout comme les assureurs : déterminer qui est responsable permet de savoir qui indemnise en cas d’accident. Mais, au final, la régulation sera du ressort des Etats et des organisations internationales. En sachant qu’il pourra y avoir des différences selon les pays (sur la valeur de certains animaux par rapport à d’autres, par exemple), mais qu’il faut des principes de base partagés par tous – c’est déjà le cas aujourd’hui avec la protection des piétons et des cyclistes, qui existe dans tous les pays.

Vu les progrès de la technologie et les horizons annoncés (certains constructeurs parlent de 2020…), a-t-on encore le temps de débattre ?

D’abord, le temps, on se le donne. Certes, il y a une sorte de « course aux armements » des constructeurs sur le sujet, mais il faut savoir raison garder et se donner le temps d’arriver à de bonnes réponses, sans pour autant freiner l’innovation. Ensuite, je trouve que le débat se met en place rapidement et peut assez vite devenir mature. Je pense que cela prendra plutôt un ou deux ans que quatre ou cinq, donc je ne vois pas de différence d’échelle de temps entre le débat et l’innovation. Les constructeurs ont envie d’avancer, c’est sûr, mais personne n’envisage de commercialiser un véhicule qui protégerait uniquement son conducteur…
Fonte: