Robot

Quelle morale pour la voiture autonome ?

Par
Publié le 06/12/2018
Article réservé aux abonnés
voiture autonome

voiture autonome
Crédit photo : ANGELO MERENDINO

« Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger », telle est la première des trois lois de la robotique, imaginées en 1942 par l'écrivain de science-fiction Isaac Asimov.

Depuis, l'automatisation a progressé dans un nombre croissant de domaines. Et la science-fiction est entrée de plain-pied dans le champ du réel. Mais pour l'industrie automobile, cette course au progrès bute désormais sur un cruel dilemme : en situation d'accident, les voitures autonomes doivent-elles protéger leur passager ou éviter l'enfant qui traverse la rue ? Pour inculquer cette nouvelle « morale high-tech » aux autos sans pilote, des chercheurs ont interrogé plus de 2 millions d'internautes de 233 pays et testé 40 millions de décisions. Résultat ? Trois grands principes se sont dégagés : protéger l'homme plutôt que l'animal, sauver le plus grand nombre de vies, et en priorité les enfants. De là où vous êtes, M. Asimov, souscrivez-vous à ce que sont devenues vos trois lois de la robotique ?

D. D.

Source : Le Quotidien du Pharmacien: 3479