« Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger », telle est la première des trois lois de la robotique, imaginées en 1942 par l'écrivain de science-fiction Isaac Asimov.
Depuis, l'automatisation a progressé dans un nombre croissant de domaines. Et la science-fiction est entrée de plain-pied dans le champ du réel. Mais pour l'industrie automobile, cette course au progrès bute désormais sur un cruel dilemme : en situation d'accident, les voitures autonomes doivent-elles protéger leur passager ou éviter l'enfant qui traverse la rue ? Pour inculquer cette nouvelle « morale high-tech » aux autos sans pilote, des chercheurs ont interrogé plus de 2 millions d'internautes de 233 pays et testé 40 millions de décisions. Résultat ? Trois grands principes se sont dégagés : protéger l'homme plutôt que l'animal, sauver le plus grand nombre de vies, et en priorité les enfants. De là où vous êtes, M. Asimov, souscrivez-vous à ce que sont devenues vos trois lois de la robotique ?
Explosion de la rue Saint-Jacques
Dix mois après le drame, la pharmacie du Val-de-Grâce rouvre ses portes
A la Une
Télédéclaration de votre CA : le portail ouvert du 2 avril au 30 juin
Prise de rendez-vous médical
Doctolib référence les pharmacies équipées de certains dispositifs de téléconsultation
Pricing
Des clés pour mettre en œuvre une vraie politique de prix