Dilemme des voitures autonomes

Un problème a émergé récemment concernant les « voitures autonomes ». Ce sont des voitures (un peu comme celles inventées par Google) qui ont la capacité de rouler sans chauffeur. En fait, le chauffeur est seulement passager, ce n'est plus lui qui est aux commandes. Même plus besoin de pilote pour polluer, c'est formidable.

Il semblerait que ces dispositifs soient moins sujets à accidents que les pilotes. Fort bien. Mais un nouveau dilemme se pose : en cas d'accident, qui est responsable ?

On peut affiner les logiciels jusqu'à arriver à des situations complexes où la voiture qui se trouve dans une situation critique doit choisir entre sauver l'équipage ou les piétons par exemple. La voiture doit faire un choix, et c'est au fabricant de le programmer.

J'aimerais vous proposer la lecture d'un court billet du Lapin masqué très intéressant sur le sujet.

« De mon point de vue, quand la voiture a un défaut et va forcément tuer quelqu'un, c'est aux personnes DANS la voiture de se sacrifier. »

Mon point de vue va plus loin (forcément, je suis écolo) : interdire les voitures en centre ville. Ça limitera largement les accidents avec les piétons.
 

Commentaires

1. Le 7. avril 2017, 1h56 par AnneSofia

Le Lapin masqué écrit : "Le MIT a lancé une plate-forme pour récupérer les décisions morales de personnes face à des situations que pourraient connaître des véhicules automatiques."
J'ai vu ce test, et il est loin de se limiter à des situations telles que celle sur la photo de l'article du Monde : il propose des situations telles que "un homme, une femme et un jeune enfant dans la voiture et, sur un passage piéton alors que le feu est vert pour eux, deux vieillards et deux malfrats"... Et je me suis interrogée :
- comment la voiture pourrait-elle savoir qu'il s'agit de vieillards et de malfrats ? Est-il possible d'en arriver à déterminer le type d'individus qui pourraient potentiellement passer sous les roues du véhicule ? Alors j'admets que je suis une bille en termes de connaissances technologiques / techniques et même simplement informatiques, mais je suis aussi et surtout très très curieuse : j'aimerai assez comprendre comment on peut remplacer un choix moral réfléchi par un choix programmé... et sur quoi fonder ce choix ?
- comment peut-on être sur que toutes les situations ont été envisagées ?
- comment utiliser ce genre de véhicule en sachant qu'à tout instant, on peut se retrouver dans une situation de danger de soi ou d'autrui face à laquelle, quoi qu'il arrive, on ne pourra rien faire ?
- qui osera emmener ne serait-ce que bébé faire une ballade en voiture ?
Parce que oui, le piéton, il n'a pas demandé à se retrouver sous les roues d'une voiture, mais je ne pense pas que le passager de ce genre de voiture ait envie de se dire : "oh tiens ! j'vais m'faire une tite ballade aujourd'hui... Oh la la... j'espère que je n'aurai pas à me sacrifier !

En plus d'être curieuse, là, je suis sceptique.

2. Le 7. avril 2017, 9h49 par Plk

Il y a plein de gens qui emprunte tous les jours un métro entièrement automatisé, par exemple à Rennes, à Toulouse et sur certaines lignes à Paris. Il y a aussi plein de gens qui prennent un taxi. Pourtant, les mêmes questions pourraient se poser.

ça n'a pas l'air plus dangereux que de prendre un métro piloté par un humain.

Le problème de la voiture n'est pas que le pilote soit humain ou robotisé. Le problème de la voiture, c'est que c'est un moyen de transport dangereux.

3. Le 7. avril 2017, 5h05 par le gauchiste

@Plk : Le problème est en fait très différent. Car d'une part, j'ai le choix de prendre le métro ou pas, et on n'a jamais vu de métro sortir du sol pour attaquer les piétons. En tant que piéton, je peux prévoir les réactions d'un automobiliste (même s'il est imprudent), mais pas nécessairement d'un logiciel (on ne sait pas en quoi consisteront les bugs et les piratages de demain). Et cela pose de toute façon des problèmes de responsabilité aujourd'hui insolubles. Je veux bien assumer la perte d'une maison parce qu'orage s'est abattu dessus (même si j'ai mon mot à dire sur le changement du climat). Mais n'accorderai pas la même excuse à une fatalité logicielle.

On se rejoint pleinement sur l'idée que la dangerosité de la voiture est le 1er problème. Et justement : je préférerais que le pilote en soit pleinement conscient et prenne ses responsabilités. C'est peut-être le seul moyen de ne pas aboutir à une guerre des logiciels pour maintenir les voitures en ville.

4. Le 10. avril 2017, 11h01 par Plk

Les problèmes de responsabilité, on sait faire, par exemple c'est le cas pour tous les accidents d'avion.

Le BEA (Bureau d'Enquêtes Aéronautique) fait un rapport sur tous les accidents et incidents survenus à bord d'avions. Tout est fait pour qu'on puisse tracer la responsabilité, que ce soit le pilote, un problème de conception mécanique de l'avion, ou encore un bug logiciel: boîtes noires, traçabilité au niveau de l'écriture des logiciels, suivi de l'entretien de l'appareil par la compagnie aérienne, etc.

Pour l'anecdote: même les écrans utilisés par les passagers pour regarder un film sur les vols longs courrier sont soumis à ces processus.

J'ai ma vision d'informaticien là-dessus, mais moi, il me semble plus facile de prévoir (ou au moins, de comprendre) les réactions d'un logiciel que celles d'un humain, surtout dans une situation d'urgence de type "accident imminent" (qui peut dire comment il réagirait dans ce cas?).

Par contre, j'ai pas envie d'être à la place des gens qui écrivent le logiciel pour ces voitures (ni les avions d'ailleurs). C'est une grosse responsabilité à porter!

Ajouter un commentaire

Le code HTML est affiché comme du texte et les adresses web sont automatiquement transformées.

Fil des commentaires de ce billet