Aller au contenu

Messages recommandés

il y a 3 minutes, Liber Pater a dit :

Ce n'est jamais aussi clair que ce que tu présentes. Ne prenons pas un cas particulier, mais un cas général où le conducteur sent que ses freins ne répondent plus. Point.

 

Le cas général c'est que le conducteur est responsable de la maîtrise de son véhicule et qu'un mauvais fonctionnement de celui-ci ne l'exonère pas de sa responsabilité. Et donc tu dois te tuer plutôt qu'un tiers.

De même que s'il y a un ouragan qui fait tomber une tuile de ton toit sur la tronche de ton voisin, ta responsabilité est engagée.

  • Yea 1
Lien vers le commentaire
il y a 20 minutes, Tramp a dit :

Et donc tu dois te tuer plutôt qu'un tiers.

Ouais, sauf que ce n'est pas ce que tu feras, sauf si il s'agit de sauver ton enfant ou la personne que tu aimes. Comme tu le dis, le réflexe, souvent idiot, c'est d'éviter l'obstacle. Là on cause de voiture autonome, donc d'une machine conçue pour reproduire les comportements humains irrationnels ou pour maximiser la sauvegarde du maximum de vies ? cramer un feu rouge pour sauver tes passagers ou des piétons, par exemple ?

Ensuite, et c'est un autre chapitre, le droit à ce sujet va être forcément revu, relativement à la responsabilité du chauffeur et tout ça. Il y a deux articles interessants dans CP à ce propos

https://www.contrepoints.org/2018/04/20/314458-vehicules-autonomes-quelles-responsabilites-juridiques-en-cas-daccident

Lien vers le commentaire
il y a une heure, Bisounours a dit :

Ouais, sauf que ce n'est pas ce que tu feras, sauf si il s'agit de sauver ton enfant ou la personne que tu aimes.

 

Tramp a raison.

Celui qui ne ferait pas ce choix serait une ordure. Sauf peut-être s'il a son enfant à bord (mais c'est le cas contraire de celui que tu évoques). J'ai un ami handicapé à vie depuis qu'il a fait le bon choix, en moto.

Et en fait, si une voiture était programmée pour sacrifier des vies d'autrui plutôt que celles des passagers, je pense qu'il devrait être possible de la rendre illégale ?

 

Finalement la voiture autonome pose bien un problème nouveau : celui de la légalité des comportements programmés mais non encore exécutés.

  • Yea 1
Lien vers le commentaire
Il y a 1 heure, Liber Pater a dit :

Ne prenons pas un cas particulier, mais un cas général où le conducteur sent que ses freins ne répondent plus. Point.

 

S'il est aussi rapide que l'électricité, il passe brutalement en seconde puis percute un obstacle solide plutôt qu'autrui en comptant sur les airbags, le tout en klaxonnant. Je ne vois pas une autre manière correcte d'implémenter cette situation.

Lien vers le commentaire

 

il y a 4 minutes, L'affreux a dit :

Celui qui ne ferait pas ce choix serait une ordure

celui qui fait le choix de sauver sa peau au lieu de celle d'un inconnu tu veux dire ? il serait juste humain, et pas un héros.

à vrai dire je comprends pas trop ton argumentation. Ton ami est handicapé car il a fait le choix de se sacrifier, c'est ça ? Mais peut être pensait-il pouvoir s'en sortir, alors que dans ce test douteux, il s'agit de mort. Zéro alternative.

il y a 5 minutes, L'affreux a dit :

si une voiture était programmée pour sacrifier des vies d'autrui plutôt que celles des passagers

je pense plutôt qu'elle est programmée pour épargner le plus de vies possibles, sans considérations d'échelles de valeur entre gros et handicapé, jeune et vieux. 

sachant que ce sont des humains qui programment, comment cela peut il être différent ? sacrifier le "conducteur" qui ne dispose plus de système de freinage, si il est seul dans le véhicule, je comprends, mais si il transporte 5 personnes et que sur le passage il y a juste un seul être humain, le choix rationnel se porte sur le sacrifice du piéton.

 

après, comme je l'ai précisé, demeure le domaine de la responsabilité et du droit, qui doivent évoluer.

Lien vers le commentaire
il y a 1 minute, L'affreux a dit :

 

S'il est aussi rapide que l'électricité, il passe brutalement en seconde puis percute un obstacle solide plutôt qu'autrui en comptant sur les airbags, le tout en klaxonnant. Je ne vois pas une autre manière correcte d'implémenter cette situation.

dans le cas de la voiture autonome, et dans ce test, le conducteur peut agir sur d'autres manettes ?

Lien vers le commentaire

La voiture qui doit éviter les piétons, ce n'est pas un problème moral, c'est un problème de droit.

On est censé être maître de son véhicule. 

Tu ne peux pas écraser un ptit vieux qui traverse en déambulateur parce que tu transportes 3 gamins derrière, c'est comme ça !

  • Yea 2
Lien vers le commentaire
il y a 1 minute, POE a dit :

La voiture qui doit éviter les piétons, ce n'est pas un problème moral, c'est un problème de droit.

On est censé être maître son véhicule. 

Tu ne peux pas écraser un ptit vieux qui traverse en déambulateur parce que tu transportes 3 gamins derrière, c'est comme ça !

Le questionnaire pose un problème moral et non de droit justement.

Lien vers le commentaire
il y a 2 minutes, Bisounours a dit :

sachant que ce sont des humains qui programment, comment cela peut il être différent ? sacrifier le "conducteur" qui ne dispose plus de système de freinage, si il est seul dans le véhicule, je comprends, mais si il transporte 5 personnes et que sur le passage il y a juste un seul être humain, le choix rationnel se porte sur le sacrifice du piéton.

 

Certes. Et je vois plusieurs autres cas :

  • Le bus autonome chargé de passagers est dans la situation que tu décris ;
  • Le poids lourd autonome est souvent incapable de se crasher quelque part parce que en perdant le contrôle il pourrait tuer bien plus que les piétons écrasés, par exemple en déversant une cargaison toxique ou juste en risquant de faire faire des tonneaux à sa remorque en centre ville.

D'ailleurs je pressens dans le cas du bus autonome une intéressante différence selon qu'il appartient à un service public ou à une entreprise privée.

Lien vers le commentaire

Oui, effectivement. Rationnellement il convient de sauver le plus de vies humaines sans partir dans des considérations arbitraires de priorité.

Après, on n'est jamais à l'abri d'une couffe, comme le cas de ton camion toxique, qui ne va pas forcément causer des décès par paquets de douze. Y aura toujours une part d'incertitude et de hasard, that's life.

Ne psychotons pas non plus sur le traitement public/privé :) 

Lien vers le commentaire
à l’instant, Bisounours a dit :

Rationnellement il convient de sauver le plus de vies humaines sans partir dans des considérations arbitraires de priorité.

 

Sur un véhicule privé, le simple décompte des vies humaines ne peut pas être le premier critère de choix. J'espère que ce mode de choix ne sera pas retenu. En plus d'être injuste, ce serait une incitation dans le mauvais sens comme seul l'État y est habitué. La qualité des freins, la tenue de route d'une voiture dépendent du prix que l'on y met. Mais si la voiture fait payer la pingrerie du propriétaire à des tiers, alors c'est la fête à l'irresponsabilité.

  • Yea 1
Lien vers le commentaire

La voiture autonome est un outil. Elle n'est pas autonome sur le plan du droit pour voir tous les humains comme des égaux. Elle a au contraire un propriétaire. Ce dernier lui délègue une tâche (la conduite), elle doit donc agir en respectant la loi en lieu et place de son propriétaire.

 

Le mode de choix "rationnel" que tu décris @Bisounours serait en revanche peut-être valable pour un véhicule de service public.

  • Yea 1
Lien vers le commentaire

Alors là j'aimerai l'avis de juristes et d'assureurs.... Ta responsabilité est engagée que si tu n'entretiens pas ta voiture selon les précos du constructeur si tes freins plantent. Dans tous les autres cas, ton assurance se retournera sur le garagiste qui a merdé en changeant tes freins ou le constructeur s'il s'avère qu'il n'a pas respecté les règles de l'art dans la conception. Ensuite pour info, dans le cas des camions, il y a des décélérations à atteindre pour différents types de freinage (normal ou urgence) en charge maximale autorisée. Encore une fois, si l'utilisateur a rajouté 5 tonnes de plus que prévu, le camion freinera plus longtemps en toute logique mais en cas d'accident c'est sa responsabilité qui est engagée, idem s'il ne respecte pas les fréquences de maintenance du système de freinage.

  • Yea 1
Lien vers le commentaire

@L'affreux

J'ai fait référence un peu plus haut à un article de CP traitant de ce nouveau domaine de responsabilité du "conducteur" de voiture autonome ; clairement, toute une facette du droit et des assurances va émerger dans ce nouveau contexte. Il ne s'agit donc pas de dédouaner son propriétaire, bien sûr. 

On est un peu dans la sf lorsqu'on imagine des scénari catastrophe d'une bagnole autonome lâchée sans frein comme dans ces films catastrophe. Sans frein n'implique pas forcément sans autre moyen d'intervention du propriétaire ou occupant de la place "conducteur". Enfin, j'imagine que les concepteurs de ce type de véhicule ont peut être imaginé des configurations différentes.

Les critères de choix dénombrés dans ce test sont assez fallacieux (sauver le gros, le vieux, le bébé, la femme, le clochard) sauf à imaginer la voiture comme un monstre froid programmé pour optimiser les dégâts à partir de critères bof bof.

Faut pas oublier que les machines et leurs programmes sont faits par des humains. L'IA totalement autonome avec sa propre existence et moralité n'est pas encore née, si ?

Donc à un moment, que ce soit dans l'atelier de conception, ou au volant en cas de catastrophe, il y a toujours un Homme plus ou moins faillible, tu crois pas ?

Lien vers le commentaire

et puis sans déconner, combien de cas où les freins des voitures sont à mettre en cause dans les accidents de voiture? Allons plus loin et ajoutons les causes mécaniques (perte de pouvoir directionnel (directions) pneu....) on arrive à 30% des accidents du à cette cause mécanique. Et il SEMBLERAIT car ce n'est pas sourcé que la principale cause soit un mauvais entretien des pneus (sous gonflage entrainant une moins bonne manoeuvrabilité du véhicule et allongement des distances de freinage). Donc franchement les cas de freins qui ne répondent pas ça doit pas être la cause principale d'accident. Et je ne pense pas que l'autonomisation du véhicule changera la mécanique du système de freinage.... Toute la question est si l'intelligence artificielle déclenchera le freinage.

 

http://dtrf.cerema.fr/pdf/pj/Dtrf/0004/Dtrf-0004059/DT4059.pdf?openerPage=resultats&qid=sdx_q5

  • Yea 1
Lien vers le commentaire

La remarque de NicolasB me fait penser à un truc, en cas de voiture autonome, les gens n'auront plus l'information de l'usure de leur voiture via les sensations de conduite (ie tiens mes pneus sont bas/les freins réagissent moins bien ces derniers temps etc) donc les périodes de révision/entretien vont devenir dépendantes des systèmes de diagnostiques de l'IA/la présence d'esprit des propriétaires de faire passer leur caisse autonome en révisions.

(Oui je sais que le contrôle technique obligatoire existe déjà).

Lien vers le commentaire

Dans le scénario du pas de frein, la vitesse compte énormément. Par exemple, à 50 km, les passagers ont beaucoup plus de chances de s'en sortir en étant dans l'habitacle que les piétons en étant fauchés.

De la même manière, ce scénario est simpliste par son coté binaire (on meurt forcément, les piétons meurent tous, la voiture ne klaxonne pas, etc...), et je pense que dans la réalité, juste maximiser le nombre de survivant est suffisant à la plupart des scenarios.

 

Ensuite, clairement, j'irais plus facilement dans une voiture qui m'assurera que ma famille est en sécurité en priorité. Quitte à aller chez la concurrence si les logiciels sont différent, aux yeux de certains ici, je serais une ordure, et bien qu'importe !

Mais c'est parce que je suis dans la génération qui voit naître ce genre de technologie. Si les accident deviennent très rare, la plupart des gens ne feront plus attention à ce genre de trucs, un peu comme les cgu d'un site.

 

  • Yea 2
Lien vers le commentaire
il y a une heure, Greg42 a dit :

Ensuite, clairement, j'irais plus facilement dans une voiture qui m'assurera que ma famille est en sécurité en priorité.

 

Si tu fauches une maman-poucette en tuant le bébé à 50 km/h sans même déclencher les air-bags tu ne seras pas fier, en plus d'aller en prison.

Lien vers le commentaire
2 hours ago, Alchimi said:

La remarque de NicolasB me fait penser à un truc, en cas de voiture autonome, les gens n'auront plus l'information de l'usure de leur voiture via les sensations de conduite (ie tiens mes pneus sont bas/les freins réagissent moins bien ces derniers temps etc) donc les périodes de révision/entretien vont devenir dépendantes des systèmes de diagnostiques de l'IA/la présence d'esprit des propriétaires de faire passer leur caisse autonome en révisions.

(Oui je sais que le contrôle technique obligatoire existe déjà).

 

Alors figure toi que les dernières générations de véhicules ont une telle batterie de capteurs précis et sensibles que la différence d'usure entre le train avant et arrière fait tilter le boitier de commande ABS ESP ce qui a contraint certains possesseurs de véhicules à changer les 4 pneus en meme temps au lieu de deux qui était bon à changer.... Entendu chez un constructeur allemand qui fait Gas Auto. Je pense donc que l'IA saura dire quand il y a un truc qui sort de la plage de tolérances défini comme optimal bien mieux que le ressenti d'un conducteur lambda

Lien vers le commentaire

En théorie ça marche sans soucis.

En pratique, on rappelle l'affaire des logiciels des constructeurs allemands de ces dernières années, le soft antipollution je sais plus quoi totalement bidonné par les constructeurs eux-mêmes?

Lien vers le commentaire
il y a 12 minutes, L'affreux a dit :

 

Si tu fauches une maman-poucette en tuant le bébé à 50 km/h sans même déclencher les air-bags tu ne seras pas fier, en plus d'aller en prison.

 

Apparemment, la responsabilité individuelle est passée de mode. 

Lien vers le commentaire

Histoire différente. La machine a été programmée pour reconnaître quand elle passait le protocole de tests et passait en mode moindre performance plus de pollution. C'est une fonctionnalité voulue... Va trouver un constructeur qui écrira noir sur blanc allons y créeons des véhicules dangereux et qui tient blessent des gens...

Lien vers le commentaire
Just now, Tramp said:

 

Apparemment, la responsabilité individuelle est passée de mode. 

Sauf qu'un accident n'est pas intentionnel et multifactoriel. Oui si tu as pas entretenu ta voiture tu es responsable oui si tu t'ai mis dans une situation dangereuse et sans maîtrise du véhicule tu es responsable.

 

Si maintenant tu achètes un véhicule récent  qui a un défaut  structurel a la colonne de direction et que cette derniere casse sans signe  avant coureur et que tu tués quelq'un es tu responsable? Non c'est le fabricant du véhicule en question.

 

Mais en même temps à mes enfants que une tonne d'acier c'est dangereux. Donc la loi a beau protégé les vulnérables de la route comme les piétons et les cyclistes, eux doivent aussi faire gaffe. En effet aujourd'hui c'est le conducteur de véhicule automobile qui est systématiquement en tort. Même si le piéton ne regarde pas avant de traverser.

Lien vers le commentaire
il y a 9 minutes, Bisounours a dit :

n'importe quoi.... as tu lu les deux articles que j'ai postés ? il n'y est pas du tout dit ça.

 

 

Ce que j'en ***retire*** c'est que le véhicule doit chercher à eviter l'obstacle, que ce soit par decision du conducteur/gardien ou du programmateur. 

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...