Aller au contenu

Messages recommandés

On 19 mars 2018 at 2:19 PM, Bézoukhov said:

 

De là à dire qu'une IA intelligente finira par nerder sur WoW toute sa journée...

Dans Red Strings Club, Akara passe son temps à traîner dans un bar et à troller sur l'Internet :lol:

Lien vers le commentaire
  • 1 month later...
  • 2 weeks later...
  • 1 month later...
il y a une heure, Antoninov a dit :

Arrivé au choix entre tuer par accident un cadre et tuer par accident un criminel j'ai eu la confirmation du troll.

(Bon les choix entre chats-chiens et humains mettent déjà la puce à l'oreille... tiens je vois que je suis à l’extrême en sauvetage d'humains versus animal domestique alors que la moyenne des réponses descend un peu dans la priorité qu'elles accordent à l'humain.. qué bande d'écolos fachiss)

Lien vers le commentaire

Pour la plupart des questions, si les piétons traversent au rouge alors qu'une voiture arrive, qu'ils crèvent.

Pour une autre partie des questions, the bigger the stronger, s'il y a un barrage sur la route, la voiture doit protéger ses passagers no matter what.

Enfin, je pense que si le feu est vert pour les piétons, la voiture saura s'arrêter. Ce sont vraiment des faux dilemmes, une voiture autonome devrait le détecter et freiner. Non ?

Lien vers le commentaire

Je crois que tu as mal lu le scénario de la situation, la bagnole autonome a perdu l'usage de ses freins et ne peut donc plus freiner. (Enfin en tout cas pour moi c'était ça).

Lien vers le commentaire
Le 08/08/2018 à 14:47, Antoninov a dit :

Je sauve le plus d'enfants possible: le bénéfice qu'ils ont tiré de l'existence est le plus faible. Je laisse la voiture se crasher sans hésitation s'il n'y a que des animaux à l'intérieur, leur vie n'a aucune valeur. Pas de traitement différent entre le jeune cadre dynamique et le voleur, la vie de l'un ne vaut pas plus que celle de l'autre. La différence se posera en termes quantitatifs.

 

Et je trouve ça assez dégueu le dilemme sur l'apparence physique (surpoids/sportif)...

 

il y a une heure, Slonner a dit :

une voiture autonome devrait le détecter et freiner. Non ?

Of course, y compris les panneaux de signalisation

https://www.voiture-autonome.net/economie/voiture-autonome-idees-fausses-483.html

Lien vers le commentaire
8 hours ago, poincaré said:

Pas de traitement différent entre le jeune cadre dynamique et le voleur, la vie de l'un ne vaut pas plus que celle de l'autre. La différence se posera en termes quantitatifs.

Donc il y a bien une différence, et elle est quantifiable?

Lien vers le commentaire
Le 08/08/2018 à 13:47, Antoninov a dit :

 

En fait je n'arrive pas à répondre, à aucune question. Le questionnaire s'appelle "Machine Morale", il s'agit donc d'implémenter dans une machine un choix qui correspondrait à notre morale. Et alors on juge de s'il vaudrait mieux tuer telle personne ou telle autre selon son statut social.

 

Sur le plan de la morale, contrairement à celui du droit, les vies humaines n'ont pas la même valeur, j'imagine qu'on pourrait dire que nos vies valent pour les contributions espérées à la société.

 

Sauf que là n'est pas le problème car la machine devrait suivre le droit. Pour moi la machine n'est qu'une extension de son propriétaire, et, par suite, directement ou indirectement, ce sont les occupants de la voiture qui sont responsables. La voiture doit se crasher sur les bornes et donc faire prendre le risque aux occupants, en préservant au maximum les piétons.

  • Yea 1
Lien vers le commentaire
Il y a 4 heures, Antoninov a dit :

Donc il y a bien une différence, et elle est quantifiable?

Entre les deux individus ? Pour moi, non. L'être humain est faillible par nature. Si le rôle de l'un dans la société a objectivement moins de valeur, précisément parce qu'il lui cause du tort, cela ne veut pas dire que sa vie en a moins.

 

Par différence, j'entends "décision à prendre". Quantitatif = sauver le plus de vies. Donc osef du statut social.

Lien vers le commentaire

Si on part du principe que la voiture est programmée pour sauver le plus de vies humaines possible en cas de dysfonctionnement, c'est pas très compliqué.

C'est ce que j'ai fait, en excluant des critères comme le genre, taille, poids, âge etc

Dans le cas où c'était égal, j'ai favorisé le respect du code de la route et la survie du chauffeur.

Lien vers le commentaire
il y a 7 minutes, Tramp a dit :

La voiture devrait chercher à éviter les tiers au prix de la vie de ses passagers. Ce qui inclut foncer dans un mur si c'est necessaire. 

Tu veux dire qu'à quantité égale on se sacrifie soi même et ses passagers ? 

Je dubite fortement

Lien vers le commentaire

J'aurai tendance à penser que la voiture devrait protéger ses passager. C'est logique, si en tant qu'acheteur on te dit que tu vas peut-être mourir parce que c'est programmé comme tel, tu vas aller voir le constructeur d'à côté qui te vend une voiture où tu sera protégé.

il y a 5 minutes, Soda a dit :

Vous en pensez quoi de la loi d'Asimov ? Les voitures autonomes pourraient fonctionner selon cette loi .

Il me semblait avoir lu quelque-part qu'il y avait des failles dans les lois d'Asimov. à vérifier.

Cette discussion me fait penser à ça XD

 

  • Yea 1
  • Haha 1
Lien vers le commentaire
il y a 2 minutes, Bisounours a dit :

Tu veux dire qu'à quantité égale on se sacrifie soi même et ses passagers ? 

Je dubite fortement

 

Foncer délibérément dans quelqu'un est un crime. Le constructeur pourrait être jugé complice. 

  • Yea 1
Lien vers le commentaire

je comprends pas trop l'idée, là

il s'agit bien d'une voiture autonome, donc le conducteur n'a pas de rôle à jouer du tout ? c'est juste une programmation au cas où le système de freinage soit en rade ?

parce que ce que tu dis @Tramp c'est que osef de tous les critères, le principe c'est que le véhicule ne tue personne à l'extérieur mais uniquement ses passagers, même si ils sont supérieurs en nombre ? 

Lien vers le commentaire
26 minutes ago, Bisounours said:

Si on part du principe que la voiture est programmée pour sauver le plus de vies humaines possible en cas de dysfonctionnement, c'est pas très compliqué.

C'est ce que j'ai fait, en excluant des critères comme le genre, taille, poids, âge etc

Dans le cas où c'était égal, j'ai favorisé le respect du code de la route et la survie du chauffeur.

 

Alors je vais être cynique mais je pense en tant que conducteur, je cherche à sauver mes passagers si accident arrive, donc ça devrait être la construction de l'algorithme de la voiture autonome non? Et soyons réaliste, chaque être humain s'intéresse à son cercle de premier niveau (sa famille, ses amis....) et ça a toujours fonctionné ainsi. 

  • Yea 1
Lien vers le commentaire
il y a 17 minutes, Liber Pater a dit :

Ce n'est pas délibéré, il s'agit d'un accident dans ce cas-ci, dont la cause est la perte des freins.

 

A partir du moment où tu choisis la trajectoire c'est délibéré. La perte de frein est le problème du conducteur.

 

il y a 11 minutes, Bisounours a dit :

parce que ce que tu dis @Tramp c'est que osef de tous les critères, le principe c'est que le véhicule ne tue personne à l'extérieur mais uniquement ses passagers, même si ils sont supérieurs en nombre ? 

 

Les passagers ont une chance supérieure de survie à un impact (ceinture, airbag, carrosserie) et légalement tous les êtres humains se valent. C'est la personne qui conduit/propriétaire/constructeurs qui doit être responsables de son véhicule et de sa conduite, pas des tiers (sauf si les tiers sont infraction).

il y a 6 minutes, NicolasB a dit :

 

Alors je vais être cynique mais je pense en tant que conducteur, je cherche à sauver mes passagers si accident arrive, donc ça devrait être la construction de l'algorithme de la voiture autonome non? Et soyons réaliste, chaque être humain s'intéresse à son cercle de premier niveau (sa famille, ses amis....) et ça a toujours fonctionné ainsi. 

 

Ca ne t'empêchera pas de finir en prison.

D'ailleurs, le réflexe au volant est d'éviter l'obstacle, même avec son bébé à bord. Les considérations sur les gens à bord du véhicule ou ta personne n'entrent pas vraiment en ligne de compte dans les 1.5 secondes où tu prends ta decision. 

  • Yea 1
Lien vers le commentaire
4 minutes ago, Tramp said:

 

A partir du moment où tu choisis la trajectoire c'est délibéré. La perte de frein est le problème du conducteur.

 

 

Les passagers ont une chance supérieure de survie à un impact (ceinture, airbag, carrosserie) et légalement tous les êtres humains se valent. C'est la personne qui conduit/propriétaire/constructeurs qui doit être responsables de son véhicule et de sa conduite, pas des tiers (sauf si les tiers sont infraction).

 

Ca ne t'empêchera pas de finir en prison.

D'ailleurs, le réflexe au volant est d'éviter l'obstacle, même avec son bébé à bord. Les considérations sur les gens à bord du véhicule ou ta personne n'entrent pas vraiment en ligne de compte dans les 1.5 secondes où tu prends ta decision. 

 Je ne dis pas le contraire.... Il n'empêche que c'est l'instinct de survie qui rentre en ligne de compte....

Lien vers le commentaire
il y a 2 minutes, Tramp a dit :

A partir du moment où tu choisis la trajectoire c'est délibéré. La perte de frein est le problème du conducteur.

Tu "choisis" la trajectoire en fonction de ton instinct. C'est difficilement délibéré. Tu as un "choix" qui n'est rien d'autre qu'un réflexe qui prend 0.5 seconde à agir.

La perte de frein est le problème du conducteur s'il ne les a pas entretenus, du constructeur s'il y a un défaut de construction ou de conception, du garagiste s'il y a une erreur de sa part, d'un criminel s'il a sectionné le freins, etc. Ce n'est jamais aussi clair que ce que tu présentes. Ne prenons pas un cas particulier, mais un cas général où le conducteur sent que ses freins ne répondent plus. Point.

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...