Aller au contenu

Justice et algorithmes : SOS Bonheur?


Messages recommandés

5 hours ago, Rincevent said:

1. Non, non et non. L'existence d'éléments nouveaux, de faits originaux dans beaucoup d'affaires juridiques est impossible à intégrer de manière satisfaisante dans une IA, qui n'a pas d'expérience de la vie pour comprendre ces faits (

2.i.e. il est près précisément impossible d'entraîner une IA sur des choses qui ne sont encore jamais arrivées)

1. Mmmmh non.

2. Ce n'est en rien un problème, on sait modéliser des évènements qui ne sont jamais arrivés.

(Et on parle d'un réseau de neurones, pas d'une intelligence. Je déteste ce terme IA)

 

Le problème du réseau de neurones c'est qu'il est boîte noire et non intelligible. Pour la justice c'est moyen.

Lien vers le commentaire

Je parlerai volontiers de réseau de neurones. ;)

 

il y a 40 minutes, Mathieu_D a dit :

1. Mmmmh non.

2. Ce n'est en rien un problème, on sait modéliser des évènements qui ne sont jamais arrivés.

1. Donne-moi des détails, ça m'intéresse.

2. Comme disait l'autre, il a les inconnues connues et les inconnues inconnues. Comment modélise-t-on ce à quoi on n'avait jamais même pensé, et qui est pourtant le lot quotidien de l'humanité ?

Lien vers le commentaire

À mon avis l'algorithme seul pose un problème de responsabilité (comme pour la voiture autonome mais en pire). Ultimement la décision devrait venir d'un humain. Peut-être qu'une aide automatisée pourrait produire un résumé avec les éléments de l'affaire, les textes et la jurisprudence applicables, sa conclusion en termes de probabilités que X ou Y ait raison et  pour chaque cas une fourchette de peines dans laquelle le juge devra piocher. Le tout de manière bien plus rapide et moins biaisée que ce qui se fait actuellement.

  • Yea 1
Lien vers le commentaire
8 hours ago, Lancelot said:

À mon avis l'algorithme seul pose un problème de responsabilité (comme pour la voiture autonome mais en pire). Ultimement la décision devrait venir d'un humain. Peut-être qu'une aide automatisée pourrait produire un résumé avec les éléments de l'affaire, les textes et la jurisprudence applicables, sa conclusion en termes de probabilités que X ou Y ait raison et  pour chaque cas une fourchette de peines dans laquelle le juge devra piocher. Le tout de manière bien plus rapide et moins biaisée que ce qui se fait actuellement.

 

Mon expérience d'entraîneur d'échecs pour les jeunes me montrent que dans la réalité quand il y a une machine elle est vécue comme  "la vérité". Un peu à la manière dont on pouvait dire : "mais c'est vrai je l'ai vu écrit dans un livre" avant les années 2000. Pour en revenir sur les échecs les gamins sont capables de me sortir que tel coup est meilleur qu'un autre car l'ordi donne +0,27 au lieu +0,13. Très rares sont les joueurs qui résistent à cette vérité de silicone, d'ailleurs c'est marrant Kasparov notait que c'était une caractéristique de Carlsen (le meilleur joueur actuel et de loin) que d'avoir plus confiance en son jugement que dans celui de la machine. Mais il est une exception.

 

Ce ne sera absolument pas moins biaisé qu'actuellement, ce le sera juste d'une manière différente et non directement humaine. Par contre le biais sera bien plus systémique. Une manière d'échapper à la subjectivité est la compétition : se reposer sur une machine (qui sera la même pour tout le monde sinon on criera à l'inégalité de traitement) va éliminer cela. Or le système actuel intègre cette possibilité de compétition avec les mécanismes d'appels, de cassation etc. car ce sont d'autres juges qui vont rejuger l'affaire.

 

 

 

 

Lien vers le commentaire
4 hours ago, Kassad said:

Mon expérience d'entraîneur d'échecs pour les jeunes me montrent que dans la réalité quand il y a une machine elle est vécue comme  "la vérité".

C'est un problème, mais déjà moins que considérer que la machine dit la vérité sans même prendre la peine de consulter un humain...

 

4 hours ago, Kassad said:

Ce ne sera absolument pas moins biaisé qu'actuellement, ce le sera juste d'une manière différente et non directement humaine. Par contre le biais sera bien plus systémique. Une manière d'échapper à la subjectivité est la compétition : se reposer sur une machine (qui sera la même pour tout le monde sinon on criera à l'inégalité de traitement) va éliminer cela. Or le système actuel intègre cette possibilité de compétition avec les mécanismes d'appels, de cassation etc. car ce sont d'autres juges qui vont rejuger l'affaire.

Il ne faut pas éliminer les possibilités d'appel bien entendu. Après il y a différents types de tribunaux (on ne juge pas sur les mêmes critères en cassation par exemple) qui auraient donc différents programmes. Le mieux serait une libre concurrence des tribunaux mais bon :mrgreen:

Lien vers le commentaire
13 hours ago, Rincevent said:

Je parlerai volontiers de réseau de neurones. ;)

 

1. Donne-moi des détails, ça m'intéresse.

2. Comme disait l'autre, il a les inconnues connues et les inconnues inconnues. Comment modélise-t-on ce à quoi on n'avait jamais même pensé, et qui est pourtant le lot quotidien de l'humanité ?

 Il n'y a pas besoin de se retrouver dans une situation déjà arrivée pour qu'un algo se prononce. 

C'est plus compliqué si tous les descripteurs de la situation sont nouveaux c'est sûr. 

 

Maintenant vu comment les réseaux de neurones modernes marchent bien, si l'entraînement du modèle est bon, les invariants de situation sont bien retrouvés. Le process latent derrière la situation particulière est bien identifié.

(Par exemple en analyse d'image reconnaître un chien quelque soit l'angle de photographie. On commence à voir des trucs sympa de ce genre pour l'analyse de textes.)

 

Après, hein, ce n'est pas magique non plus. Une assistance au jugement ne sera pas au point avant un moment et il faudra une bonne décade ensuite pour la laisser seule.

Lien vers le commentaire
Le 14/02/2018 à 09:02, Marlenus a dit :

S.O.S.  Bonheur.

 

 

Je viens de voir qu'il y a une nouvelle série qui est sortie. Vais voir ce qu'elle donne.

Aie, je viens de voir des extraits…

Contre la domination masculine, la privatisation du privé et tout le tralala dénonçant l'ultralibéralimse…

:icon_tresfache:

  • Sad 1
Lien vers le commentaire
On 2/15/2018 at 12:31 AM, Lancelot said:

À mon avis l'algorithme seul pose un problème de responsabilité (comme pour la voiture autonome mais en pire). Ultimement la décision devrait venir d'un humain. Peut-être qu'une aide automatisée pourrait produire un résumé avec les éléments de l'affaire, les textes et la jurisprudence applicables, sa conclusion en termes de probabilités que X ou Y ait raison et  pour chaque cas une fourchette de peines dans laquelle le juge devra piocher. Le tout de manière bien plus rapide et moins biaisée que ce qui se fait actuellement.

Comme pour les diagnostics médicaux...

20 hours ago, ph11 said:

la privatisation du privé 

 

:icon_volatilize:

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...