Mobius Posté 14 février 2018 Signaler Posté 14 février 2018 1 hour ago, Johnnieboy said: Ce sont déjà des IA. Tu préfères Leepose et Nico Lombin
Hugh Posté 14 février 2018 Signaler Posté 14 février 2018 Moins chère et plus vite. Et il y a cas qui ne sont pas complexes. Et aussi les cas non pénales et pas complexes. Nombreux avantages. 1
Bézoukhov Posté 14 février 2018 Signaler Posté 14 février 2018 il y a 21 minutes, Mobius a dit : Tu préfères Leepose et Nico Lombin Wowowow. On parle d'une époque où l'iPhone n'existait pas, ou presque, là.
Mathieu_D Posté 14 février 2018 Signaler Posté 14 février 2018 5 hours ago, Rincevent said: 1. Non, non et non. L'existence d'éléments nouveaux, de faits originaux dans beaucoup d'affaires juridiques est impossible à intégrer de manière satisfaisante dans une IA, qui n'a pas d'expérience de la vie pour comprendre ces faits ( 2.i.e. il est près précisément impossible d'entraîner une IA sur des choses qui ne sont encore jamais arrivées) 1. Mmmmh non. 2. Ce n'est en rien un problème, on sait modéliser des évènements qui ne sont jamais arrivés. (Et on parle d'un réseau de neurones, pas d'une intelligence. Je déteste ce terme IA) Le problème du réseau de neurones c'est qu'il est boîte noire et non intelligible. Pour la justice c'est moyen.
Rincevent Posté 14 février 2018 Signaler Posté 14 février 2018 Je parlerai volontiers de réseau de neurones. il y a 40 minutes, Mathieu_D a dit : 1. Mmmmh non. 2. Ce n'est en rien un problème, on sait modéliser des évènements qui ne sont jamais arrivés. 1. Donne-moi des détails, ça m'intéresse. 2. Comme disait l'autre, il a les inconnues connues et les inconnues inconnues. Comment modélise-t-on ce à quoi on n'avait jamais même pensé, et qui est pourtant le lot quotidien de l'humanité ?
Lancelot Posté 14 février 2018 Signaler Posté 14 février 2018 À mon avis l'algorithme seul pose un problème de responsabilité (comme pour la voiture autonome mais en pire). Ultimement la décision devrait venir d'un humain. Peut-être qu'une aide automatisée pourrait produire un résumé avec les éléments de l'affaire, les textes et la jurisprudence applicables, sa conclusion en termes de probabilités que X ou Y ait raison et pour chaque cas une fourchette de peines dans laquelle le juge devra piocher. Le tout de manière bien plus rapide et moins biaisée que ce qui se fait actuellement. 1
Tramp Posté 15 février 2018 Signaler Posté 15 février 2018 On pourrait juger en première instance avec un algo seul et en appel avec des juges humains. 1
0100011 Posté 15 février 2018 Signaler Posté 15 février 2018 8 hours ago, Lancelot said: À mon avis l'algorithme seul pose un problème de responsabilité (comme pour la voiture autonome mais en pire). Ultimement la décision devrait venir d'un humain. Peut-être qu'une aide automatisée pourrait produire un résumé avec les éléments de l'affaire, les textes et la jurisprudence applicables, sa conclusion en termes de probabilités que X ou Y ait raison et pour chaque cas une fourchette de peines dans laquelle le juge devra piocher. Le tout de manière bien plus rapide et moins biaisée que ce qui se fait actuellement. Mon expérience d'entraîneur d'échecs pour les jeunes me montrent que dans la réalité quand il y a une machine elle est vécue comme "la vérité". Un peu à la manière dont on pouvait dire : "mais c'est vrai je l'ai vu écrit dans un livre" avant les années 2000. Pour en revenir sur les échecs les gamins sont capables de me sortir que tel coup est meilleur qu'un autre car l'ordi donne +0,27 au lieu +0,13. Très rares sont les joueurs qui résistent à cette vérité de silicone, d'ailleurs c'est marrant Kasparov notait que c'était une caractéristique de Carlsen (le meilleur joueur actuel et de loin) que d'avoir plus confiance en son jugement que dans celui de la machine. Mais il est une exception. Ce ne sera absolument pas moins biaisé qu'actuellement, ce le sera juste d'une manière différente et non directement humaine. Par contre le biais sera bien plus systémique. Une manière d'échapper à la subjectivité est la compétition : se reposer sur une machine (qui sera la même pour tout le monde sinon on criera à l'inégalité de traitement) va éliminer cela. Or le système actuel intègre cette possibilité de compétition avec les mécanismes d'appels, de cassation etc. car ce sont d'autres juges qui vont rejuger l'affaire.
Lancelot Posté 15 février 2018 Signaler Posté 15 février 2018 4 hours ago, Kassad said: Mon expérience d'entraîneur d'échecs pour les jeunes me montrent que dans la réalité quand il y a une machine elle est vécue comme "la vérité". C'est un problème, mais déjà moins que considérer que la machine dit la vérité sans même prendre la peine de consulter un humain... 4 hours ago, Kassad said: Ce ne sera absolument pas moins biaisé qu'actuellement, ce le sera juste d'une manière différente et non directement humaine. Par contre le biais sera bien plus systémique. Une manière d'échapper à la subjectivité est la compétition : se reposer sur une machine (qui sera la même pour tout le monde sinon on criera à l'inégalité de traitement) va éliminer cela. Or le système actuel intègre cette possibilité de compétition avec les mécanismes d'appels, de cassation etc. car ce sont d'autres juges qui vont rejuger l'affaire. Il ne faut pas éliminer les possibilités d'appel bien entendu. Après il y a différents types de tribunaux (on ne juge pas sur les mêmes critères en cassation par exemple) qui auraient donc différents programmes. Le mieux serait une libre concurrence des tribunaux mais bon
Mathieu_D Posté 15 février 2018 Signaler Posté 15 février 2018 13 hours ago, Rincevent said: Je parlerai volontiers de réseau de neurones. 1. Donne-moi des détails, ça m'intéresse. 2. Comme disait l'autre, il a les inconnues connues et les inconnues inconnues. Comment modélise-t-on ce à quoi on n'avait jamais même pensé, et qui est pourtant le lot quotidien de l'humanité ? Il n'y a pas besoin de se retrouver dans une situation déjà arrivée pour qu'un algo se prononce. C'est plus compliqué si tous les descripteurs de la situation sont nouveaux c'est sûr. Maintenant vu comment les réseaux de neurones modernes marchent bien, si l'entraînement du modèle est bon, les invariants de situation sont bien retrouvés. Le process latent derrière la situation particulière est bien identifié. (Par exemple en analyse d'image reconnaître un chien quelque soit l'angle de photographie. On commence à voir des trucs sympa de ce genre pour l'analyse de textes.) Après, hein, ce n'est pas magique non plus. Une assistance au jugement ne sera pas au point avant un moment et il faudra une bonne décade ensuite pour la laisser seule.
ph11 Posté 15 février 2018 Signaler Posté 15 février 2018 Le 14/02/2018 à 09:02, Marlenus a dit : S.O.S. Bonheur. Je viens de voir qu'il y a une nouvelle série qui est sortie. Vais voir ce qu'elle donne. Aie, je viens de voir des extraits… Contre la domination masculine, la privatisation du privé et tout le tralala dénonçant l'ultralibéralimse… 1
Antoninov Posté 16 février 2018 Signaler Posté 16 février 2018 On 2/15/2018 at 12:31 AM, Lancelot said: À mon avis l'algorithme seul pose un problème de responsabilité (comme pour la voiture autonome mais en pire). Ultimement la décision devrait venir d'un humain. Peut-être qu'une aide automatisée pourrait produire un résumé avec les éléments de l'affaire, les textes et la jurisprudence applicables, sa conclusion en termes de probabilités que X ou Y ait raison et pour chaque cas une fourchette de peines dans laquelle le juge devra piocher. Le tout de manière bien plus rapide et moins biaisée que ce qui se fait actuellement. Comme pour les diagnostics médicaux... 20 hours ago, ph11 said: la privatisation du privé
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant