Aller au contenu

Intelligence Artificielle, Morale et Politique


Messages recommandés

12 minutes ago, L'affreux said:

 

Ce n'est pas ce que j'ai lu. Alpha Zéro apprend en jouant contre lui-même. Il est donc dans la situation d'un joueur autodidacte ayant développé ses aptitudes sans tenir compte du savoir existant. Il n'est pas dans la situation d'un joueur ayant exploré toutes les situations d'une manière exhaustive. Plus l'IA est performante et moins il lui faut d'essais pour son entraînement, ce qui implique je pense qu'une IA de bonne facture n'explore pas tout… et puisse se faire battre par surprise sur une stratégie délaissée.

Non AlphaZero est un mélange d'exploration combinatoire aléatoire (un Monte Carlo tree search) et d'une évaluation de la position par réseau de neurones. Un réseau de neurones est juste un gros circuit (donc c'est un calcul logique) qu'on règle automatiquement avec un algorithme d'apprentissage (après chaque partie on règle des paramètres en fonction des résultats obtenus). 

  • Yea 1
Lien vers le commentaire
il y a 3 minutes, Kassad a dit :

Un réseau de neurones est juste un gros circuit (donc c'est un calcul logique) qu'on règle automatiquement avec un algorithme d'apprentissage

 

Oui mais, en ce qui concerne la reconnaissance (de formes ou de situations dans un jeu), un réseau de neurones biologique ne fonctionne-t-il pas ainsi également ?

Lien vers le commentaire
1 hour ago, Kassad said:

Le problème de fond est de penser que l'intelligence est une fonction qui sur certaines entrées va produire certains résultats. C'est d'ailleurs à mon avis le pire biais du QI quant à la mesure de l'intelligence : on mesure à travers des réponses. Or ce n'est pas uniquement dans les réponses aux questions que se trouve l'intelligence, je parlerais plutôt d'habileté.

Les vrais tests de QI se passent normalement avec un psychologue supposé s'intéresser aussi au raisonnement en soi et pas juste au résultat. Seulement les trucs à la Mensa sont plus faciles à vendre parce que plus "objectifs".

 

16 minutes ago, L'affreux said:

Oui mais, en ce qui concerne la reconnaissance (de formes ou de situations dans un jeu), un réseau de neurones biologique ne fonctionne-t-il pas ainsi également ?

Bof. Les réseaux de neurones artificiels se basent en gros sur une caricature de la manière dont on comprenait le fonctionnement d'un neurone il y a une soixantaine d'années.

Lien vers le commentaire
il y a 7 minutes, Lancelot a dit :

Les réseaux de neurones artificiels se basent en gros sur une caricature de la manière dont on comprenait le fonctionnement d'un neurone il y a une soixantaine d'années. 

 

N'hésite pas à développer. Le sujet est intéressant.

Lien vers le commentaire
Il y a 2 heures, Kassad a dit :

Je n'ai jamais vu une IA avoir une idée de rupture.

 

Pour ma pomme, j'ai vu des réseaux de neurones me surprendre (et d'autres) plusieurs fois quand je bossais dessus.

Ce n'est peut-être pas une rupture du point de vue du réseau lui-même (puisque de facto il réalise la chose),

mais le comportement imprévu laisse quand même une drôle d'impression.

 

Lien vers le commentaire
1 hour ago, L'affreux said:

N'hésite pas à développer. Le sujet est intéressant.

Quand on parle de réseaux de neurones artificiels, les neurones en question sont toujours formalisés en prenant pour base (plus ou moins modifiée) le modèle défini par McCulloch and Pitts (1943, A logical calculus of the ideas immanent in nervous activity). Voici à quoi ça peut ressembler dans une implémentation moderne :

0*v4f4-nMoRMNrtUZG.png

Chaque neurone a donc un vecteur d'inputs x et un vecteur de poids w associés à chaque input (c'est la modification de ces poids qui permet à un réseau d'être accordé pour produire les réponses voulues). Ces inputs pondérés sont ensuite combinés (typiquement par une somme mais certains inputs peuvent être introduits après comme des biais) et une fonction d'activation est appliquée sur le résultat de cette combinaison pour déterminer l'output. Cette dernière étape peut être aussi bête qu'un seuil (si le résultat de la combinaison des inputs dépasse telle valeurs alors l'output est égal à 1, sinon à 0) mais on peut aussi utiliser une fonction sigmoïde par exemple. La figure montre comment ces différentes étapes sont calquées sur une vision schématique d'un neurone biologique : les inputs arrivent par les dendrites puis il se passe quelque chose dans le corps cellulaire qui fait que l'axone transmet ou pas un potentiel d'action à un instant t.

 

Seulement comme je le disais c'est très caricatural (par exemple quel est l'équivalent biologique d'un poids négatif ?), et encore plus quand on prend en compte les mécanismes d'apprentissage utilisés pour déterminer les poids comme la rétropropagation du gradient de l'erreur qui est utile parce qu'elle permet d'entraîner des réseaux à plusieurs couches mais qui n'a aucune prétention à refléter quoi que ce soit de biologique. En outre et plus fondamentalement l'apprentissage dans un réseau de neurone artificiel est supervisé ce qui n'est pas le cas (ou au minimum de manière très lointaine) dans le cerveau.

 

Pour terminer le rapide tour d'horizon, les derniers développements du domaine sont les spikings neurons qui sont en gros le même modèle mais dans une version dynamique supposée être plus proche du fonctionnement d'un vrai neurone, le deep learning qui est un joli nom pour dire "utilisation de réseaux avec beaucoup de couches" et le réservoir computing qui intègre des boucles d'auto-activation pour garder de l'information dans une sorte de "mémoire de travail" (si vous avez déjà joué avec des automates cellulaires vous voyez à quoi ça peut ressembler).

  • Yea 1
  • Post de référence 1
Lien vers le commentaire
6 hours ago, Kassad said:

C'est vraiment similaire au raisonnement d'un enfant qui pense que quand il sera grand il va tout faire. 

 

J’essaie de comprendre l’image, mais je n’y arrive pas…

 

6 hours ago, Kassad said:

D'autre part c'est supposer qu'une AIG est une fonction à maximiser dans un certain espace. Au mieux ça paraît douteux

 

Et je ne vois absolument pas d’où vient ce rejet viscéral de l’idée que les décisions d’un agent rationnel puissent être modélisées par la maximisation d’une fonction d’utilité. Dans ta tête j’ai l’impression que c’est une "simple fonction d’utilité", genre "x^2+y^2". Dans la formulation de VnM, l’argument de ta fonction d’utilité, c’est des world-state. Tout ce que dit VnM au fond, c’est que pour un agent rationnel l’ensemble des world-states possède un ordre (total) (de préférences) plutôt que des cycles de type "je prèfère A à B à C à A". Personne ne dit que tu es réductible à un polynome de degré 2…

Lien vers le commentaire
2 hours ago, Sloonz said:

 

J’essaie de comprendre l’image, mais je n’y arrive pas…

 

 

Et je ne vois absolument pas d’où vient ce rejet viscéral de l’idée que les décisions d’un agent rationnel puissent être modélisées par la maximisation d’une fonction d’utilité. Dans ta tête j’ai l’impression que c’est une "simple fonction d’utilité", genre "x^2+y^2". Dans la formulation de VnM, l’argument de ta fonction d’utilité, c’est des world-state. Tout ce que dit VnM au fond, c’est que pour un agent rationnel l’ensemble des world-states possède un ordre (total) (de préférences) plutôt que des cycles de type "je prèfère A à B à C à A". Personne ne dit que tu es réductible à un polynome de degré 2…

Ce n'est pas un rejet viscéral. C'est assez marrant de voir que quand on a un marteau tous les problèmes ressemblent à des clous. Par construction toute IA est une machine de Turing particulière et on peut lui associer une fonction de N dans N. Quelle soit produite par deep learning ou par un processus évolutif, ou un singe qui rappelle au hasard sur un clavier,  n'y change fondamentalement rien. Poser par principe que le fonctionnement de l'univers se réduisent à notre manière de le modéliser est un a priori. Il existe des indices forts pour montrer que ce n'est pas suffisant. 

 

 Quant à l'image : si tu te places dans une perspective d'une IA sur-humaine alors essayer d'imaginer comment elle pourrait se comporter (dans l'article éliminer l'espèce humaine pour finir un calcul tranquillement) ressemble très exactement aux réflexions d'un enfant qui pense que ses parents font tout ce qu'ils veulent parce qu'ils lui disent "non" et que personne ne leur dit non à eux. Ergo quand il sera grand il fera ce qu'il veut car personne ne lui dira non. Bref les prophètes de malheur (les IA vont nous exterminer blabla) n'ont pas l'humilité qu'ils devraient avoir : si des super IA arrivent la seule chose que je sais est qu'on a aucune putain d'idée de ce qu'elles feront justement parce qu'elles seront inaccessibles. 

 

Maintenant trois heures de cours en complexité suffisent à montrer que cette image d'IA toute puissant est un fantasme. Si tu rajoutes un peu de Calculabilité en plus tu t'apercois que les problémes sont bien plus profonds. 

 

Un exemple à la con : soit f la fonction qui quand je lui donne une date en seconde depuis la naissance de Barberousse me donne les nombres du tirages du Loto Bulgare le plus proche dans le temps. f est très bien definie, sans ambiguïté. C'est une fonction mathématiques de N dans N comme une autre. Est ce qu'une super IA peut calculer f ? 

 

Plus subtilement : les IA sont dénombrables (il faut bien écrire le programme dans un certain alphabet). Les fonctions de N dans Notre ne le sont pas. (Théorème de Cantor). 

Lien vers le commentaire
28 minutes ago, Kassad said:

si des super IA arrivent la seule chose que je sais est qu'on a aucune putain d'idée de ce qu'elles feront justement parce qu'elles seront inaccessibles

Ce qui est… très exactement la position des ""prophètes de malheurs" que tu critiques une phrase plus tôt.

J’ai l’impression que tu critiques juste pour le plaisir de pouvoir critiquer.

 

30 minutes ago, Kassad said:

Maintenant trois heures de cours en complexité suffisent à montrer que cette image d'IA toute puissant est un fantasme

Un "fantasme" que tu es le seul à invoquer. Autrement dit, un homme de paille. Je ne vois personne pour dire qu’une super-intelligence sera capable de résoudre instantannément tout problème qu’on lui balance.

 

40 minutes ago, Kassad said:

Maintenant trois heures de cours en complexité suffisent à montrer que cette image d'IA toute puissant est un fantasme. Si tu rajoutes un peu de Calculabilité en plus tu t'apercois que les problémes sont bien plus profonds.  

Quelqu’un dans ce topic a parlé de marteaux et de clous. Ça s’applique totalement à l’invocation dans tous les sens de "P ≠ NP", "calculabilité", "Gödel" dès qu’on parle d’IA.

  • Yea 1
Lien vers le commentaire
Il y a 13 heures, Kassad a dit :

Jules Vernes qui faisait une règle de trois pour calculer la quantité de poudre nécessaire pour projeter un vaisseau sur la lune (alors que la vitesse de déflagration de n'importe quel explosif est inférieur à la vitesse de libération).

Je suis plutôt d'accord avec ta position dans ce débat, mais ce petit détail est un peu à côté de la plaque. On sait très bien accélérer des gaz, c'est même précisément le rôle d'une tuyère. Avec certains cas rigolos https://fr.wikipedia.org/wiki/Tuyère_de_Laval

Il y a 3 heures, Sloonz a dit :

Quelqu’un dans ce topic a parlé de marteaux et de clous. Ça s’applique totalement à l’invocation dans tous les sens de "P ≠ NP", "calculabilité", "Gödel" dès qu’on parle d’IA.

Bah, est-ce que l'invocation en est pertinente ou non, au juste ?

Lien vers le commentaire
Il y a 3 heures, Nick de Cusa a dit :

bon, je vois que tu ne lis pas CP. C'est pourtant un site fameusement bien conçu

 

Je lis CP presque chaque jour via mon lecteur de flux RSS. Mais pas chaque article. Et je découvre souvent, au détour de conversations ici, que de bons articles m'ont échappé. Il faut dire que je n'ai pas repéré les noms d'auteurs de grand monde.

Lien vers le commentaire
6 hours ago, Rincevent said:

Je suis plutôt d'accord avec ta position dans ce débat, mais ce petit détail est un peu à côté de la plaque. On sait très bien accélérer des gaz, c'est même précisément le rôle d'une tuyère. Avec certains cas rigolos https://fr.wikipedia.org/wiki/Tuyère_de_Laval

Justement dans Jules Vernes il s'agit d'un canon et pas d'une Tuyère ! Une fois le coup parti il n'y a plus d'apport d'énergie nouvelle donc si tu n'atteint pas la vitesse de libération (car une fois atteint la vitesse limite de déflagration tu ne reçois plus de poussée additionnelle). Et le projectile est neutre. 

 

Édit :. En y repensant il y a une possibilité théorique c'est de prendre l'énergie perpendiculairement au déplacement d'un projectile (comme le vent d'un voilier) qui ferait une force centrifuge sur un cercle de rayon inifini. Mais ce n'est pas du tout ce que JV a proposé et je ne sais pas comment c'est implantable. Une sorte de fronde pyrotechnique.

Lien vers le commentaire
9 hours ago, Sloonz said:

Quelqu’un dans ce topic a parlé de marteaux et de clous. Ça s’applique totalement à l’invocation dans tous les sens de "P ≠ NP", "calculabilité", "Gödel" dès qu’on parle d’IA.

Les IA sont des programmes comme les autres auxquels on doit appliquer les résultats scientifiques d'informatique théorique. Désolé de ne pas verser dans la littérature et la licence poétique sur un sujet scientifique.

 

Les IA ne sont pas des produits de la nature (d'où le A dans IA). Les théorèmes d'informatique théorique ont le statut de vérités  mathématiques. Par contre supposer que la nature est totalement mathématisable est un acte de foi. 

Lien vers le commentaire

@Lancelot @Kassad

Si j'essaye de résumer et de vulgariser sauvagement : on imite les réseaux neuronaux naturels avec des résultats certes intéressants mais la modélisation est encore simpliste, beaucoup des mécanismes biologiques réels nous échappent toujours et les réseaux naturels seraient capables de bien plus à nombre de neurones égal (pour ces raisons ou d'autres qu'on ne soupçonne même pas encore ?). En particulier, de se représenter soi-même dans des simulations de l'univers ce qui serait une des marques de la "vraie" intelligence et qui semble encore totalement inaccessible aux meilleures IA actuelles.

J'ai pas trop tout compris de travers ?

Lien vers le commentaire
5 hours ago, Kassad said:

Les IA sont des programmes comme les autres auxquels on doit appliquer les résultats scientifiques d'informatique théorique. Désolé de ne pas verser dans la littérature et la licence poétique sur un sujet scientifique.

 

Je n’ai jamais prétendu le contraire. Je suis même totalement d’accord avec ça.

 

Ce avec quoi je ne suis pas d’accord, c’est invoquer ces limitations comme étant significatives. Une IA super-intelligente sera plus à même (par définition…) de trouver des heuristiques plus efficace, ou des résultats surprenants comme "PRIMES is in P". On peut aussi évoquer : le fait qu’un programme informatique tourne à 2Ghz, alors que le cerveau est limité à quelque Hz, l’accès à des banques de données gigantesques à une vitesse inhumaine, ne pas être limité par une mémoire de travail lamentablement limitée,…

L’homme a surpassé le reste du règne animal à l’aide de son intelligence bien avant Gödel. Il n’y a aucune raison de penser qu’une super-intelligence artificielle ne puisse faire de même pour les mêmes raisons, et il y a de bonnes raisons de penser qu’elle le puisse.

 

5 hours ago, Kassad said:

Par contre supposer que la nature est totalement mathématisable est un acte de foi.  

 

De la même manière que supposer que le soleil se lèvera demain plutôt que de nous faire un doigt et faire 3 fois le tour de la voie lactée à une vitesse supraluminique est un acte de foi.

 

Je veux dire, à un momnt donné, il faut arrêter la licence poétique, comme tu le dit si bien. Tout ce qui est testable mathématiquement a été testé/simulé sur un nombre de décimales bien plus significatif que tout ce qui se passe dans la vie de tous les jours. Philosophiquement, rien ne n’oppose qu’effectivement, en dessous de l’échelle de Planck, il y ait des processus non-calculables. Licence poétique. Et l’idée que ça ait la moindre influence sur la cognition, on entre là dans la littérature. Nos accélérateurs de particules sont incapables de trouver la moindre déviation mesurable au modèle standard, mais nos neurones sont capables elles d’utiliser des processus physiques non modélisés par le modèle standard (et comme par hasard non mathématisables) ? Restons un peu sérieux…

Lien vers le commentaire
4 hours ago, Boz said:

on imite les réseaux neuronaux naturels avec des résultats certes intéressants mais la modélisation est encore simpliste, beaucoup des mécanismes biologiques réels nous échappent toujours et les réseaux naturels seraient capables de bien plus à nombre de neurones égal (pour ces raisons ou d'autres qu'on ne soupçonne même pas encore ?). En particulier, de se représenter soi-même dans des simulations de l'univers ce qui serait une des marques de la "vraie" intelligence et qui semble encore totalement inaccessible aux meilleures IA actuelles.

Je dirais que les réseaux de neurones artificiels sont une classe de modèles dont l'unité de base et l'architecture s'inspirent de certains aspects du fonctionnement d'un cerveau, avec pour résultat des propriétés intéressantes par rapport à, disons, une régression. L'erreur est d'en déduire qu'un neurone artificiel et un neurone biologique sont la même chose, ou pire qu'un réseau de neurone artificiel est la même chose qu'un cerveau. Si on va par là, pour reprendre ma comparaison préférée sur le sujet, alors on doit aussi conclure qu'un marteau ou un tournevis sont la même chose qu'une main. Du coup la question de la capacité n'a pas trop de sens non plus. Un marteau a une plus grande capacité à enfoncer des clous qu'une main. La question du nombre de neurones est intéressante parce que, partant du principe qu'un réseau de neurones artificiels et un cerveau peuvent être équivalents, il y a des projets en cours qui engloutissent des tonnes de subventions dans le but de simuler des cerveaux. Parmi les nombreux problèmes plus ou moins insurmontables qu'ils rencontrent, le moindre n'est pas la puissance de calcul et la consommation d'énergie nécessaires pour simuler un réseau aussi grand que le cerveau de ne serait-ce qu'une souris, ce qui peut être considéré comme une indication qu'ils font fausse route puisqu'une souris arrive très bien à faire fonctionner son cerveau avec juste une quantité modeste d'oxygène, d'eau et un morceau de fromage de temps en temps :lol:

 

La perspective est critiquée plus en détail dans cet article :

Quote

For any given experience, orderly change could involve a thousand neurons, a million neurons or even the entire brain, with the pattern of change different in every brain.

Worse still, even if we had the ability to take a snapshot of all of the brain’s 86 billion neurons and then to simulate the state of those neurons in a computer, that vast pattern would mean nothing outside the body of the brain that produced it. This is perhaps the most egregious way in which the IP metaphor has distorted our thinking about human functioning. Whereas computers do store exact copies of data – copies that can persist unchanged for long periods of time, even if the power has been turned off – the brain maintains our intellect only as long as it remains alive. There is no on-off switch. Either the brain keeps functioning, or we disappear. What’s more, as the neurobiologist Steven Rose pointed out in The Future of the Brain (2005), a snapshot of the brain’s current state might also be meaningless unless we knew the entire life history of that brain’s owner – perhaps even about the social context in which he or she was raised.

Think how difficult this problem is. To understand even the basics of how the brain maintains the human intellect, we might need to know not just the current state of all 86 billion neurons and their 100 trillion interconnections, not just the varying strengths with which they are connected, and not just the states of more than 1,000 proteins that exist at each connection point, but how the moment-to-moment activity of the brain contributes to the integrity of the system. Add to this the uniqueness of each brain, brought about in part because of the uniqueness of each person’s life history, and Kandel’s prediction starts to sound overly optimistic. (In a recent op-ed in The New York Times, the neuroscientist Kenneth Miller suggested it will take ‘centuries’ just to figure out basic neuronal connectivity.)

Meanwhile, vast sums of money are being raised for brain research, based in some cases on faulty ideas and promises that cannot be kept. The most blatant instance of neuroscience gone awry, documented recently in a report in Scientific American, concerns the $1.3 billion Human Brain Project launched by the European Union in 2013. Convinced by the charismatic Henry Markram that he could create a simulation of the entire human brain on a supercomputer by the year 2023, and that such a model would revolutionise the treatment of Alzheimer’s disease and other disorders, EU officials funded his project with virtually no restrictions. Less than two years into it, the project turned into a ‘brain wreck’, and Markram was asked to step down.

 

  • Yea 1
  • Post de référence 1
Lien vers le commentaire
4 hours ago, Lancelot said:

Je dirais que les réseaux de neurones artificiels sont une classe de modèles dont l'unité de base et l'architecture s'inspirent de certains aspects du fonctionnement d'un cerveau, avec pour résultat des propriétés intéressantes par rapport à, disons, une régression. L'erreur est d'en déduire qu'un neurone artificiel et un neurone biologique sont la même chose, ou pire qu'un réseau de neurone artificiel est la même chose qu'un cerveau. Si on va par là, pour reprendre ma comparaison préférée sur le sujet, alors on doit aussi conclure qu'un marteau ou un tournevis sont la même chose qu'une main. Du coup la question de la capacité n'a pas trop de sens non plus. Un marteau a une plus grande capacité à enfoncer des clous qu'une main. La question du nombre de neurones est intéressante parce que, partant du principe qu'un réseau de neurones artificiels et un cerveau peuvent être équivalents, il y a des projets en cours qui engloutissent des tonnes de subventions dans le but de simuler des cerveaux. Parmi les nombreux problèmes plus ou moins insurmontables qu'ils rencontrent, le moindre n'est pas la puissance de calcul et la consommation d'énergie nécessaires pour simuler un réseau aussi grand que le cerveau de ne serait-ce qu'une souris, ce qui peut être considéré comme une indication qu'ils font fausse route puisqu'une souris arrive très bien à faire fonctionner son cerveau avec juste une quantité modeste d'oxygène, d'eau et un morceau de fromage de temps en temps :lol:

 

La perspective est critiquée plus en détail dans cet article :

 

 

Merci pour la réponse et l'article (excellente lecture !).

Je vais reprendre Life 3.0 d'un autre oeil, j'arrivais justement au chapitre où tout part en sucette (genre liste de spéculations SF sur les IA de niveau au moins humain, et singularité, dieu numérique et patati patala...)

Lien vers le commentaire
19 hours ago, Lancelot said:

Parmi les nombreux problèmes plus ou moins insurmontables qu'ils rencontrent, le moindre n'est pas la puissance de calcul et la consommation d'énergie nécessaires pour simuler un réseau aussi grand que le cerveau de ne serait-ce qu'une souris, ce qui peut être considéré comme une indication qu'ils font fausse route puisqu'une souris arrive très bien à faire fonctionner son cerveau avec juste une quantité modeste d'oxygène, d'eau et un morceau de fromage de temps en temps :lol:

La consommation en énergie est une mesure de complexité qui permet de bien mettre les choses en perspective. Je présente souvent en cours le principe de Landauer. Un petit calcul permet de montrer que la simple énumération de tous les entiers sur 200 bits demandent plus d'énergie qu'il n'y en a dans l'univers visible. Je le fais pour donner une borne réaliste d'attaque en force des mots de passes (autour de 120 bits d'entropie et on est tranquille). 200 bits c'est 25 lettres en ASCII : même pas la taille de l'alphabet. 

 

Effectivement cet argument doit aussi pouvoir s'appliquer dans cette discussion des IA.Si on la couple aux présentations singulières selon lesquelles les machines vont tout prévoir (par exemple dans l'article de Vox ou les envolées lyriques de Ben Goertzel) et qu'on regarde froidement les classes de complexité. 

Lien vers le commentaire

En train de lire le bouquin de Harari sur Sapiens. Il parle de révolution cognitive à propos de l'apparition d'un langage abstrait permettant de représenter le monde puis de le modéliser.

Cette avantage permet de mobiliser des groupes d'individus plus grands, mais aussi de transmettre plus de connaissance aux générations suivantes. Impossible pour l'instant de dire ce qui a permit cette révolution.

Le volume du cerveau est un des marqueurs avec un volume beaucoup plus important que celui des singes, mais aussi une consommation plus importante avec un cerveau qui mobilise 25% de l'oxygène au repos, ce qui peut être un désavantage en cas de restriction d'énergie.

Lien vers le commentaire
Le 26/12/2018 à 18:08, Rübezahl a dit :

 

Pour ma pomme, j'ai vu des réseaux de neurones me surprendre (et d'autres) plusieurs fois quand je bossais dessus.

Ce n'est peut-être pas une rupture du point de vue du réseau lui-même (puisque de facto il réalise la chose),

mais le comportement imprévu laisse quand même une drôle d'impression.

 

 

Qu'est-ce que tu entends, dans ton cas, par comportement imprévu? Faire plus que l'effet attendu? Plus "mieux" ou plus "différemment"? Ou bien parvenir à une fin sans respecter tout à fait les moyens anticipés?

Lien vers le commentaire
On 12/27/2018 at 12:57 PM, Sloonz said:

Ce avec quoi je ne suis pas d’accord, c’est invoquer ces limitations comme étant significatives. Une IA super-intelligente sera plus à même (par définition…) de trouver des heuristiques plus efficace, ou des résultats surprenants comme "PRIMES is in P". On peut aussi évoquer : le fait qu’un programme informatique tourne à 2Ghz, alors que le cerveau est limité à quelque Hz, l’accès à des banques de données gigantesques à une vitesse inhumaine, ne pas être limité par une mémoire de travail lamentablement limitée,…

 

Mais il y a des résultats précis sur la démonstration automatique. C'est pas de la magie et PRIMES is in P n'est pas exprimable dans une classe de formules logiques prouvables automatiquement.

 

On 12/27/2018 at 12:57 PM, Sloonz said:

’homme a surpassé le reste du règne animal à l’aide de son intelligence bien avant Gödel. Il n’y a aucune raison de penser qu’une super-intelligence artificielle ne puisse faire de même pour les mêmes raisons, et il y a de bonnes raisons de penser qu’elle le puisse

 

Ce qui est central dans la démonstration de Goedel est l'internalisation des systèmes formels à l'intérieur d'eux-même. Une IA construite sur une MT ne peut pas s'out Goedeliser, c'est comme ça la vie. Or un des propres de la conscience est de pouvoir se regarder dans le miroir et d'avoir une idée d'elle même : or c'est le coeur de la méthode de diagonalisation.

 

On 12/27/2018 at 12:57 PM, Sloonz said:

De la même manière que supposer que le soleil se lèvera demain plutôt que de nous faire un doigt et faire 3 fois le tour de la voie lactée à une vitesse supraluminique est un acte de foi.

 

Non car là encore tu compares des choses incomparables : le fait que le soleil se lève est un phénomène naturel sur lequel on n'a aucun contrôle. On ne peut que de dire (et espérer) que demain sera pareil qu'hier. Mais poser que la nature est mathématisable n'est pas comparable avec ce qu'on peut dire des machines de Turing. Les ordinateurs sont des productions artificielles auxquelles s'appliquent les mathématiques (ils en sont issus). La nature ne l'est pas. Le fait qu'elle semble suivre des lois stables dans le temps est ontologiquement différent que d'affirmer que nécessairement elle est mathématisable.

Lien vers le commentaire
Le 27/12/2018 à 13:43, Lancelot a dit :

Parmi les nombreux problèmes plus ou moins insurmontables qu'ils rencontrent, le moindre n'est pas la puissance de calcul et la consommation d'énergie nécessaires pour simuler un réseau aussi grand que le cerveau de ne serait-ce qu'une souris, ce qui peut être considéré comme une indication qu'ils font fausse route puisqu'une souris arrive très bien à faire fonctionner son cerveau avec juste une quantité modeste d'oxygène, d'eau et un morceau de fromage de temps en temps :lol:

 

Ça fait penser à des débats plus anciens.

Lien vers le commentaire
Il y a 2 heures, Loi a dit :

Qu'est-ce que tu entends, dans ton cas, par comportement imprévu? Faire plus que l'effet attendu? Plus "mieux" ou plus "différemment"? Ou bien parvenir à une fin sans respecter tout à fait les moyens anticipés?

Le dernier.

Et ce n'est pas sans respecter, c'est juste que l'implémentation est inattendue.

Nous n'y avions pas pensé.

 

Pour la discussion sur l'intelligence, je rappelle le mot de H. Laborit :

"Un cerveau ça ne sert pas à penser, mais ça sert à agir." - Henri Laborit (Mon oncle d'Amérique - 1980)

 

L'intelligence, du moins au démarrage, n'a certainement pas vocation à unifier les lois de la physique.

ça sert plutôt à récupérer un bout de charogne sans se faire manger soi-même par les autres crevards autour.

Lien vers le commentaire
il y a 3 minutes, Rübezahl a dit :

Le dernier.

Et ce n'est pas sans respecter, c'est juste que l'implémentation est inattendue.

Nous n'y avions pas pensé.

 

Et tu peux l'apprécier qualitativement ou pas?

Lien vers le commentaire
il y a 13 minutes, Loi a dit :

Et tu peux l'apprécier qualitativement ou pas?

Pour les exemples auxquels je pense, c'est purement quantitatif.

On demande à la base au réseau d'effectuer une tâche.

En termes de résultat, c'est binaire: ou bien il y arrive, ou bien il échoue.

 

C'est dans l'implémentation qu'il y a des surprises, en particulier dans l'économie de moyens pour accomplir la fonction demandée.

 

NB : je parle d'expériences qui datent de 1990-2000. 2° vague pourrait-on dire.

Il me semble bien qu'aujourd'hui les tâches réalisées sont plus complexes et plus intéressantes.

Les perfs au go etc sont très intéressantes. L'apprentissage sur des bases très grandes, etc.

Quand une IA1 fait 10 fois mieux qu'une IA0, ça me parait très intéressant et significatif.

 

NB2 : je ne suis pas trop étonné par les perfs obtenues grâce à de l'apprentissage sur des bases énormes,

et surtout sur des bases dynamiques pondues en temps réel par 2 réseaux qui jouent entre eux.

C'était tout à fait anticipable circa 1995.

(à l'époque, les bases à disposition étaient encore bien petites).

 

NB3 : pour gratter "deep learning" etc, il faut entre autre regarder du côté des convolutions et eg de Yann Lecun.

L'implémentation des convolutions a été un vrai saut.

 

NB4 : on n'est pas bien loin de la problématique des événements "rares".

Aussi rare que la croissance et le développement d'une plante rare.

Tant que ladite plante n'est pas là, c'est le désert.

Et hop, une fois que la 1° bouture a pris, c'est terminé, la problématique devient celle de la gestion d'une famille exubérante.

Lien vers le commentaire
1 hour ago, L'affreux said:

Ça fait penser à des débats plus anciens.

Comme quoi je continue mon chemin intellectuel en restant cohérent. La lecture de The Elements of Statistical Learning a fixé ma vision des réseaux de neurones comme une classe de modèles statistiques parmi d'autres.

 

52 minutes ago, Rübezahl said:

Laborit

ESiYZCQ.gif

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...