Aller au contenu

Les petites inventions qui font faire de grands bonds en avant


h16

Messages recommandés

tiens j'ai eu une discussion la dessus avec un pote neurologue qui me dit que malheureusement il y a beaucoup de choses dans le cerveau on ne sait meme pas comment elles fonctionnent alors pour simuler...par exemple il me disait qu'il y a tellement de systemes dans le cerveau qui, imbriques les uns dans les autres, fonctionnent par inhibition plutot que par action, que c'est l'horreur pour savoir qui fait quoi, un peu comme dans une phrase avec trop de virgules

 

comme dans un ordi, en fait...

Lien vers le commentaire

tiens j'ai eu une discussion la dessus avec un pote neurologue qui me dit que malheureusement il y a beaucoup de choses dans le cerveau on ne sait meme pas comment elles fonctionnent alors pour simuler...par exemple il me disait qu'il y a tellement de systemes dans le cerveau qui, imbriques les uns dans les autres, fonctionnent par inhibition plutot que par action, que c'est l'horreur pour savoir qui fait quoi, un peu comme dans une phrase avec trop de virgules

En fait je crois que la justification théorique derrière ce type de projet est qu'il y aurait seulement besoin de simuler les structures sous-jacentes du cerveau, et qu'une fois ceci fait, les structures plus complexes devraient émerger automatiquement. Pas besoin de comprendre leur fonctionnement.

 

 

Lien vers le commentaire

tiens j'ai eu une discussion la dessus avec un pote neurologue qui me dit que malheureusement il y a beaucoup de choses dans le cerveau on ne sait meme pas comment elles fonctionnent alors pour simuler...par exemple il me disait qu'il y a tellement de systemes dans le cerveau qui, imbriques les uns dans les autres, fonctionnent par inhibition plutot que par action, que c'est l'horreur pour savoir qui fait quoi, un peu comme dans une phrase avec trop de virgules

 

Incroyablement, ce ne sont pas les neurologues qui en savent le plus long. Ils sont, pour énormément d'entre eux, attachés à l'approche top-down, où on découpe un gros problème en petits pour comprendre ce qui marche ou pas.

Lien vers le commentaire

En fait je crois que la justification théorique derrière ce type de projet est qu'il y aurait seulement besoin de simuler les structures sous-jacentes du cerveau, et qu'une fois ceci fait, les structures plus complexes devraient émerger automatiquement. Pas besoin de comprendre leur fonctionnement.

 

En gros, oui. Et ce n'est plus une théorie. C'est déjà observé.

Lien vers le commentaire

Pour la simulation informatique d'esprit, je suis sceptique (et là je ne suis pas vraiment un noob). Certes l'approche bottom-up en termes de réseaux de neurones artificiels donne des résultats intéressants (on arrive à faire émerger des trucs dans une certaine mesure), mais en pratique on se rend compte par exemple que même un processus aussi "simple" et étudié que la perception visuelle d'objets dépend aussi énormément dans le cerveau de flux top-down (on perçoit principalement ce qu'on s'attend à percevoir).

Il est aussi tout sauf évident (et c'était déjà un problème évoqué par Turing) qu'un esprit puisse émerger sans corps et sans interaction sociale.

Lien vers le commentaire

Pour la simulation informatique d'esprit, je suis sceptique (et là je ne suis pas vraiment un noob). Certes l'approche bottom-up en termes de réseaux de neurones artificiels donne des résultats intéressants (on arrive à faire émerger des trucs dans une certaine mesure), mais en pratique on se rend compte par exemple que même un processus aussi "simple" et étudié que la perception visuelle d'objets dépend aussi énormément dans le cerveau de flux top-down (on perçoit principalement ce qu'on s'attend à percevoir).

Il est aussi tout sauf évident (et c'était déjà un problème évoqué par Turing) qu'un esprit puisse émerger sans corps et sans interaction sociale.

 

Là, tu vises "esprit humain". Ce n'est pas le but de ceux qui calquer les mécanismes biologiques in silico.

Lien vers le commentaire

Pour la simulation informatique d'esprit, je suis sceptique (et là je ne suis pas vraiment un noob). Certes l'approche bottom-up en termes de réseaux de neurones artificiels donne des résultats intéressants (on arrive à faire émerger des trucs dans une certaine mesure), mais en pratique on se rend compte par exemple que même un processus aussi "simple" et étudié que la perception visuelle d'objets dépend aussi énormément dans le cerveau de flux top-down (on perçoit principalement ce qu'on s'attend à percevoir).

Dans l'exemple que tu cites, le flux top-down est simplement la résultante d'un processus d'apprentissage, non ?

Lien vers le commentaire

Je pense pas qu'on soit arrivé à ça dans des architectures complexes, mais on trouve beaucoup de travaux sur des modèles bayésiens de l'acquisition de connaissance utilisant ce principe : chaque nouvelle perception pondère des probabilités de perception, qu'il suffit d'interpréter comme des prédictions, soit des connaissances sur le monde. Mais fonder tout un système perceptif, voire cognitif sur ce principe, j'ai pas lu de choses à ce sujet en terme de recherche. Par contre c'est le dogme de beaucoup de chercheurs et de philosophes qui sont en controverse depuis 30 ans (l'article classique est de Fodor et Pylyshyn sur cette question, il date de 1988, ça se trouve, eux étaient opposés au connexionnisme).

 

De manière générale les approches connexionistes/probabilistes ne sont utilisées pour l'instant que pour des fonctions simples (T9, reconnaissance visuelle), ou pour des mécanismes particuliers d'architecture (acquisition de règle linguistique notamment, avec moult controverses sur le réalisme, des questions du type : les gamins font-ils des probabilités?). Si on prend ACT-R, l'un des projets les plus avancés en la matière, pas de dogme général sur la nature des mécanismes, on intègre au mieux les modèles qui font les meilleures prédictions.

 

http://act-r.psy.cmu.edu/

 

Ce truc est open source, tout le monde peut contribuer, l'idée c'est d'y intégrer des modèles d'expériences de psychologie, et de faire reproduire à la simulation les résultats des sujets en terme de temps de réponse, et même d'autres performances comportementales plus élaborées (je crois qu'on peut même avoir des résultats de eye tracking avec). Je crois que la majorité est fait en python.

 

Edit : rectification, voici la version python de ACT-R : https://sites.google.com/site/pythonactr/
D'ailleurs ce petit site est très bien fait et vous allez voir les différents modules à gauche et le détail des approches théoriques associées.

 

Par contre ce que tu dis Ray est intéressant parce que ça montre que le pre-wired dans les architectures cognitives n'a pas nécessairement à être conçu comme top-down, ça peut simplement être une distribution de probabilités à l'état initial. Mais c'est plus compliqué à faire.

 

Mais l'idée que Connexionisme = bottom-up et architecture probabiliste, alors que fonctionnalisme = top-down et architecture symbolique, c'est surtout vrai pour les philosophes.

 

Lien vers le commentaire

Dans l'exemple que tu cites, le flux top-down est simplement la résultante d'un processus d'apprentissage, non ?

 

Peut-être, peut-être pas. Rien n'empêche d'essayer mais il faut avoir conscience que ça part d'une hypothèse assez forte. Actuellement la recherche en neurosciences penche vers des aires cérébrales plus ou moins aptes de manière innée à abriter telle ou telle fonction.

Lien vers le commentaire

Peut-être, peut-être pas. Rien n'empêche d'essayer mais il faut avoir conscience que ça part d'une hypothèse assez forte. Actuellement la recherche en neurosciences penche vers des aires cérébrales plus ou moins aptes de manière innée à abriter telle ou telle fonction.

 

Ca, c'était il y a quelques années, déjà. Ce n'est pas faux, mais ça cache une réalité plus subtile : il n'y a pas de différence de constituants et d'organisation entre les zones qui traitent le langage et les zones qui traitent la vision p.ex. Il y a des améliorations marginales qui favorisent le traitement par une zone d'un type d'information, et le câblage inné (qui fait que le nerf optique arrive à tel endroit et pas un autre), mais rien qui soit figé dans le marbre, ce qui fait qu'un aveugle va utiliser sa zone "vision" pour des traitements de l'information du son par exemple, et étendre son oreille (ce qui lui donne une ouïe plus fine, ou un toucher plus subtil, ou un goût/odorat plus fin). En gros, l'évolution nous a câblé d'une certaine façon, mais ce sont des améliorations marginales.

 

En gros, maintenant, on en est à noter que le cerveau humain (et mammifère en général) est une structure basique simple (vraiment simple) d'environ 10.000 neurones qui forment un "moteur de reconnaissance de motifs", et que cette structure est répétée 300.000.000 de fois environ, de façon parfaitement linéaire & répétitive. Les structures sont reliées entre elles, avec différents types de neurones spécialisés (45.000 dans le cerveau humain, 15.000 pour un chimpanzé). Les essais pour reproduire intégralement des morceaux de cerveau, de façon simulée, ont donné des résultats très très surprenant (l'hypothalamus d'un rat a été simulé, écrit dans un FPGA, et activé/désactivé sur demande, sur le rat : il se souvenait/oubliait le parcours dans un labyrinthe sur commande).

 

Bref : ça avance très très vite ; les chercheurs prévoyaient d'avoir réussi une simulation complète d'une centaine de colonnes du mésocircuit néocortical en 2013, ils y sont parvenu en 2011. Ils prévoient une simu de cerveau de rat complet en 2014 et 2023 pour un cerveau humain.

Lien vers le commentaire

Ça, c'était il y a quelques années, déjà. Ce n'est pas faux, mais ça cache une réalité plus subtile : il n'y a pas de différence de constituants et d'organisation entre les zones qui traitent le langage et les zones qui traitent la vision p.ex. Il y a des améliorations marginales qui favorisent le traitement par une zone d'un type d'information, et le câblage inné (qui fait que le nerf optique arrive à tel endroit et pas un autre), mais rien qui soit figé dans le marbre, ce qui fait qu'un aveugle va utiliser sa zone "vision" pour des traitements de l'information du son par exemple, et étendre son oreille (ce qui lui donne une ouïe plus fine, ou un toucher plus subtil, ou un goût/odorat plus fin). En gros, l'évolution nous a câblé d'une certaine façon, mais ce sont des améliorations marginales.

Oui, tout à fait. Il y a aussi l'exemple des hydrocéphales congénitaux auxquels il ne reste qu'une fraction de cerveau et qui arrivent quand même à développer des fonctions "normales".

L'étude de la plasticité a rendu obsolète le débat sur le localisationnisme : on sait qu'on parle de statistiques, de tendances et pas de nécessité.

 

En gros, maintenant, on en est à noter que le cerveau humain (et mammifère en général) est une structure basique simple (vraiment simple) d'environ 10.000 neurones qui forment un "moteur de reconnaissance de motifs", et que cette structure est répétée 300.000.000 de fois environ, de façon parfaitement linéaire & répétitive. Les structures sont reliées entre elles, avec différents types de neurones spécialisés (45.000 dans le cerveau humain, 15.000 pour un chimpanzé). Les essais pour reproduire intégralement des morceaux de cerveau, de façon simulée, ont donné des résultats très très surprenant (l'hypothalamus d'un rat a été simulé, écrit dans un FPGA, et activé/désactivé sur demande, sur le rat : il se souvenait/oubliait le parcours dans un labyrinthe sur commande).

 

Bref : ça avance très très vite ; les chercheurs prévoyaient d'avoir réussi une simulation complète d'une centaine de colonnes du mésocircuit néocortical en 2013, ils y sont parvenu en 2011. Ils prévoient une simu de cerveau de rat complet en 2014 et 2023 pour un cerveau humain.

Pour le coup ça dépasse mon champ de compétence, mais c'est passionnant.

C'est dommage, j'ai déjà fait ma commande sur Amazon pour ce mois-ci, mais je note de jeter un oeil sur le bouquin de Kurzweil à l'occasion.

Lien vers le commentaire

Pour la simulation informatique d'esprit, je suis sceptique (et là je ne suis pas vraiment un noob). Certes l'approche bottom-up en termes de réseaux de neurones artificiels donne des résultats intéressants (on arrive à faire émerger des trucs dans une certaine mesure), mais en pratique on se rend compte par exemple que même un processus aussi "simple" et étudié que la perception visuelle d'objets dépend aussi énormément dans le cerveau de flux top-down (on perçoit principalement ce qu'on s'attend à percevoir).

Il est aussi tout sauf évident (et c'était déjà un problème évoqué par Turing) qu'un esprit puisse émerger sans corps et sans interaction sociale.

 

Comme disait H16, "l'algo" d'apprentissage du cerveau est le même répété à plein d'endroits différents. Il y a juste certaines structures qui ont été "sélectionnées" par l'évolution. Ainsi, l'algo de reconnaissance d'objets par la vue est aidée par le fait que la chaine d'éléments visuels (les aires V1 à V6) profite de certaines couches qui "boostent" la reconnaissance (ainsi, dans le cerveau humain, il y a une couche qui favorise les éléments visuels qui sont constitué d'une tache sombre près d'une tache claire, ça aide à construire les "bords" des objets).

 

Un autre organisme (non mammifère) aurait pu choisir autre chose avec l'évolution.

 

On se rend compte quand même que nos outils mathématiques, pour certains, existent depuis très longtemps (avant les découvertes neurobiologiques de ce siècle), et approximent bien ce qui se passe dans le cerveau.

 

Par exemple, la fameuse zone visuelle dont je parlais qui sélectionnait des taches sombres/lumineuses, c'est exactement une implémentation en cellulaire des fonctions de Gabor :

Filtre de Gabor :

Gabor_filter.png

Réponses des cellules de la zone visuelle concernée :

gabor_sin.gif

 

En gros, pour résumer mon blabla :

- l'approche bottom-up de la nature a autorisé l'utilisation du même algo partout

- l'évolution a sélectionné certains "boosts" pour différentes couches

- les outils mathématiques, physiques et chimiques existent parfois depuis plusieurs siècles, pour faire la même chose que fait la nature, dans une vision "top-bottom".

Lien vers le commentaire

http://www.ultraeverdrystore.com/

 

En gros, c'est 48$ le litre. YEAH. Dès que j'ai le temps, j'achète et je recouvre ma voiture.

 

J'attends d'avoir des commentaires d'utilisateurs réels avant d'essayer.

Si ce truc est transparent j'en veux sur mes lunettes.

Je sais pas vous, mais j'ai l'impression que je préférerais vraiment que l'application soit faite par un pro bien équipé.

J'aurais pas vraiment envie de vaporiser ça autour de chez moi.

Lien vers le commentaire

Qu'est-ce qui pourrait arriver, au pire ?

 

Aucune freaking idea, mais bon comme le gars porte un masque et des gants pour le vaporiser, je me dis que c'est mieux de réaliser ça en environnement fermé avec ventilation, plutôt que d'en avoir dans l'air ambiant.

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...