Lancelot Posted June 22, 2015 Report Share Posted June 22, 2015 Qu'il nous est fondamentalement impossible d'être sûr de quoi que ce soit et qu'il vaut mieux ne pas prendre parti pour une hypothèse plutôt qu'une autre. Mais à la relecture je me demande si ce n'est pas plutôt du nominalisme : nos représentations sont fondamentalement des moyens pratiques indépendants des réalités auxquelles ils font références.C'est plutôt que les représentations c'est tout ce qu'on a. Il n'y a pas un monde sur lequel on colle des étiquettes, pour nous les étiquettes sont le monde. Bien sûr ça ne veut pas dire que toutes les représentations se valent, mais la seule objectivité à laquelle on puisse prétendre est une intersubjectivité. Cette intersubjectivité nous permet de découvrir des principes valables (c'est-à-dire admissibles, constatables) pour tout humain qui vont de la morale à la biologie en passant par la logique et la physique. Au delà de ça, je suis sceptique. J'amerais bien pouvoir me revendiquer moniste idéaliste pour le lulz mais je ne pense pas que ça soit vraiment ça Link to comment
Jesrad Posted June 23, 2015 Report Share Posted June 23, 2015 Comment définis-tu l'ubiquité sans faire référence à la conscience un point de vue? Si tu n'y fais pas référence, la copie signifie juste l'existence d'un double structurel, et je ne vois pas pourquoi appeler ça ubiquité.Faut pas confondre conscience et identité Je dis que ma copie est moi, dans le même sens que je dirais de celui que je suis dans les réalités alternatives du plurivers "est moi". Je n'exclue pas la possibilité d'une forme de "télépathie" entre nous (avec support réel ou par simple effet de simulation en miroir), mais je ne crois pas à une conscience commune.Par contre sur l'identité je vais plus loin, car c'est celle-là, plutôt que la conscience, qui peut tendre à l'immortalité par reproduction (plus ou moins fidèle, voire carrément par morceaux). Link to comment
Nihiliste frustré Posted June 24, 2015 Report Share Posted June 24, 2015 La reproduction pour une fourmi soldat consiste à mourir pour sa reine, et personne ne l'oblige à le faire, elle y court comme un chien court après une femelle. A l'exception de nos gamètes et des cellules cancéreuses, chacune de nos cellules est une fourmi soldat. Une de mes cellules musculaires partage plus d'identité avec une de mes cellules cutanés qu'avec une de vos cellules musculaires, mais ça ne rentre pas dans les cases "identiques" et "pas identiques"... Link to comment
Rübezahl Posted June 25, 2015 Report Share Posted June 25, 2015 Les gens qui s'imaginent q'un simple plan de la topologie synaptique est suffisant pour simuler un cerveau se collent le doigt dans l'oeil jusqu'a l'orbite de pluton, je veux bien q'un cerveau copié et "rebooté" sans les niveaux de seuils et la mémoire interne fasse peut etre émerger une conscience, mais que celle-ci ai un rapport fort avec celle qui habitait le cerveau original, no way, le seul point commun entre les deux individus c'est qu'ils auront tous les deux un cerveau humain, et à priori une conscience humaine, mais pas de mémoire commune ... dans un réseau de neurones artificiels (même très simples), c'est pourtant bien la cartographie des connexions qui définit précisément les états attracteurs de ce réseau (ie sa mémoire) Link to comment
Jesrad Posted June 25, 2015 Report Share Posted June 25, 2015 Euh non, ce sont les valeurs des pondérations qu'applique chaque neurone à ces connexions. Et c'est autrement plus lourd, comme donnéees. [edit] hmm c'est peut-être ça dont tu parlais par "mapping des connexions", en fait, sorry. Link to comment
h16 Posted June 25, 2015 Report Share Posted June 25, 2015 Un neurone biologique est tout de même assez complexe, et nettement plus que sa simulation. La mémoire est en partie composée par le mapping des connexions, mais aussi par les charges de chaque synapse à un instant T, et la charge contenue dans chaque neurone. Link to comment
Cugieran Posted June 25, 2015 Report Share Posted June 25, 2015 Euh non, ce sont les valeurs des pondérations qu'applique chaque neurone à ces connexions. Et c'est autrement plus lourd, comme donnéees. Oui, les pondérations sont appliquées aux liens entre inputs récurrents ou non et neurones, puis entre neurones et neurones suivant le nombre de couches cachées. D'une manière générale, c'est choupinet le nom réseau de neurones, mais quand tu mets les doigts dedans, tu vois vite que l'analogie avec la bio a des limites vite palpables. Link to comment
Rincevent Posted January 27, 2020 Report Share Posted January 27, 2020 Tiens, je ressuscite ce fil pour poser cette citation rigolote de Arthur Rowe : "Believing cryonics could reanimate somebody who has been frozen is like believing you can turn hamburger back into a cow.". 1 Link to comment
Sekonda Posted July 26, 2020 Report Share Posted July 26, 2020 Le tour de Alcor avec Katee "Starbuck" Sackhoff https://alcor.org/Library/index.html https://alcor.org/Library/videos/katee-sackoff-tours-alcor.html (Note : n'en déduisez pas que j'y crois ...) Link to comment
Lancelot Posted July 26, 2020 Report Share Posted July 26, 2020 On 6/25/2015 at 7:51 AM, h16 said: Un neurone biologique est tout de même assez complexe, et nettement plus que sa simulation. La mémoire est en partie composée par le mapping des connexions, mais aussi par les charges de chaque synapse à un instant T, et la charge contenue dans chaque neurone. En relisant cette discussion, je pense à un résultat que j'ai vu passer récemment : Quote Gidon, A., Zolnik, T. A., Fidzinski, P., Bolduan, F., Papoutsi, A., Poirazi, P., ... & Larkum, M. E. (2020). Dendritic action potentials and computation in human layer 2/3 cortical neurons. Science, 367(6473), 83-87. The active electrical properties of dendrites shape neuronal input and output and are fundamental to brain function. However, our knowledge of active dendrites has been almost entirely acquired from studies of rodents. In this work, we investigated the dendrites of layer 2 and 3 (L2/3) pyramidal neurons of the human cerebral cortex ex vivo. In these neurons, we discovered a class of calcium-mediated dendritic action potentials (dCaAPs) whose waveform and effects on neuronal output have not been previously described. In contrast to typical all-or-none action potentials, dCaAPs were graded; their amplitudes were maximal for threshold-level stimuli but dampened for stronger stimuli. These dCaAPs enabled the dendrites of individual human neocortical pyramidal neurons to classify linearly nonseparable inputs—a computation conventionally thought to require multilayered networks. TL;DR certains types de neurones humains peuvent implémenter un XOR (au sein d'un seul neurone donc), et les réseaux de neurones sont donc potentiellement plus complexes que prévu de plusieurs ordres de grandeur. 1 Link to comment
Lancelot Posted July 27, 2020 Report Share Posted July 27, 2020 Ça fout une dernière claque (si besoin était) à ceux qui pensent qu'il suffit d'avoir un réseau de neurones artificiels avec un nombre critique (ou du deep-enough learning) pour que ça fasse émerger des chocapics quelque chose qui ressemble à un vrai cerveau. Concernant les approches plus neuromorphiques (spiking networks avec une structure imitant la connectivité cérébrale etc.) quelque part c'est encore pire puisque les réseaux résultants, bien qu'ils semblent imiter au niveau macro certaines propriétés biologiques, ne sont d'aucune utilité quand on essaie de les appliquer pour résoudre des problèmes. Link to comment
Wayto Posted July 27, 2020 Report Share Posted July 27, 2020 Question de gros noob @Lancelot : à part les réseaux de neurones, quels sont les pistes pour l'IA ? Est-ce que ça fout à plat tous les projets d'IA (et Elon Musk est donc une nouvelle fois le dindon de la farce) ou cela n'a rien à voir ? Link to comment
Lancelot Posted July 27, 2020 Report Share Posted July 27, 2020 Ça remet en question le raisonnement derrière une des pistes pour l'IA (dont Henry Markram est une figure de proue) qui a historiquement pompé énormément de pognon, notamment via le Human Brain Project (qui a revu sa politique récemment cependant). Ceci dit ça n'enlève pas que l'approche neural network + deep learning fait des merveilles (Cf. les threads GPT-3 et "jeu et singularité" par exemple), c'est juste qu'il faut abandonner l'idée qu'on peut simuler un cerveau biologique de cette manière, du moins tant qu'on n'aura pas sérieusement revu le modèle du neurone artificiel utilisé. Le second problème que je soulevais cependant c'est que les approches existantes qui essaient d'avoir des réseaux de neurones plus proches de la réalité biologique (spiking networks) sont pour l'instant des joujoux de chercheurs qui ne sont pas bons à grand chose en termes de capacité à "raisonner" (i.e. résoudre des problèmes), c'est d'ailleurs pourquoi on leur préfère les modèles plus simples dans les applications pragmatiques. 2 Link to comment
Recommended Posts
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now