Aller au contenu

Conscience


Messages recommandés

Il y a 15 heures, Kassad a dit :

Plus our moins : comprendre signifie que tu as une manière plus économique de représenter le phénomène (tu as répéré régularités). Or c'est quasiment un problème de place : il y a seulement un certain nombre de phénomènes d'une taille x que tu peux représenter avec y bits d'informations (en fait on sait qu'on pourra pas faire mieux que 2^y et si le nombre de phénomènes de taille x est strictement plus grand alors nécessairement tu ne pourras pas tous les représenter plus économiquement dans cette théorie).

 

Je n'arrive pas à voir pourquoi. La taille de l'univers ne dépend pas de la taille du bouquin qui en contiendrait les règles. Enfin il est fort possible que quelque chose m'échappe.

 

Mais j'ai tout de même l'impression que ce que tu expliques concernerait la compréhension du cerveau particulier d'une personne, dans tous ses menus détails et ses configurations issues de son vécu, par cette même personne. Ce ne serait pas le même travail que de trouver les règles de fonctionnement des cerveaux biologiques en général.

 

Les logiciels qui implémentent les réseaux de neurones des IA tiennent dans quelques dizaines de mégaoctets. Mais ensuite, une IA bien entraînée peut facilement peser plusieurs centaines de mégaoctets, et il serait terriblement difficile de comprendre le pourquoi de chaque information qui compose cette l'IA. Par exemple lorsqu'une IA décide par erreur qu'un cricket est un oiseau, on serait bien incapable dans l'état actuel de corriger juste ce problème dans son "cerveau". On préfère jeter l'IA en défaut, amender les données servant à l’entraînement puis reprendre l’entraînement depuis le début.

Lien vers le commentaire
Il y a 19 heures, L'affreux a dit :

À titre personnel je pense qu'il y a une continuité entre la conscience humaine et celles des autres espèces animales. Et aussi une continuité à l'intérieur du groupe des consciences humaines, qui va des individus les plus idiots ou jeunes aux plus intelligents ou matures. Et, comme tu l'as souligné, une continuité entre la conscience d'un individu altéré par exemple par l'alcool et la conscience du même individu au meilleur de sa forme.

Tu as bien raison d'insister sur ce caractère continu qui fait pleinement partie du phénomène.

La conscience n'est pas du tout un truc binaire.

Poser une telle dichotomie, c'est d'emblée projeter un a priori fort (et faux) qui gêne/empêche la compréhension du phénomène.

 

Une petite pensée pour une bonne planche de BD de Gotlib sur un bébé dans son berceau qui apprend à commander à 2 oiseaux.

 

Une autre pensée pour une expérience de bras robotique d'il y a 30 ans minimum, ou le logiciel de pilotage du bras

... découvre et cartographie ses propres articulations et pose les bases d'une corrélation avec les mouvements commandés.

 

Lien vers le commentaire
11 minutes ago, L'affreux said:

 

Je n'arrive pas à voir pourquoi. La taille de l'univers ne dépend pas de la taille du bouquin qui en contiendrait les règles. Enfin il est fort possible que quelque chose m'échappe.

 

Mais j'ai tout de même l'impression que ce que tu expliques concernerait la compréhension du cerveau particulier d'une personne, dans tous ses menus détails et ses configurations issues de son vécu, par cette même personne. Ce ne serait pas le même travail que de trouver les règles de fonctionnement des cerveaux biologiques en général.

 

Les logiciels qui implémentent les réseaux de neurones des IA font quelques dizaines de mégaoctets. Mais ensuite, une IA bien entraînée peut facilement peser plusieurs centaines de mégaoctets, et il serait terriblement difficile de comprendre le pourquoi de chacune de ces données stockées par l'IA.

 

Si tu veux donner une définition scientifique de ce que "comprendre" signifie alors la meilleure réponse actuelle est la suivante : quand tu comprends un phénomène ça veut dire que tu peux l'expliquer d'une manière plus économique que le phénomène lui même car cela signifie que tu as capturé une partie de l'essence du phénomène. Ce qui est incompréhensible est ce qui est totalement aléatoire (c'est la définition même d'aléatoire : en savoir une partie ne t'aide absolument à prévoir la fin, quand tu vois 10 tirages à pile ou face ça ne t'aide absolument à prévoir le 11ème). 

 

Donc si tu veux "comprendre" l'univers ça signifie que tu as un livre de règles qui sont telles que quand tu donnes les bonnes conditions initiales, tu appliques tes règles et ça va te décrire comment l'univers va évoluer, comment certaines valeurs sont reliées les unes aux autres etc.  Admettons que Dieu en direct te donne les règles : ça ne résout pas pour autant le problème de l'explication.

 

Le problème est que quelle que soit ta description, à partir du moment où il y a l'arithmétique dedans, il y aura des phénomènes incompréhensibles du point de vue de ta théorie. Il y a des vérités mathématiques qui sont vraies "par hasard", c'est à dire que pour les expliquer, ton explication fera la taille du théorème que tu es en train d'expliquer : autant dire que tu n'as rien expliqué du tout, tu as juste changé ton codage pour en parler.

 

Le problème de fonds est vraiment combinatoire : pour expliquer un grand phénomène il faut que tu écrives une explication plus petite et il y a juste pas assez d'explications possibles. C'est la complexité de Kolmogorov : https://homepages.cwi.nl/~paulv/kolmogorov.html

qui a de jolies applications. Notamment dans le livre de Ming Li il y a une démonstration brillante de la répartition des nombres premiers uniquement basée sur une approche par la complexité de Kolmogorov, ça m'a tué la première fois que j'ai vu ça. On peut aussi faire une démonstration du théorème de Goedel en 10 lignes (mais bon en fait dans la complexité de Kolmogorov il y a les machines de Turing cachées donc c'est un peu triché mais ça reste beaucoup moins painfull que la démonstration originelle).

 

 

17 minutes ago, Rübezahl said:

Une autre pensée pour une expérience de bras robotique d'il y a 30 ans minimum, ou le logiciel de pilotage du bras

... découvre et cartographie ses propres articulations et pose les bases d'une corrélation avec les mouvements commandés.

 

 

Une publication récente sur le sujet : https://engineering.columbia.edu/press-releases/lipson-self-aware-machines

 

Je pense qu'il faudrait que les roboticiens s'inspirent plus de Damasio : il semblerait que la pensée soit une conséquence du mouvement, des actions et non l'inverse comme on l'imagine.

 

Lien vers le commentaire
il y a 2 minutes, Kassad a dit :

Si tu veux donner une définition scientifique de ce que "comprendre" signifie alors la meilleure réponse actuelle est la suivante : quand tu comprends un phénomène ça veut dire que tu peux l'expliquer d'une manière plus économique que le phénomène lui même car cela signifie que tu as capturé une partie de l'essence du phénomène.

 

Je ne suis pas certain que l'on se comprenne bien alors (tu m'excuseras) je recommence pour le cas où.

 

Il y a deux choses différentes, qui ne sont pas du même ordre. Comprendre comment fonctionne le cerveau, cela permettrait d'en implémenter un. Ensuite tu prends ce cerveau implémenté et tu peux essayer de comprendre pourquoi il a pris telle décision. Les deux niveaux de compréhension ne sont pas du même ordre, et le cas particulier est beaucoup, beaucoup plus difficile à décrire que les règles générales.

Lien vers le commentaire
16 minutes ago, L'affreux said:

 

Je ne suis pas certain que l'on se comprenne bien alors (tu m'excuseras) je recommence pour le cas où.

 

Il y a deux choses différentes, qui ne sont pas du même ordre. Comprendre comment fonctionne le cerveau, cela permettrait d'en implémenter un. Ensuite tu prends ce cerveau implémenté et tu peux essayer de comprendre pourquoi il a pris telle décision. Les deux niveaux de compréhension ne sont pas du même ordre, et le cas particulier est beaucoup, beaucoup plus difficile à décrire que les règles générales.

 

Si c'est la même chose mais même si tu penses que tu peux comprendre le gros programme (qui est un réseau de neurones implantant le cerveau) alors tu ne comprendras pas son fonctionnement. Même si le un est possible alors il est certain que le 2 ne le sera pas. Même si as une jolie théorie elle va produire des faits qui seront inexplicables. Les règles de l'arithmétique sont simples (c'est l'implantation de ton cerveau mécanique) pourtant elles créent des vérités (c'est ton cerveau mécanique en fonctionnement) qui ne sont pas compréhensibles (par exemple tout nombre pair plus grand que 4 est la somme de deux nombres premiers est un bon candidat même si pour le moment on en est au niveau de la conjecture, Chaitin a construit un polynôme explicite incompréhensible). Ta théorie va engendrer des choses vraies pour lesquelles il n'existe pas d'explication. Tu peux rajouter l'explication qui te plait du fait incompréhensible, ça va te donner une nouvelle théorie dans laquelle il y aura de nouveaux d'autres choses incompréhensibles. C'est une course perdue d'avance. 

Lien vers le commentaire
il y a 33 minutes, Kassad a dit :

Les règles de l'arithmétique sont simples (c'est l'implantation de ton cerveau mécanique) pourtant elles créent des vérités (c'est ton cerveau mécanique en fonctionnement) qui ne sont pas compréhensibles

 

Et donc quand tu parles de problème de taille de l'information, il s'agit bien du deuxième type de compréhension (les décisions prises par un cerveau particulier), et non pas du premier (les règles qui régissent le fonctionnement du cerveau) n'est-ce pas ? Je dis ça car au départ tu expliquais (je crois) que la compréhension de la conscience risquerait d'être bloquée car un cerveau ne pourrait pas se décrire lui-même.

 

il y a 33 minutes, Kassad a dit :

Ta théorie va engendrer des choses vraies pour lesquelles il n'existe pas d'explication.

 

Sur ce sujet, le fonctionnement de l'IA peut aider. Il est en effet possible d'en avoir une bonne compréhension puisque ce sont des créations humaines.

 

Chaque décision prise par une IA donnée pourrait faire l'objet d'une explication complète. Mais ça demanderait un travail titanesque : il faudrait partir des informations qui composent le "cerveau" de l'IA et regarder comment elles réagissent lors de la prise de décision à étudier, puis faire fonctionner à l'envers les règles de fonctionnement et remonter à chaque expérience vécue qui a composé l'apprentissage et qui a abouti à la configuration de telle pondération dans tel neurone. Ce travail serait vain puisque la compréhension d'une décision particulière n'aiderait en rien à la compréhension de la décision suivante. Mais l'explication existe. Peut-être même que la technologie capable de faire un tel travail dans un délai raisonnable pourrait exister un jour.

 

Ça me fait penser aux algorithmes de cryptographie. Pour une clé publique donnée et des exemples de choses encodées, il est très difficile de remonter à la clé privée. Cela ne signifie pas que c'est impossible. La clé privée existe donc il est possible de la trouver (ne serait-ce que par chance). C'est juste un niveau au-dessus de ce que nos capacités technologiques nous permettent aujourd'hui.

Lien vers le commentaire
Il y a 1 heure, Kassad a dit :

il semblerait que la pensée soit une conséquence du mouvement, des actions et non l'inverse comme on l'imagine.

Cette idée, ancienne, du cerveau tout seul dans son bocal, muni d'une bonne implémentation de la logique ... et capable d'être intelligent,

je la crois/croyais morte depuis au moins 30 ans.

Il est évident que de nombreux capteurs sont nécessaires.

L'intelligence (et la conscience) ça passe impérativement par des capteurs et de la bidoche. Skin in the game. Réflexivité.

 

Ce n'est absolument pas par hasard que les grands progrès récents en apprentissage etc sont du (entre autres) au simple fait de faire jouer des machines entre elles.

C'est déjà un sympathique 1° pas vers de la réflexivité (et l'accès à une combinatoire bien plus grande).

 

Nous soucis de comprenette de la conscience proviennent ama moins de la difficulté du sujet

que de l'immense quantité de préjugés accumulés entre nous et le sujet.

 

Je prends un sujet annexe mais lié quand même : la compréhension du langage parlé.

Je me rappelle avec fascination avoir contemplé dans les années ~1985 des rayons entiers de bouquins, plus ou moins anciens, dédiés de près ou de loin au sujet.

Quand la question a commencé à se décanter, il était clair que 99.9% de la littérature sur le sujet était bonne à jeter.

C'était de la compilation de préjugés + des remarques oiseuses, en pratique il n'y avait quasi rien à garder.

C'était assez normal. Tant qu'on n'a pas les outils pour aborder pertinemment un sujet, ça ne sert à rien de tripoter le sujet.

 

Un gars dans un laboratoire sans huile et sans oeufs, il peut s'appeler Einstein, jamais, jamais, jamais il n'inventera la mayonnaise.

 

  • Yea 1
Lien vers le commentaire
Il y a 2 heures, L'affreux a dit :

Comprendre comment fonctionne le cerveau, cela permettrait d'en implémenter un.

Il y a un gros "si", tout de même : disons que c'est une opinion rationnelle, mais peut-être pas raisonnable. En gros : on commence à faire des réseaux de neurones qui font des trucs intéressants depuis qu'on a renoncé à comprendre réellement comment les implémenter de manière explicite, i.e. depuis qu'on a abandonné l'ingénierie pour s'en remettre à l'émergence.

Lien vers le commentaire
Il y a 1 heure, Rincevent a dit :

Il y a un gros "si", tout de même : disons que c'est une opinion rationnelle, mais peut-être pas raisonnable. En gros : on commence à faire des réseaux de neurones qui font des trucs intéressants depuis qu'on a renoncé à comprendre réellement comment les implémenter de manière explicite, i.e. depuis qu'on a abandonné l'ingénierie pour s'en remettre à l'émergence.

Remarque à tempérer ama.

Un des gros progrès (qui devient visible aujourd'hui, mais bossé depuis 25 ans), ce sont les convolutions en entrée des réseaux de neurones.

Et cela a, grosso-modo, autant émergé de RdN en mode nawak, que été favorisé par les ingénieurs qui faisaient joujou (dont Yann le Cun).

De sûr, ce sont bien des ingénieurs qui ont a minima reconnu des convolutions a posteriori.

Et depuis lourdement creusé cette piste (qui ne concerne que les entrées, ce qui laisse entrevoir plein de choses encore).

 

(ça rejoint totalement les remarques de Kassad sur intelligence=compression (sachant que ça aussi, c'est graduel).)

 

Lien vers le commentaire
il y a 15 minutes, Rübezahl a dit :

les ingénieurs qui faisaient joujou

Qui faisaient joujou. Sans plan en tête, sans certitude sur ce que ça allait donner. Bref, ils ont fait avant de comprendre. ;)

Lien vers le commentaire
à l’instant, Rincevent a dit :

Qui faisaient joujou. Sans plan en tête, sans certitude sur ce que ça allait donner. Bref, ils ont fait avant de comprendre. ;)

Ma mémoire est défaillante (et je n'ai pas participé directement à ces expériences),

mais je ne saurais pas certifier si c'est sorti d'essais complètement random ou si les équipes concernées n'ont pas utilisé

une structure prédisposée à implémenter des convolutions.

... et je ne compte pas sur la bonne foi des chercheurs pour décrire exactement ce qui s'est passé.

 

De certain quand même, les humains (dont les ingés en question) savaient ce qu'était une convolution bien avant ces RdN.

 

Lien vers le commentaire
il y a 3 minutes, Rübezahl a dit :

De certain quand même, les humains (dont les ingés en question) savaient ce qu'était une convolution bien avant ces RdN.

Oui, c'est certain. Ce que je dis, c'est qu'ils n'avaient aucune idée de ce que mettre l'un au bout de l'autre pouvait bien donner. :)

Lien vers le commentaire
Il y a 2 heures, Rincevent a dit :

Il y a un gros "si", tout de même : disons que c'est une opinion rationnelle, mais peut-être pas raisonnable. En gros : on commence à faire des réseaux de neurones qui font des trucs intéressants depuis qu'on a renoncé à comprendre réellement comment les implémenter de manière explicite, i.e. depuis qu'on a abandonné l'ingénierie pour s'en remettre à l'émergence.

 

Tout compte fait mon expression "comprendre comment fonctionne le cerveau" est peut-être malheureuse. Pour moi, quand un développeur "comprend" un algorithme récursif ça ne veut pas dire qu'il a fait l'effort de comprendre de manière individuelle les états de chaque étape, une par une, du déroulement de l'algorithme. Ça signifie plutôt : comprendre les mécanismes qui opèrent. Et ça suffit pour en fabriquer un.

 

C'est différent de "comprendre comment ce cerveau-là fonctionne", ce qui impliquerait effectivement de comprendre les mécanismes qui opèrent ainsi que le pourquoi de l'ensemble des configurations acquises durant l'apprentissage.

 

La compréhension des mécanismes qui opèrent se traduira par l'écriture de règles générales qui auront une taille raisonnable (elles tiendront peut-être dans un livre). Mais s'il fallait décrire comment fonctionne le cerveau d'une personne en particulier, il faudrait remonter à tout son vécu, et, même si c'était possible (car c'est possible pour les IA), la description du résultat dépasserait la capacité de stockage du cerveau à comprendre. Un effort démesuré pour une utilité très contestable.

Lien vers le commentaire
4 hours ago, Rübezahl said:

Cette idée, ancienne, du cerveau tout seul dans son bocal, muni d'une bonne implémentation de la logique ... et capable d'être intelligent,

je la crois/croyais morte depuis au moins 30 ans.

Il est évident que de nombreux capteurs sont nécessaires.

L'intelligence (et la conscience) ça passe impérativement par des capteurs et de la bidoche. Skin in the game. Réflexivité.

 

Je pense que c'est très difficile à prendre en compte correctement. Le problème n'est pas d'avoir des capteurs mais de faire naître la conscience comme abstraction des actions dans le monde.

 

Le problème concret que les roboticiens vont rencontrer c'est que tu auras du mal à vendre une voiture qui se conduit toute seule sans certaines garanties (qu'elle ne va pas écraser une classe de maternelle, cf tous ces jeux où les IA ont fait n'importe quoi pour maximiser le score y a un exemple marrant de course de bateaux où l'IA maximisait le score en rentrant dans des murs plutôt que d'essayer de gagner la course). Tu as le problème des choix moraux à partir du moment où il y a une interaction avec le monde extérieure : la voiture robot doit elle sacrifier le conducteur ou le piéton ? Si tu réponds à l'un ou l'autre alors soit personne ne voudra monter dans la voiture soit personne ne voudra qu'elle roule dans la rue. Et si tu ne peux pas répondre à la question alors qui sait si on veut des objets comme ça en liberté ? Les voitures actuelles passent des tas de crash tests etc. On n'a rien d'approchant pour les véhicules autonomes. Le problème de fond dans cet exemple est très exactement la conscience.

Lien vers le commentaire
1 hour ago, L'affreux said:

car c'est possible pour les IA

Non c'est une pétition de principe. Si l'explication est trop grande elle n'existe pas. Ce serait comme de dire que j'ai compris les échecs car je connais toutes les règles et je sais exactement comment passer d'une configuration à une autre. Maintenant pour résoudre la question : quelle est la valeur théorique du jeu ? Je sais aussi comment faire : il "suffit" de parcourir le graphe du jeu et de récupérer toutes les feuilles, et comme ça on sait si les blancs peuvent forcer le gain, ou la nulle ou perdent de manière forcée.. Après tout la taille du graphe est finie et un algo de parcours de graphe est une chose bien connue.

 

Mais il se trouve qu'il y a plus de positions du jeu d'échecs que d'atomes dans l'univers. Alors même si en principe on peut, en réalité on ne peut pas. Ces impossibilités pratiques viennent bien avant les impossibilités théoriques dont je parlais avant. Juste énumérer tous les entiers sur 200 bits (donc simplement compter 0,1,2,... ,2^{200}-1) demande plus d'énergie qu'il n'y en a dans tout l'univers. Et c'est juste une question stupide : écris moi tous les nombres que tu peux sur 200 bits. On ne parle pas de la représentation du phénomène le plus complexe qu'on connaisse dans tout l'univers : le fonctionnement d'un cerveau (en fait de toute la chaîne neuronale : il se trouve qu'on a des neurones qui partent directement des yeux et qui vont sur la colonne vertébrale, sans passer par la case cerveau, pour que si tes yeux perçoivent un mouvement brusque tu puisses réagir plus vite que ta pensée). 

  • Yea 1
Lien vers le commentaire
Il y a 19 heures, Kassad a dit :

Le problème de fond dans cet exemple est très exactement la conscience.

Oui, sauf que tu balances (comme souvent) de suite un exemple bien limite de broyage de classe de maternelle.

Comme si on demandait à un type qui démarre l'athlétisme de gagner les JO.

 

Pour le coup, je suggère d'être bien réductionnistes et infiniment plus modestes.

Commençons déjà par avoir une IA capable d'intégrer ses propres actuateurs dans sa modélisation d'un petit monde ... et puis ça sera déjà pas mal.

 

Pour le broyage de la classe de maternelle, j'attendrai qu'on ait d'abord résolu les petits problèmes comme celui-ci dessus.

Il y a une gradualité. Des paliers à franchir. Par la peine de discuter triple-salto avec un gars une IA balbutiante qui apprend à nouer ses lacets.

 

edit : j'ai édité ce post qui contenait peut-être, involontairement, une ambiguïté.

J'ai écrit "qui apprend à nouer ses lacets" en référence aux IA "conscientes" actuelles. Nobody else.

 

Lien vers le commentaire
3 hours ago, Rübezahl said:
4 hours ago, Kassad said:

Le problème de fond dans cet exemple est très exactement la conscience

Oui, sauf que tu balances (comme souvent) de suite un exemple bien limite de broyage de classe de maternelle.

Venant de la part de quelqu'un qui soutient que la conscience est un phénomène Turing calculable : what a leap of faith ! Crazy que je demande est une garantie somme toute raisonnable pour un véhicule autonome et tu présenyça comme un triple saltos. Je n'imagine pas le reste...

 

Lien vers le commentaire
Le 31/01/2019 à 22:27, Johnathan R. Razorback a dit :

 

Et pourtant, l'idéalisme phénoménologique semble contredire à angle droit l'épistémologie objectiviste et son primat (passablement matérialiste d'ailleurs) du monde extérieur sur la conscience:

 

« L’existence de la nature ne peut pas être la condition de l’existence de la conscience, puisque la nature elle-même est un corrélât de la conscience. »

-Husserl, Idées directrices pour une phénoménologie pure et une philosophie phénoménologique.

 

C'est donc que la ressemblance est trompeuse.

 

Hm, plus probable que Rand l'ait hérité de Husserl, à travers Sartre, sans s'en apercevoir. Il serait extrêmement surprenant qu'elle ait pu vivre toute une carrière d'intellectuelle en occident sans jamais être confrontée, même indirectement, à la pensée de Sartre, qui pullulait des deux cotés de l'océan après la guerre.

Plusieurs écueils à éviter : l'idéalisme phénoménologique du Husserl des Ideen et des Méditations n'est pas un idéalisme métaphysique, ni même épistémologique, mais se trouve (enfin, est sensé se trouver) sur un plan antérieur à tout ça, proprement phénoménologique, c'est à dire concernant la description des vécus de conscience pour eux-même indépendamment de toute théorie de la science ou de l'être. Ensuite, l'intentionnalité, cette idée selon laquelle la conscience est toujours conscience de X (une "visée vers le monde" chez Husserl, quelque chose qui "s'éclate dans le monde" chez Sartre), n'est pas intrinsèquement lié à l'idéalisme, pas plus que la phénoménologie en général d'ailleurs. Husserl n'était pas encore idéaliste dans les Recherches Logiques, il ne l'était plus dans la Krisis, et presque tous ses successeurs ont voulu rompre avec l'idéalisme.

 

Je ne sais pas ce que Rand tire de l'intentionnalité, mais chez Brentano, le maître du Husserl, c'est précisément ce qui différencie radicalement les phénomènes psychiques des phénomènes naturels. Chez Sartre et un paquet d'autres phénoménologues (je crois que Ryle n'est pas loin de ça non plus), ça a été vu comme une alternative à la transcendance : plutôt que de dire que la conscience est un truc au delà des phénomènes, on le ramène à l'immanence de tout ça en disant qu'elle n'est rien d'autre que la phénoménalité des choses.

 

Mais dans tous les cas, pour tout ce petit monde (et pour moi aussi) parler de la conscience comme d'un phénomène à quelque chose d'un peu paradoxal, étant donné qu'un phénomène, par définition, est ce qui apparaît à la conscience...

Lien vers le commentaire

Cette histoire de conscience et de responsabilité ça me rappelle qu'il me semble avoir lu que la conscience d'une action vient après sa réalisation…une bonne partie de la motricité se fait inconsciemment et la conscience, la perception corticale du mouvement arrive secondairement.

Lien vers le commentaire

Une autre idée sur le sujet. La question : "pourquoi est on conscient ?" n'est pas évidente. Je veux dire d'un point de vue biologique/évolutionniste. 

 

Une raison que je pourrais donner est la suivante : la conscience est par nature auto-référente elle ne peut donc pas être enfermée dans un formalisme rigide. C'est une protection contre la fossilisation de la pensée : une intelligence formalisable et  non consciente serait limitée par les murs de son propre formalisme, et in fine ce ne serait plus une intelligence car une fois les axiomes et règles bien définies le reste découle mécaniquement. Bref ce serait comme les hydres d'eau douce  qui digèrent leur propre cerveau une fois qu'elles se sont fixées sur un rocher.  

 

Politiquement aussi ça fait sens : la conscience est l'anticorps du totalitarisme. On peut le voir à un niveau individuel mais aussi à un niveau sociétal : la structure politique doit être apte au changement sinon elle se rigidifie et un seul choc bien placé parvient à la détruire. 

  • Yea 1
Lien vers le commentaire
Il y a 3 heures, POE a dit :

Autre question.

Qui est conscient ? L'homme, les animaux.

Les plantes ? 

Les insectes ?

Les arbres ?

Les parasites ?

Les cellules ?

 

Les virus ?

Les IA ?

 

J'ai la réponse pour la dernière (c'est non).

 

Dans le monde vivant, @Rübezahl et moi-même avons l'intuition qu'il y a continuité.

Lien vers le commentaire
Il y a 2 heures, L'affreux a dit :

 

Les virus ?

Les IA ?

 

J'ai la réponse pour la dernière (c'est non).

 

Dans le monde vivant, @Rübezahl et moi-même avons l'intuition qu'il y a continuité.

L'idée était d'essayer de trouver une définition qui permette de répondre à ces différentes questions.

Lien vers le commentaire
6 hours ago, POE said:

Autre question.

Qui est conscient ? L'homme, les animaux.

Les plantes ? 

Les insectes ?

Les arbres ?

Les parasites ?

Les cellules ?

 

Je pense qu'il y a un effet seuil. La conscience implique d'avoir un rapport au temps : typiquement l'idée du sacrifice construit du présent pour le futur. C'est à dire que se reconnaître dans un miroir n'est qu'un début. Ce n'est pas un hasard si au début de la genèse c'est ça qui fait devenir des entités vivantes des hommes. La chute du jardin d'Eden est une allégorie poétique de ce passage de l'inconscience à la conscience. 

 

Alors est ce que l'écureuil qui cache ses noisettes est conscient ? Ça ne me semble pas s'appliquer car ce n'est pas le résultat d'un arbitrage mais l'expression d'un instinct (tout écureuil même élevé loin d'autres écureuils montrera ce comportement.

Lien vers le commentaire
27 minutes ago, L'affreux said:

À partir de quel âge un enfant est-il conscient ?

 

Un adolescent qui adopte la pensée de groupe comme la sienne (ou comme un tuteur pour porter sa personnalité individuelle naissante) n'est pas encore complètement conscient selon moi. Donc je dirais entre 16 et 27 ans. Ce qui correspond au pic de criminalité :)

Lien vers le commentaire
il y a 4 minutes, Kassad a dit :

Un adolescent qui adopte la pensée de groupe comme la sienne (ou comme un tuteur pour porter sa personnalité individuelle naissante) n'est pas encore complètement conscient selon moi. Donc je dirais entre 16 et 27 ans. Ce qui correspond au pic de criminalité :)

De mémoire, le cerveau achève son mûrissement vers 25 ans.

 

(Et le pic de criminalité, c'est plutôt lié aux niveaux de testostérone, c'est de 12-15 ans à 30-35 ans).

Lien vers le commentaire
il y a une heure, L'affreux a dit :

À partir de quel âge un enfant est-il conscient ?

 

Conscient de quoi ? De son environnement, conscient de soi ?

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...