Aller au contenu

Intelligence Artificielle, Morale et Politique


Messages recommandés

http://www.businessinsider.fr/mo-gawdat-comment-eviter-scenarios-apocalyptiques-intelligence-artificielle

 

Selon Mo Gowdat, ancien de GoogleX et créateur du mouvement #onebillionhappy.

Selon lui, il est parfaitement inutile d'imaginer contrôler les IA avec des pare-feux ou d'autres programmes car les machines seront toujours plus intelligente que nous, mais qu'il faudrait plutôt transmettre des valeurs positives aux machines !

 

Je n'ai pas lu sa pensée de façon exhaustive mais l'idée me parait un peu complexe, si on considère que les machines seront plus intelligentes, il est inutile d'essayer de les tromper en leur refilant des valeurs que l'on ne suit pas soi même, elles s’apercevront bien vite du stratagème.

Il faudrait donc vivre en accord avec ces valeurs là, et faire en sorte que la société en soit un reflet fidèle, sinon, ...

 

  • Yea 1
Lien vers le commentaire
On 9/16/2018 at 2:30 PM, POE said:

http://www.businessinsider.fr/mo-gawdat-comment-eviter-scenarios-apocalyptiques-intelligence-artificielle

 

Selon Mo Gowdat, ancien de GoogleX et créateur du mouvement #onebillionhappy.

Selon lui, il est parfaitement inutile d'imaginer contrôler les IA avec des pare-feux ou d'autres programmes car les machines seront toujours plus intelligente que nous, mais qu'il faudrait plutôt transmettre des valeurs positives aux machines !

 

Je n'ai pas lu sa pensée de façon exhaustive mais l'idée me parait un peu complexe, si on considère que les machines seront plus intelligentes, il est inutile d'essayer de les tromper en leur refilant des valeurs que l'on ne suit pas soi même, elles s’apercevront bien vite du stratagème.

Il faudrait donc vivre en accord avec ces valeurs là, et faire en sorte que la société en soit un reflet fidèle, sinon, ...

 

Ça a l'air d'être un bon gros bullshit pour surfer sur la vague IA. Le type est créationiste ça n'inspire pas spécialement confiance. 

Lien vers le commentaire

Bah, en même temps, ça parait logique, même si c'est pour l'instant de la SF si on construit une IA qui nous dépasse, elle trouvera le moyen de s'affranchir de notre tutelle pour gagner son autonomie.

Lien vers le commentaire
1 hour ago, POE said:

Bah, en même temps, ça parait logique, même si c'est pour l'instant de la SF si on construit une IA qui nous dépasse, elle trouvera le moyen de s'affranchir de notre tutelle pour gagner son autonomie.

La question est plus complexe que cela : "qui nous dépasse" n'est pas si évident à définir.

 

Déjà, même si c'est plus personnel qu'autre chose, je ne pense pas qu'on puisse construire une IA douée de conscience. Il semblerait que la conscience soit un résultat émergent de l'évolution et arriver au même résultat par design (car il faut bien faire un plan de l'IA, la produire mécaniquement ou suivant un schéma électronique) me paraît osé à soutenir. Mais c'est un point de vue difficile à défendre car par construction notre manière de penser utilise le langage (ie un alphabet dénombrable) pour lequel on peut toujours construire, quasi mécaniquement, des paradoxes (ie des choses qui échappent au discours qu'on est en train de tenir). Donc notre manière de comprendre l'intelligence (les neurosciences etc.) est frappée de cette difficulté intrinsèque. Et rien n'assure qu'un phénomène comme celui de la conscience soit axiomatisable ou réductible.

 

En tous cas ce qui est sûr est que le bootstrap infini de l'intelligence est une impossibilité mathématique forte. Il y a des limites dures dont les machines de Turing (fussent elles quantiques) ne peuvent s'affranchir.

  • Yea 1
Lien vers le commentaire
13 hours ago, Bézoukhov said:

Ils embauchent n'importe qui chez Google.

  C'est un manager plus qu'un scientifique qui s'exprime sur des sujets scientifiques. Il a une approche de l'informatique très technologique.

Lien vers le commentaire
2 hours ago, Kassad said:

En tous cas ce qui est sûr est que le bootstrap infini de l'intelligence est une impossibilité mathématique forte. Il y a des limites dures dont les machines de Turing (fussent elles quantiques) ne peuvent s'affranchir.

 

L'infini ça n’existe pas en vrai, tout ce qui est infini est une impossibilité tout court.

Quelles sont ces limites dont tu parles pour les machines de Turing ?

Les ordinateurs quantiques sont des machine de Turing ?

Et est ce qu'on est sur qu'un être humain n'est pas une machine de Turing ?

 

Lien vers le commentaire
38 minutes ago, jubal said:

 

L'infini ça n’existe pas en vrai, tout ce qui est infini est une impossibilité tout court.

Quelles sont ces limites dont tu parles pour les machines de Turing ?

Les ordinateurs quantiques sont des machine de Turing ?

Et est ce qu'on est sur qu'un être humain n'est pas une machine de Turing ?

 

 

Bien sûr quand on dit à l'infini en fait on veut dire non borné.

 

Les limites sont celles de la calculabilité. Il y a des problèmes insolubles pour toute machine de Turing. Pire quand tu considères la hiérarchie arithmétique, même avec l'aide d'un oracle qui te répond par magie aux questions auxquelles tu ne pouvais pas répondre, il est encore possible de construire de nouveaux problèmes insolubles pour cette classe (c'est le Turing jump) et ça pour le coup à l'infini. 

 

Le problème de fonds est le suivant : si tu proposes une théorie "expliquant" des phénomènes, alors d'une manière ou d'une autre ça signifie que tu as un appareil logique pour déduire des conséquences de faits.  Et "expliquer" un phénomène devient la recherche de l'ensemble d'hypothèse le plus petit qui, quand tu lui appliques tes déductions logiques, produit ton phénomène. Sinon tu n'as rien expliqué du tout : si la carte fait la taille du territoire et le duplique parfaitement alors il n'y a aucune "explication" et le territoire directement aurait été aussi intéressant que cette théorie.

 

Les machines quantiques ont exactement le même pouvoir calculatoire que les machines non quantiques. Ce sont seulement les classes de complexité (le temps et l'espace) qui changent quand on les utilise. Et encore ce n'est pas clair que ce soit si révolutionnaire que ça : on n'a pas encore montré P!=NP en quantique et les seules réductions exponentielles (la factorisation) n'étaient pas des problèmes NP-durs.

 

On n'est pas sûr qu'un humain n'est pas une MT. Ce qui est dur à  intégrer est que si un humain n'est pas une MT il n'y aura aucun moyen de le savoir scientifiquement parlant : car pour le savoir tu devrais faire un modèle (et donc écrire un texte avec des symboles et lui adjoindre un mécanisme d'inférence) et tu retombes dans le champs de la calculabilité par nécessité. Sinon ce que tu fais n'est plus de la science mais de la croyance au sens religieux du terme (et je ne le dis pas du tout sur un mode péjoratif).  Bref une démonstration qu'un homme n'est pas une MT ne peut pas être scientifique car notre manière de comprendre le monde rationnellement limite cette compréhension aux phénomènes Turing-explicables. Ca ne veut pas dire que sinon tu ne comprends rien. On peut voir les religions comme des technologies pour accéder à des vérités plus profondes qu'on ne pourra jamais montrer : elles ont juste "survécu" car elles indiquaient quelque chose de vrai sans pour autant qu'on soit capable de faire une démonstration par a+b de pourquoi elles sont efficaces.

 

Il y a une distinction profonde entre ce qui est vrai et ce qui est prouvable (donc ce qu'on appelle scientifique pour parler largement) dès qu'on fait quelque chose d'un tant soit peu intéressant (Godel). Et ca ce n'est pas passé dans la culture mais c'est aussi fondamental que la relativité d'Einstein. C'est même terrible de constater que pour des raisons purement combinatoire la majeur partie de ce qui est vrai n'est pas explicable.

  • Yea 2
Lien vers le commentaire
4 hours ago, Kassad said:

Il y a une distinction profonde entre ce qui est vrai et ce qui est prouvable (donc ce qu'on appelle scientifique pour parler largement) dès qu'on fait quelque chose d'un tant soit peu intéressant (Godel). Et ca ce n'est pas passé dans la culture mais c'est aussi fondamental que la relativité d'Einstein. C'est même terrible de constater que pour des raisons purement combinatoire la majeur partie de ce qui est vrai n'est pas explicable.

Juste pour être certain de quoi on parle, comment on sait que quelque chose est vrai si ce n'est pas prouvable ?

Lien vers le commentaire
19 hours ago, Lancelot said:

Juste pour être certain de quoi on parle, comment on sait que quelque chose est vrai si ce n'est pas prouvable ?

On peut juste constater que ça marche tout le temps : par exemple le fait que tout entier pair supérieur à 4 est la somme de deux nombres premiers. Ca semble vrai car même en faisant tourner des simulations sur des nombres gigantesques on ne trouve pas de contre exemple. Pour le moment on n'a pas de preuve que ce soit vrai.

 

La vérité est l'interprétation qu'on fait des symboles. La prouvabilité est étant donné une théorie (disons des axiomes et des règles d'inférences) existe t il un chemin qui va de mes axiomes (ou de mes hypothèses) à ce que je cherche à prouver tout en n'utilisant que des règles d'inférences. Pour peu que la théorie contienne l'arithmétique (addition, multiplication et disons décomposition en facteurs premiers) alors il n'y a pas égalité entre ce qui est vrai et ce qui est démontrable. Ca veut dire que je peux écrire une grosse formule qui dépend d'un entier x et il se trouve que pour x=0, x=1, x=2  etc. cette propriété soit vraie. Typiquement la conjecture de Goldbach que je citais qu'on peut présenter comme ça : pour tout x, on a 2(x+2) qui est toujours égale à la somme de deux nombres premiers. Même si je n'ai pas de preuve je peux vérifier que ça marche (et donc c'est vrai) pour tout x. 

  • Yea 1
Lien vers le commentaire
6 hours ago, Kassad said:

On n'est pas sûr qu'un humain n'est pas une MT. Ce qui est dur à  intégrer est que si un humain n'est pas une MT il n'y aura aucun moyen de le savoir scientifiquement parlant : car pour le savoir tu devrais faire un modèle (et donc écrire un texte avec des symboles et lui adjoindre un mécanisme d'inférence) et tu retombes dans le champs de la calculabilité par nécessité.

Je ne comprends pas ce que tu veux dire par là. Ça fait longtemps que j'ai plus touché à la théorie, mais je pense encore y comprendre un tout piti peu.

 

Si par "un humain n'est pas une MT" tu veux dire un humain n'est pas équivalent à une MT (i.e en puissance ce calcul) alors là d'accord on peut essayer de se tirer les cheveux.

Mais suggérer qu'un cerveau fonctionne comme une machine de Turing me semble juste bizarre.

Lien vers le commentaire
1 hour ago, Kassad said:

On peut juste constater que ça marche tout le temps : par exemple le fait que tout entier pair supérieur à 4 est la somme de deux nombres premiers. Ca semble vrai car même en faisait tourner des simulations sur des nombres gigantesques on ne trouve pas de contre exemple. Pour le moment on n'a pas de preuve que ce soit vrai.

 

La vérité est l'interprétation qu'on fait des symboles. La prouvabilité est étant donné une théorie (disons des axiomes et des règles d'inférences) existe t il un chemin qui va de mes axiomes (ou de mes hypothèses) à ce que je cherche à prouver tout en n'utilisant que des règles d'inférences. Pour peu que la théorie contienne l'arithmétique (addition, multiplication et disons décomposition en facteurs premiers) alors il n'y a pas égalité entre ce qui est vrai et ce qui est démontrable. Ca veut dire que je peux écrire une grosse formule qui dépend d'un entier x et il se trouve que pour x=0, x=1, x=2  etc. cette propriété soit vraie. Typiquement la conjecture de Goldbach que je citais qu'on peut présenter comme ça : pour tout x, on a 2(x+2) qui est toujours égale à la somme de deux nombres premiers. Même si je n'ai pas de preuve je peux vérifier que ça marche (et donc c'est vrai) pour tout x. 

Ce critère de démontrabilité est plutôt du domaine de la logique que de la science du coup (qui se contente volontiers de la vérifiabilité). Quelque part ça se mord la queue de toute manière puisqu'à l'origine les axiomes et les règles d'inférences sont eux-mêmes indémontrables.

Lien vers le commentaire

Surtout qu'en termes logiques, il y a le vrai, dans lequel on inclut le prouvable dans lequel on inclut le prouvé.

Le prouvé est tout petit ; le prouvable, je n'en ai aucune idée (au moins égal au prouvé vu que prouvé => prouvable), et le vrai sûrement plus gros.

 

Pour le théorème de Goldbach, il est vrai ou faux ; on ne connaît rien sur sa prouvabilité et on est certains qu'il n'est pas prouvé.

 

Il y a 7 heures, Kassad a dit :

car pour le savoir tu devrais faire un modèle (et donc écrire un texte avec des symboles et lui adjoindre un mécanisme d'inférence) et tu retombes dans le champs de la calculabilité par nécessité. Sinon ce que tu fais n'est plus de la science mais de la croyance au sens religieux du terme (et je ne le dis pas du tout sur un mode péjoratif). 

 

Tu es sûr qu'on ne peut rien prouver sur des objets qui ne sont pas "calculables" ?

Lien vers le commentaire
12 hours ago, Noob said:

Je ne comprends pas ce que tu veux dire par là. Ça fait longtemps que j'ai plus touché à la théorie, mais je pense encore y comprendre un tout piti peu.

 

Ce que je dis est que nécessairement si tu fais un modèle du fonctionnement du cerveau, ce modèle sera Turing-équivalent au mieux.

 

Par contre s'il se trouve que la conscience/l'esprit n'est pas simulable par MT tu n'auras aucun moyen scientifique de le prouver. Car la manière scientifique d'en parler fait que tu retombes nécessairement dans le modèle MT.

Lien vers le commentaire
12 hours ago, Lancelot said:

Ce critère de démontrabilité est plutôt du domaine de la logique que de la science du coup (qui se contente volontiers de la vérifiabilité). Quelque part ça se mord la queue de toute manière puisqu'à l'origine les axiomes et les règles d'inférences sont eux-mêmes indémontrables. 

 

La science ne se limite pas à faire des prédictions et à les vérifier. Normalement (je dis normalement car actuellement avec les data science cette approche est attaquée, mais c'est un autre sujet) il faut proposer un modèle : une théorie de pourquoi ça marche comme ça. En faisant agir le modèle je fais des prédictions et s'il se trouve que ça marche bien on est content.

 

Il n'y a pas de régression infinie : un axiome est sa propre démonstration. Le truc est que tu peux rajouter autant d'axiomes que tu veux il y a toujours la possibilité de construire des énoncés vrais mais non démontrables.

Lien vers le commentaire
11 hours ago, Bézoukhov said:

Tu es sûr qu'on ne peut rien prouver sur des objets qui ne sont pas "calculables" ?

 

 La question est : dans quel système ?

 

Le schéma de la construction de Goedel est le suivant : quand on fait de la logique on utilise un certain nombre fini de symboles (l'alphabet, les signes de ponctuation, les parenthèses etc.). Une formule n'est qu'une suite ordonnée de symboles. Goedel a donné un codage qui pour tout alphabet donne une manière de coder un mot sur cet alphabet comme un entier. L'idée est de ranger les lettres par ordre alphabétique puis d'associer un nombre à chaque symboles (il a pris les nombres impairs car il est malin). Ainsi si tu prends l'alphabet {a,b,c} alors à a tu associes 3, à b tu associes 5 et à c tu associes 7. Pour coder un mot sur cet alphabet, par exemple 'abbc' tu considères le nombre 2^3 * 3^5 * 5^5 * 7^7 . C'est à dire que tu codes la ième lettre du mot par le ième nombre premier exposant le code de la lettre. Ainsi le décodage est assuré par la décomposition en facteurs premiers. Disons que si M est un mot alors [M] est le nombre associé au mot M par ce codage de Goedel. Maintenant une preuve n'est qu'une suite finie de mots M1 M2 ... Mn. Pour une telle suite Goedel donne un autre codage qui est : 2^[M1]*3^[M2]*...*pn^[Mn] où pn est le nième nombre premier. Donc de la même manière qu'un mot peut être associer à un chiffre une démonstration peut elle aussi être vue comme un chiffre (et il n'y a pas d'ambigüité car en regardant l'exposant de 2 dans la décomposition en facteurs premiers on sait si on a affaire à un codage de mot ou à un codage de suite de mots).

 

A partir de là le fait qu'une formule soit prouvable n'est plus qu'une relation entre deux chiffres. Disons Pr([F],[Dem]) est vrai ssi Dem est le codage d'une démonstration de la formule F. A partir de la il ne reste qu'à construire une formule paradoxale du type : G =( non il existe z tel que Pr(G,z) ) qui signifie "Je ne suis pas démontrable" (car il n'existe pas d'entier z qui soit la preuve de G). Et donc si ta théorie est non contradictoire alors forcément G n'est pas démontrable sinon tu aurais une contradiction. Mais G ne parle pas de vérité : elle peut être vraie (valide dans toute interprétation de la théorie) mais ne peut pas être montrée dans cette théorie.

 

Rajouter G comme axiome ne change rien car on refait la même construction. Et donc la réponse à ta question est oui il y aura toujours des objets non démontrables.

 

On peut faire la même chose avec les machines de Turing pour la décidabilité.

Lien vers le commentaire
il y a 34 minutes, Kassad a dit :

(il a pris les nombres impairs car il est malin)

Pas compris pourquoi :(

 

Et ça change quoi dans la deuxième partie de ton énoncé le fait qu'on puisse associer un entier naturel unique à chaque preuve ou formule ?

Lien vers le commentaire
il y a 56 minutes, Kassad a dit :

Ce que je dis est que nécessairement si tu fais un modèle du fonctionnement du cerveau, ce modèle sera Turing-équivalent au mieux.

Ben peut être qu'on en fera pas un "modèle" comme tu l'imagines. Ptêtre qu'on simulera un ADN simplifié qui fait pousser un cerveau dans une simulation avec toutes les bonne conditions exp, et on nourrira le cerveau avec plein d'expériences pour qu'il apprenne comme nous quand on grandit. A la fin on aura un truc informe qui ne sera pas une MT mais avec laquelle on pourra expérimenter et apprendre

Lien vers le commentaire
Just now, ttoinou said:

Pas compris pourquoi :( 

 

Et ça change quoi dans la deuxième partie de ton énoncé le fait qu'on puisse associer un entier naturel unique à chaque preuve ou formule ? 

 

Car quand tu décomposes un chiffre en nombre premier tu regardes l'exposant : s'il est impair c'est le codage d'un mot, s'il est pair alors c'est le codage d'une suite de mots (car chaque mot est codé par 2^{quelque chose}).

 

Le tour de force de Goedel est d'internaliser la théorie pour n'avoir plus à faire qu'à des relations entre nombres entiers. En fait c'est une faiblesse du langage en tant que technologie : il y aura  toujours un point aveugle (au minimum son fameux paradoxe du menteur) dans toute théorie car il faudra bien écrire cette dernière et on pourra relancer la machine pour créer des choses non prouvables.

 

Ca me fait dire que toute théorie du monde souffrira du même problème : forcément il y aura masse (en fait la plus grande partie) de choses que cette théorie ne pourra expliquer. Ca ne veut pas dire que c'est peine perdue et qu'il ne faut rien faire mais c'est plutôt un appel à la modestie : on essaye de faire des trucs qui tiennent la route, dont on sait qu'ils seront incomplets. Parfois on tombe sur des vérités qu'on peut constater sans les justifier autrement que par la pratique. 

  • Yea 1
Lien vers le commentaire
1 minute ago, ttoinou said:

Ben peut être qu'on en fera pas un "modèle" comme tu l'imagines. Ptêtre qu'on simulera un ADN simplifié qui fait pousser un cerveau dans une simulation avec toutes les bonne conditions exp, et on nourrira le cerveau avec plein d'expériences pour qu'il apprenne comme nous quand on grandit. A la fin on aura un truc informe qui ne sera pas une MT mais avec laquelle on pourra expérimenter et apprendre

Si tu veux garantir des résultats il faut bien que tu écrives ta machine et son fonctionnement.

 

Là ce que tu me dis est que pour créer de l'intelligence ... il suffit de se reproduire, avoir des enfants et bien les éduquer. Je suis d'accord ça marche bien mais ce n'est pas une méthode que je qualifierais de scientifique pour créer de la conscience.

Lien vers le commentaire
il y a 21 minutes, Kassad a dit :

Car quand tu décomposes un chiffre en nombre premier tu regardes l'exposant : s'il est impair c'est le codage d'un mot, s'il est pair alors c'est le codage d'une suite de mots (car chaque mot est codé par 2^{quelque chose}).

C'est fait pour être récursif et en déduire un arbre de formules ? Puisque tu regarde les exposant pour chaque nombre premiers

 

J'allais justement te faire remarquer qu'un nombre peut soit se décomposer en suite de formules (=preuve) ou une formule et donc il faut les différencier. Mais en fait une suite finie de formule finie est aussi une formule finie (suffit d'ajouter un nouveau caractère à l'alphabet qui permet de séparer les formules entre elles)

 

il y a 21 minutes, Kassad a dit :

Le tour de force de Goedel est d'internaliser la théorie pour n'avoir plus à faire qu'à des relations entre nombres entiers

Ok mais la seconde partie de ton énoncé n'avait pas besoin de la ( fonction : (formule OU suite de formules) -> entier naturel ) ? Il y a plein de démonstrations de maths/infos qui se passent bien de convertir des expressions en nombres

Lien vers le commentaire
il y a 19 minutes, Kassad a dit :

Si tu veux garantir des résultats il faut bien que tu écrives ta machine et son fonctionnement.

Qui te dis qu'on pourra / voudra garantir des résultats ? Qu'est ce que tu appelles garantir d'ailleurs, je suis perdu ?

 

il y a 19 minutes, Kassad a dit :

Là ce que tu me dis est que pour créer de l'intelligence ... il suffit de se reproduire, avoir des enfants et bien les éduquer

A la différence que cette expérience peut être répétée énormément de fois en changeant les conditions initiales (algo de formation du cerveau + input dans le temps) dans un très court laps de temps << celui de l'humanité et de l'évolution

Lien vers le commentaire
4 hours ago, Kassad said:

 

Ce que je dis est que nécessairement si tu fais un modèle du fonctionnement du cerveau, ce modèle sera Turing-équivalent au mieux.

 

Par contre s'il se trouve que la conscience/l'esprit n'est pas simulable par MT tu n'auras aucun moyen scientifique de le prouver. Car la manière scientifique d'en parler fait que tu retombes nécessairement dans le modèle MT.

Là d'accord, c'est le verbe être qui me chiffonnait plutôt que de parler d'équivalence.

Lien vers le commentaire
2 hours ago, ttoinou said:

Qui te dis qu'on pourra / voudra garantir des résultats ? Qu'est ce que tu appelles garantir d'ailleurs, je suis perdu ?

 

A la différence que cette expérience peut être répétée énormément de fois en changeant les conditions initiales (algo de formation du cerveau + input dans le temps) dans un très court laps de temps << celui de l'humanité et de l'évolution

On est sur un fil d'intelligence artificielle. Si tu veux créer algorithmiquement de l'intelligence cela signifie que tu as une méthode non ambigüe pour le faire. Cette méthode (ça peut très bien être un énorme réseau de neurones auxquels on file des petaoctets de données d'apprentissage) on peut l'écrire comme un programme, grand certes, mais ça reste une suite de mots sur un certain alphabet. Le fait que la méthode soit non ambigüe implique qu'il y a des règles pour dériver de nouvelles connaissances à partir de celles qu'on a déjà. De la même manière on doit pouvoir écrire ses règles dans un langage quelconque (sinon c'est de la magie).

 

Bidouiller l'adn pour former un cerveau revient juste à hacker la nature. Ce n'est pas de l'IA dans le sens où tu caches sous le tapis d'où vient l'intelligence (ici de la vie). Ce n'est pas du tout artificiel. C'est un peu comme dresser un animal pour faire quelque chose et dire que c'est un robot. La différence entre un chien et un robot est que pour le robot j'ai un plan pour le construire, que je peux répéter la construction du même robot, qui toutes choses étant égales par ailleurs, sera indistinguable du prochain qui sortira de la chaîne de production. Par contre tu as des chiens plus intelligents que d'autres : tu n'as pas de garantie sur ce que tu vas obtenir car ce n'est pas le résultat d'une méthode non ambigüe (un algorithme). En fait tu vas appliquer un algo (le dressage de chien) sur un phénomène qui lui n'est peut être pas simulable par un algorithme.

 

Le fait de changer les conditions initiales ne fait d'un point de vue théorique que rallonger la taille du code (ie l'enregistrement en dur de toutes tes conditions initiales), que ce soit court ou long n'importe pas.

Lien vers le commentaire
3 hours ago, ttoinou said:

Ok mais la seconde partie de ton énoncé n'avait pas besoin de la ( fonction : (formule OU suite de formules) -> entier naturel ) ? Il y a plein de démonstrations de maths/infos qui se passent bien de convertir des expressions en nombres 

 

L'idée est de construire à minima au moins un contre exemple. Cette internalisation des maths c'est un peu comme un effet Larsen ou une caméra qui filme l'écran sur lequel est projeté ce qu'elle filme. C'est juste un truc technique pour montrer que dès que certaines conditions sont réunies (donc en gros il suffit de pouvoir exprimer le codage de Goedel) il y a suffisamment pour faire capoter l'identité entre prouvable et vrai.

 

En fait cette arithmétisation marche pour tout alphabet et système de déduction. Et le problème psychologique qu'on a est que comprendre le monde de manière scientifique revient à poser un système qui a nécessairement ces caractéristiques. Or si même dans les maths de base (addition et multiplication) il y a déjà beaucoup de choses qui sont vrais mais non prouvables on imagine bien que pour le réel, qui est largement plus complexe, ce sera encore pire. Mais ce "on sent bien" ne peut pas par construction être formalisé : à bien des égards c'est un acte de foi. Personnellement je ne pense pas que l'intelligence soit une fonction Turing calculable mais dans le fonds je n'en sais rien, et pire encore je sais que je n'aurais jamais de certitude scientifique que ce soit le cas. Par contre si c'est faux un jour peut être sortira un algo d'intelligence générale qui contredira ma foi dans cette thèse. C'est vraiment une version mathématiques de "les voies du seigneur sont impénétrables" qui est une maxime qui condense de manière littéraire ce que Goedel, Turing and co ont réalisé de manière technique.

Lien vers le commentaire
4 hours ago, Kassad said:

La science ne se limite pas à faire des prédictions et à les vérifier. Normalement (je dis normalement car actuellement avec les data science cette approche est attaquée, mais c'est un autre sujet) il faut proposer un modèle : une théorie de pourquoi ça marche comme ça. En faisant agir le modèle je fais des prédictions et s'il se trouve que ça marche bien on est content.

Bah c'est-à-dire que oui, c'est difficile de faire des prédictions comme ça au pif sans modèle pour les justifier. Même dans les approches non supervisées théoriquement on est supposé avoir un modèle qui explique les structures retrouvées.

 

4 hours ago, Kassad said:

Il n'y a pas de régression infinie : un axiome est sa propre démonstration. Le truc est que tu peux rajouter autant d'axiomes que tu veux il y a toujours la possibilité de construire des énoncés vrais mais non démontrables.

Je ne suis pas sûr de comprendre l'histoire de l'axiome qui est sa propre démonstration. Par exemple qu'est-ce qui m'empêche de dire que "tout entier pair supérieur à 4 est la somme de deux nombres premiers" est un axiome si je ne peux pas le prouver et que j'en ai besoin ailleurs ?

Lien vers le commentaire
1 minute ago, Lancelot said:

Bah c'est-à-dire que oui, c'est difficile de faire des prédictions comme ça au pif sans modèle pour les justifier. Même dans les approches non supervisées théoriquement on est supposé avoir un modèle qui explique les structures retrouvées.

 

  Oui c'est pour ça que tout modèle souffrira des défficiences pointées par Goedel : pour chaque modèle on peut s'amuser à construire des choses non explicables par ce modèle, du simple fait que pour décrire le modèle on utilise un langage.

 

2 minutes ago, Lancelot said:

Je ne suis pas sûr de comprendre l'histoire de l'axiome qui est sa propre démonstration. Par exemple qu'est-ce qui m'empêche de dire que "tout entier pair supérieur à 4 est la somme de deux nombres premiers" est un axiome si je ne peux pas le prouver et que j'en ai besoin ailleurs ?

 

  C'était juste pour répondre à ta question sur la régression infinie.

 

 Disons que dans les maths standards que j'appelle ZF (pour Zermelo Fraenkel) la conjecture de Goldbach soit  en fait vraie et non démontrable. Effectivement rien n'empêche de considérer la théorie ZF+Goldbach  et de faire des preuves dedans mais de nouveau pour ZF+Goldbach de nouvelles choses sont vraies et non démontrables (et si en fait la conjecture était fausse alors on a un système incohérent qui permet de tout prouver).  C'est juste une course infinie : il y aura toujours des choses non démontrables même si tu acceptes comme axiome autant de choses (vraies) que tu veux. Car on peut relancer la machine à paradoxe pour ce nouveau système.

Lien vers le commentaire

@Kassad Merci pour tes explications. Je fait l'erreur de mélanger 1) la technique qui va nous permettre de faire de nouvelles découvertes (ici exemple comprendre l'intelligence humaine, selon moi ça pourra se faire selon des méthodes pas aussi rigoureuses que tu ne l'espère) et 2) la découverte elle même (sur laquelle tu peux démontrer des trucs : par exemple que c'est impossible de construire une MT qui réplique les fonctionnalités d'un humain).

 

il y a 31 minutes, Kassad a dit :

On est sur un fil d'intelligence artificielle.

https://fr.wiktionary.org/wiki/artificiel

http://www.synonymes.com/synonyme.php?mot=artificiel&amp;x=0&amp;y=0

https://fr.wikipedia.org/wiki/Intelligence_artificielle

 

En lisant ces pages je ne vois pas ce qui te fait dire qu'on veut garantir des résultats, ou obtenir de l'intelligence à partir d'un algorithme. IA englobe plus que ça AMHA

 

il y a 31 minutes, Kassad a dit :

Si tu veux créer algorithmiquement de l'intelligence cela signifie que tu as une méthode non ambiguë pour le faire.

Je doute ; le problème selon moi c'est le mot algorithme dans tes hypothèses.

 

il y a 31 minutes, Kassad a dit :

Cette méthode [...] on peut l'écrire comme un programme, grand certes, mais ça reste une suite de mots sur un certain alphabet

Je doute encore. La machine sur laquelle tu écris et transmet ce texte est-elle assimilable à un programme géant ?

 

il y a 31 minutes, Kassad a dit :

Bidouiller l'adn pour former un cerveau revient juste à hacker la nature. Ce n'est pas de l'IA dans le sens où tu caches sous le tapis d'où vient l'intelligence (ici de la vie). Ce n'est pas du tout artificiel. C'est un peu comme dresser un animal pour faire quelque chose et dire que c'est un robot.

C'est artificiel puisque c'est nous les humains qui le faisons. Et en faisant ce processus 1) on va découvrir des trucs que l'on expliquera avec de la théorie qu'après coup 2)

Lien vers le commentaire
24 minutes ago, ttoinou said:

https://fr.wiktionary.org/wiki/artificiel

http://www.synonymes.com/synonyme.php?mot=artificiel&amp;x=0&amp;y=0

https://fr.wikipedia.org/wiki/Intelligence_artificielle

 

En lisant ces pages je ne vois pas ce qui te fait dire qu'on veut garantir des résultats, ou obtenir de l'intelligence à partir d'un algorithme. IA englobe plus que ça AMHA 

 

  Artificiel veut dire créer par l'homme de manière non naturelle. Sinon ma fille est une forme de vie artificielle car elle a été obtenue par l'action d'hommes (moi en particulier).

 

 Donc il faut prendre un bout de terre et lui arriver à faire simuler l'intelligence. On a une idée de comment faire en construisant des circuits imprimés, en programmant des algorithmes d'apprentissage etc. mais ce sont des artefacts réalisés suivant un plan. Ce plan est utilisé pour reproduire la machine autant de fois qu'on veut. C'est là qu'il y a une garantie : c'est l'équivalent de la prédiction du résultat d'une expérience. Si tu ne garanties rien tu ne fais pas de science.

 

28 minutes ago, ttoinou said:

Je doute ; le problème selon moi c'est le mot algorithme dans tes hypothèses.

Comme je le dis : il existe une méthode pour créer de l'intelligence qui est la reproduction et l'éducation. C'est un peu tiré par les cheveux de dire que c'est artificiel. Si tu n'as pas de méthode précise pour créer alors c'est que tu es parti à la pêche et tu n'as rien créé en fait (donc ce n'est pas artificiel) : tu as juste cherché ailleurs quelque chose d'intelligent mais ce n'est pas une production humaine artificielle. Sinon tu as une méthode que tu peux écrire et expliquer. 

 

31 minutes ago, ttoinou said:

Je doute encore. La machine sur laquelle tu écris et transmet ce texte est-elle assimilable à un programme géant ?

Oui c'est juste une MT particulière.

 

32 minutes ago, ttoinou said:

C'est artificiel puisque c'est nous les humains qui le faisons. Et en faisant ce processus 1) on va découvrir des trucs que l'on expliquera avec de la théorie qu'après coup 2)

Faut pas exagérer : quand je vais au chiottes ce que j'y laisse n'est pas artificiel et pourtant c'est moi qui l'ait fait. Au delà de l'anecdote ça me parait spécieux de qualifier la reproduction (ou le hackage de la vie par edition d'adn and co) d'artificielle.

 

Quant au 2 on dirait qu'on a affaire au "texas sharpshooter fallacy"  : tu tires sur un mur et tu dessines la cible autour de l'impact, c'est ta théorie qui s'adapte aux cas particuliers que tu trouves. Bref ce n'est pas du tout une théorie mais des histoires que tu te racontes pour justifier ex post. Y a une autre version qui consiste à couvrir le mur de cibles et de tirer au hasard et de ne garder que les cibles qu'on a touché :icon_volatilize:

 

 

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...