Aller au contenu

Une "théorie du tout"


yoook100%

Messages recommandés

Invité jabial

Je n'ai pas dit que ce n'était pas n'importe quoi, juste que ce n'était pas le genre de n'importe quoi à la portée de n'importe qui. Pour le reste, je ne suis pas en mesure de juger.

Lien vers le commentaire

Il y a des raisons logiques (portant sur la taille des démonstrations et sur les 'nombres incompressibles') pour lesquelles une vraie théorie du tout n'est pas possible.

Mais bon il s'agit pour l'instant d'unifier le quantique avec la relativité vu que dans la théorie standard c'est plutôt le bordel. Ce qui est étonnant vu que les deux sont expérimentalement vérifées à des degrés infernaux de précision.

Lien vers le commentaire
Il y a des raisons logiques (portant sur la taille des démonstrations et sur les 'nombres incompressibles') pour lesquelles une vraie théorie du tout n'est pas possible.

Mais bon il s'agit pour l'instant d'unifier le quantique avec la relativité vu que dans la théorie standard c'est plutôt le bordel. Ce qui est étonnant vu que les deux sont expérimentalement vérifées à des degrés infernaux de précision.

C'est comme pour la compression de données, il y a forcément une limite théorique impossible à franchir, sinon à un moment donné c'est plus bijectif.

Lien vers le commentaire

Pour info il utilise le groupe de lie E8 qui est dit "simple" et "exceptionnel" donc quand il parle d'une théorie "exceptionnellement simple" c'est un jeu de mots.

Maintenant Kassad va nous raconter les belles histoires de tonton Sophus sur les variétés différentielles

Lien vers le commentaire
Oui ça paraît évident, et il y a un moyen de la calculer ?

C'est pas si évident car quand tu commences à jouer avec l'infini tu peux faire des trucs rigolots : genre N/2N est en bijection avec N pourtant intuitivement il y a plus de nombres entiers que de nombres pairs.

Pour la compression tout dépent du système d'axiome duquel tu pars (de ton langage de prog). Le cas limite étant ce que tu veux compresser est un axiome => tu le compresses en donnant le numéro de l'axiome correspondant (même si le texte est celui du code des impôts). Après il y a tout un pan de l'info théorique qui traite de ça et qui s'appelle : Algorithmic Information Theory. Avc tout plein de jolis paradoxes : des vérités mathématiques indémontrables donc aléatoires au sens où est aléatoire ce dont tu ne peux exprimer de structure (c'est ce que tu fais en compressant) et non au sens où c'est parfois comme ça et parfois comme ci.

Lien vers le commentaire
C'est comme pour la compression de données, il y a forcément une limite théorique impossible à franchir, sinon à un moment donné c'est plus bijectif.

Le taux de compression d'un algorithme donne n'est pas fixe, il depend du fichier a compresser. Et un algorithme peut etre optimise pour un certain type de fichier.

Donc non il n'existe pas de taux limite impossible a franchir quel que soit le fichier a compresser, par exemple un fichier de 100Go contenant un seul caractere peut se compresser en quelques octets. Et a l'inverse intuitivement je dirai qu'un fichier completement aleatoire ne peut pas se compresser du tout, si l'algorithme a ete concu sans la connaissance prealable de ce fichier.

Mais l'ensemble de tout les fichiers possibles reste quand meme bijectif avec l'ensemble des fichiers compresses, ca empeche pas. (evidement on parle ici de compression sans perte d'information, pas de jpeg ou mpeg).

Lien vers le commentaire
Le taux de compression d'un algorithme donne n'est pas fixe, il depend du fichier a compresser. Et un algorithme peut etre optimise pour un certain type de fichier.

Donc non il n'existe pas de taux limite impossible a franchir quel que soit le fichier a compresser, par exemple un fichier de 100Go contenant un seul caractere peut se compresser en quelques octets.

Plus précisément il faut au moins que tu indiques la taille du fichier de départ et tu ne peux le faire mieux qu'en O(log n) avec n la taille du fichier de départ. Tu as donc bien de ce point de vue une limite (le log).

Et a l'inverse intuitivement je dirai qu'un fichier completement aleatoire ne peut pas se compresser du tout, si l'algorithme a ete concu sans la connaissance prealable de ce fichier.

C'est tellement vrai que c'est la définition d'une suite aléatoire : c'est une suite qu'on ne peut compresser. cf mon message précédent.

Lien vers le commentaire
C'est pas si évident car quand tu commences à jouer avec l'infini tu peux faire des trucs rigolots : genre N/2N est en bijection avec N pourtant intuitivement il y a plus de nombres entiers que de nombres pairs.

Oui, quand tu commences à jouer avec l'infini. Sauf que l'infini n'existe jamais, dans la réalité (et donc entre autres dans les ordinateurs).

Lien vers le commentaire
Le taux de compression d'un algorithme donne n'est pas fixe, il depend du fichier a compresser. Et un algorithme peut etre optimise pour un certain type de fichier.

Je n'étais pas clair mais c'est bien ce que j'entendais : il existe une limite pour chaque fichier, par pour chaque algorithme !

Lien vers le commentaire
C'est pas si évident car quand tu commences à jouer avec l'infini tu peux faire des trucs rigolots : genre N/2N est en bijection avec N pourtant intuitivement il y a plus de nombres entiers que de nombres pairs.

C'est rigolo d'ailleurs car N lui n'est pas bijectif avec R. Il y a differents niveaux d'infini :icon_up:

Lien vers le commentaire
Invité jabial
Oui, quand tu commences à jouer avec l'infini. Sauf que l'infini n'existe jamais, dans la réalité (et donc entre autres dans les ordinateurs).

Bien sûr que l'infini existe dans la réalité. Ce qui est impossible, c'est de construire une structure matérielle qui a une longueur infinie.

Je n'étais pas clair mais c'est bien ce que j'entendais : il existe une limite pour chaque fichier, par pour chaque algorithme !

Ca dépend de ce que tu appelles compresser.

Imaginons l'exemple le plus idiot, un algo qui connaît tous les bouquins d'un domaine particulier.

Il "compresse" le texte du bouquin en le remplaçant par son numéro de livre.

Il le "décompresse" en remplaçant le numéro par le texte.

Ton intuition n'est pas idiote mais il faut comprendre que cette limite se comprend pour le couple (fichier,algorithme). Si on prend l'un des deux individuellement, on peut avoir des cas absurdes.

Lien vers le commentaire
Ca dépend de ce que tu appelles compresser.

Imaginons l'exemple le plus idiot, un algo qui connaît tous les bouquins d'un domaine particulier.

Il "compresse" le texte du bouquin en le remplaçant par son numéro de livre.

Il le "décompresse" en remplaçant le numéro par le texte.

C'est ce que j'avais déjà dit mais de manière théorique en parlant de la longueur des démonstrations et du fait de prendre de gros axiomes. Personne ne lit ce que j'écris :icon_up:

Demonstration laissee a la sagacite du lecteur! :warez::doigt:

La démo est la suivante.

1. tu demontres que R est en bijection avec [0;1[

2. s'il y a une énumération de R alors chaque élément de [0,1[ peut être identifié par un entier n. Disons que c'est xn.

3. les xi sont de la forme xi = 0, x1i x2i x3i … avec les xji qui sont des chiffres entre 0 et 9.

4. le nombre y = 0, y1 y2 y3 … avec yi=9-xii est dans [0;1[ or il est différent de chacun des xi (car il diffère précisément dans la ième décimale ie xii <> yi) donc il n'est pas de la forme xi et donc on a une contradiction (on voulait énumérer les éléments de [0;1[ et on n'y arrive pas).

Lien vers le commentaire

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...