yoook100% Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 J'y comprends rien mais c'est passionnant ! Lien vers le commentaire
Chitah Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 Il paraît que c'est un surfeur qui a découvert cette théorie, j'ai lu cela il ya quelques jours. Lien vers le commentaire
Invité jabial Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 Mouais enfin bon, c'est pas n'importe quel surfeur pour écrire ça déjà. Ca peut être faux mais il a plus qu'un vernis. Lien vers le commentaire
Harald Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 Il paraît que c'est un surfer qui a découvert cette théorie, j'ai lu cela il ya quelques jours. T'as un problème avec les surfers ? Lien vers le commentaire
Brock Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 il invente 20 nouvelles particules…arghh Lien vers le commentaire
Ronnie Hayek Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 T'as un problème avec les surfers ? Lien vers le commentaire
Punu Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 Un docteur en physique qui vivait de l'enseignement du surf, nuance. En tout cas je conseille de lire son papier, qui est très beau visuellement. Lien vers le commentaire
Brock Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 ROFL@Ronnie Lien vers le commentaire
A.B. Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 C'est joli et intéressant mais ça n'est apparemment pas (encore?) une théorie du tout. Lien vers le commentaire
Stan Selene Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 A priori, c'est n'importe quoi . Ce gars met, des choux et des fleurs dans un sac et apres avoir secoue il te dit qu'il s'agit de chou fleur. Lien vers le commentaire
Invité jabial Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 Je n'ai pas dit que ce n'était pas n'importe quoi, juste que ce n'était pas le genre de n'importe quoi à la portée de n'importe qui. Pour le reste, je ne suis pas en mesure de juger. Lien vers le commentaire
0100011 Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 Il y a des raisons logiques (portant sur la taille des démonstrations et sur les 'nombres incompressibles') pour lesquelles une vraie théorie du tout n'est pas possible. Mais bon il s'agit pour l'instant d'unifier le quantique avec la relativité vu que dans la théorie standard c'est plutôt le bordel. Ce qui est étonnant vu que les deux sont expérimentalement vérifées à des degrés infernaux de précision. Lien vers le commentaire
Chitah Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 Il y a des raisons logiques (portant sur la taille des démonstrations et sur les 'nombres incompressibles') pour lesquelles une vraie théorie du tout n'est pas possible. Mais bon il s'agit pour l'instant d'unifier le quantique avec la relativité vu que dans la théorie standard c'est plutôt le bordel. Ce qui est étonnant vu que les deux sont expérimentalement vérifées à des degrés infernaux de précision. C'est comme pour la compression de données, il y a forcément une limite théorique impossible à franchir, sinon à un moment donné c'est plus bijectif. Lien vers le commentaire
A.B. Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 Pour info il utilise le groupe de lie E8 qui est dit "simple" et "exceptionnel" donc quand il parle d'une théorie "exceptionnellement simple" c'est un jeu de mots. Maintenant Kassad va nous raconter les belles histoires de tonton Sophus sur les variétés différentielles Lien vers le commentaire
Jesrad Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 il invente 20 nouvelles particules…arghh Alors c'est n'importe quoi Lien vers le commentaire
A.B. Posté 28 novembre 2007 Signaler Share Posté 28 novembre 2007 Alors c'est n'importe quoi Non justement c'est testable. Lien vers le commentaire
pankkake Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 C'est comme pour la compression de données, il y a forcément une limite théorique impossible à franchir, sinon à un moment donné c'est plus bijectif. Oui ça paraît évident, et il y a un moyen de la calculer ? Lien vers le commentaire
0100011 Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 Oui ça paraît évident, et il y a un moyen de la calculer ? C'est pas si évident car quand tu commences à jouer avec l'infini tu peux faire des trucs rigolots : genre N/2N est en bijection avec N pourtant intuitivement il y a plus de nombres entiers que de nombres pairs. Pour la compression tout dépent du système d'axiome duquel tu pars (de ton langage de prog). Le cas limite étant ce que tu veux compresser est un axiome => tu le compresses en donnant le numéro de l'axiome correspondant (même si le texte est celui du code des impôts). Après il y a tout un pan de l'info théorique qui traite de ça et qui s'appelle : Algorithmic Information Theory. Avc tout plein de jolis paradoxes : des vérités mathématiques indémontrables donc aléatoires au sens où est aléatoire ce dont tu ne peux exprimer de structure (c'est ce que tu fais en compressant) et non au sens où c'est parfois comme ça et parfois comme ci. Lien vers le commentaire
jubal Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 C'est comme pour la compression de données, il y a forcément une limite théorique impossible à franchir, sinon à un moment donné c'est plus bijectif. Le taux de compression d'un algorithme donne n'est pas fixe, il depend du fichier a compresser. Et un algorithme peut etre optimise pour un certain type de fichier. Donc non il n'existe pas de taux limite impossible a franchir quel que soit le fichier a compresser, par exemple un fichier de 100Go contenant un seul caractere peut se compresser en quelques octets. Et a l'inverse intuitivement je dirai qu'un fichier completement aleatoire ne peut pas se compresser du tout, si l'algorithme a ete concu sans la connaissance prealable de ce fichier. Mais l'ensemble de tout les fichiers possibles reste quand meme bijectif avec l'ensemble des fichiers compresses, ca empeche pas. (evidement on parle ici de compression sans perte d'information, pas de jpeg ou mpeg). Lien vers le commentaire
jubal Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 J'y comprends rien mais c'est passionnant ! J'ai pas lu la theorie en question, mais ca fait 1000 fois que quelqu'un sort une theorie "unificatrice" de la physique, et que c'est relaye sans retenu par les medias. A voir. Lien vers le commentaire
0100011 Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 Le taux de compression d'un algorithme donne n'est pas fixe, il depend du fichier a compresser. Et un algorithme peut etre optimise pour un certain type de fichier.Donc non il n'existe pas de taux limite impossible a franchir quel que soit le fichier a compresser, par exemple un fichier de 100Go contenant un seul caractere peut se compresser en quelques octets. Plus précisément il faut au moins que tu indiques la taille du fichier de départ et tu ne peux le faire mieux qu'en O(log n) avec n la taille du fichier de départ. Tu as donc bien de ce point de vue une limite (le log). Et a l'inverse intuitivement je dirai qu'un fichier completement aleatoire ne peut pas se compresser du tout, si l'algorithme a ete concu sans la connaissance prealable de ce fichier. C'est tellement vrai que c'est la définition d'une suite aléatoire : c'est une suite qu'on ne peut compresser. cf mon message précédent. Lien vers le commentaire
h16 Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 En tout cas, le papier est géométriquement très joli à regarder. Si c'est n'importe quoi, c'est joliment réalisé. Et ce serait dommage qu'il n'en ressorte rien… Lien vers le commentaire
Rincevent Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 C'est pas si évident car quand tu commences à jouer avec l'infini tu peux faire des trucs rigolots : genre N/2N est en bijection avec N pourtant intuitivement il y a plus de nombres entiers que de nombres pairs. Oui, quand tu commences à jouer avec l'infini. Sauf que l'infini n'existe jamais, dans la réalité (et donc entre autres dans les ordinateurs). Lien vers le commentaire
Chitah Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 Le taux de compression d'un algorithme donne n'est pas fixe, il depend du fichier a compresser. Et un algorithme peut etre optimise pour un certain type de fichier. Je n'étais pas clair mais c'est bien ce que j'entendais : il existe une limite pour chaque fichier, par pour chaque algorithme ! Lien vers le commentaire
Stan Selene Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 C'est pas si évident car quand tu commences à jouer avec l'infini tu peux faire des trucs rigolots : genre N/2N est en bijection avec N pourtant intuitivement il y a plus de nombres entiers que de nombres pairs. C'est rigolo d'ailleurs car N lui n'est pas bijectif avec R. Il y a differents niveaux d'infini Lien vers le commentaire
Chitah Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 C'est rigolo d'ailleurs car N lui n'est pas bijectif avec R. Il y a differents niveaux d'infini Tu dois savoir que N est dénombrable mais pas R (démontration élégante à l'aide de la diagonale de Cantor). Lien vers le commentaire
Invité jabial Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 Oui, quand tu commences à jouer avec l'infini. Sauf que l'infini n'existe jamais, dans la réalité (et donc entre autres dans les ordinateurs). Bien sûr que l'infini existe dans la réalité. Ce qui est impossible, c'est de construire une structure matérielle qui a une longueur infinie. Je n'étais pas clair mais c'est bien ce que j'entendais : il existe une limite pour chaque fichier, par pour chaque algorithme ! Ca dépend de ce que tu appelles compresser. Imaginons l'exemple le plus idiot, un algo qui connaît tous les bouquins d'un domaine particulier. Il "compresse" le texte du bouquin en le remplaçant par son numéro de livre. Il le "décompresse" en remplaçant le numéro par le texte. Ton intuition n'est pas idiote mais il faut comprendre que cette limite se comprend pour le couple (fichier,algorithme). Si on prend l'un des deux individuellement, on peut avoir des cas absurdes. Lien vers le commentaire
Stan Selene Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 Tu dois savoir que N est dénombrable mais pas R (démontration élégante à l'aide de la diagonale de Cantor). Demonstration laissee a la sagacite du lecteur! Lien vers le commentaire
0100011 Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 Ca dépend de ce que tu appelles compresser.Imaginons l'exemple le plus idiot, un algo qui connaît tous les bouquins d'un domaine particulier. Il "compresse" le texte du bouquin en le remplaçant par son numéro de livre. Il le "décompresse" en remplaçant le numéro par le texte. C'est ce que j'avais déjà dit mais de manière théorique en parlant de la longueur des démonstrations et du fait de prendre de gros axiomes. Personne ne lit ce que j'écris Demonstration laissee a la sagacite du lecteur! La démo est la suivante. 1. tu demontres que R est en bijection avec [0;1[ 2. s'il y a une énumération de R alors chaque élément de [0,1[ peut être identifié par un entier n. Disons que c'est xn. 3. les xi sont de la forme xi = 0, x1i x2i x3i … avec les xji qui sont des chiffres entre 0 et 9. 4. le nombre y = 0, y1 y2 y3 … avec yi=9-xii est dans [0;1[ or il est différent de chacun des xi (car il diffère précisément dans la ième décimale ie xii <> yi) donc il n'est pas de la forme xi et donc on a une contradiction (on voulait énumérer les éléments de [0;1[ et on n'y arrive pas). Lien vers le commentaire
Chitah Posté 29 novembre 2007 Signaler Share Posté 29 novembre 2007 C'est ce que j'avais déjà dit mais de manière théorique en parlant de la longueur des démonstrations et du fait de prendre de gros axiomes. Personne ne lit ce que j'écris Mais si mais si, on est partis de ça justement. Lien vers le commentaire
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.