Tipiak Posté 8 décembre 2018 Signaler Posté 8 décembre 2018 Ok merci, donc mon estimation est pas forcément fausse ^^ Tout s'explique. (Et je mange pas spécialement high ou low carb pour le moment, même si je crois que je suis spontanément plutôt low de ce que je comprends.)
Rincevent Posté 8 décembre 2018 Signaler Posté 8 décembre 2018 Il y a 2 heures, NoName a dit : ça dépend aussi de ton régime alimentaire. Quand je mangeais locarb, je me suis retrouvé à aller beaucoup moins souvent aux toilettes mais à chier des briques. Faut manger plus gras et boire davantage.
NicolasB Posté 8 décembre 2018 Signaler Posté 8 décembre 2018 Boire de l'eau hein? Ou du café... Mais pas d'alcool. 1
Rincevent Posté 8 décembre 2018 Signaler Posté 8 décembre 2018 il y a 6 minutes, NicolasB a dit : Boire de l'eau hein? Ou du café... Mais pas d'alcool. Indeed. Je n'ai pas d'idée sur les effets de l'éthanol quant au caca ; mais je sais que 1- ne pas assez boire d'eau mène à chier des briques, et 2- la caféine stimule le tonus des muscles chargés du transit intestinal (d'où les trois C du matin). 1
Bisounours Posté 8 décembre 2018 Signaler Posté 8 décembre 2018 Je conseille l'eau avec du magnesium, genre Hépar, très efficace. 1
Rincevent Posté 8 décembre 2018 Signaler Posté 8 décembre 2018 il y a 1 minute, Bisounours a dit : Je conseille l'eau avec du magnesium, genre Hépar, très efficace. Oui, le magnésium, c'est bien pour les muscles comme pour le popo.
Bisounours Posté 21 décembre 2018 Signaler Posté 21 décembre 2018 Quelqu'un pour m'expliquer de façon simple ce qu'est l'entropie, plize ? j'ai été sur le oueb et j'avoue que c'est un peu confusionnant puisqu'il est question d'informatique, de maths, de médecine, d'univers...@Lancelot @Kassad @Rincevent
ttoinou Posté 21 décembre 2018 Signaler Posté 21 décembre 2018 il y a 6 minutes, Bisounours a dit : Quelqu'un pour m'expliquer de façon simple ce qu'est l'entropie, plize ? j'ai été sur le oueb et j'avoue que c'est un peu confusionnant puisqu'il est question d'informatique, de maths, de médecine, d'univers...@Lancelot @Kassad @Rincevent Ton hamoniste préféré = discours de basse entropie Tu peux prévoir ce qu'il dit dans le futur en l'ayant écouté parler 10 minutes 1 2
0100011 Posté 21 décembre 2018 Signaler Posté 21 décembre 2018 1 hour ago, Bisounours said: Quelqu'un pour m'expliquer de façon simple ce qu'est l'entropie, plize ? j'ai été sur le oueb et j'avoue que c'est un peu confusionnant puisqu'il est question d'informatique, de maths, de médecine, d'univers...@Lancelot @Kassad @Rincevent L'entropie est une mesure de la quantité d'information. L'information est ce qui permet de réduire l'incertitude. L'exemple de base est le suivant : supposons que le jeu est de deviner un mot lettre par lettre. Au début du jeu tu as 0 informations. N'importe quelle lettre convient (en fait tu peux faire des statistiques sur le début de mots : plis de mots commencent par b que par w il suffit de regarder un dictionnaire). Le jeu avançant le mot ne révèle petit à petit si le débit du mot est "anticonstitutionnellem" tu peux deviner sans te tromper la fin du mot qui sera "ent". Autrement dit les dernières lettres n'apportent aucune information car tu sais déjà lesquelles elles sont. Ce n'est pas inutile dans la vie de tous les jours car on peut avoir des conversations dans des endroits bruyants et donc la redondance information est utile (dans les langues naturelles a peu près 50 % de l'information est en trop c'est une des raisons pour lesquelles on peut compresser sans pertes des fichiers). L'entropie est une manière mathématique de formaliser cette intuition. L'entropie est maximale quand la représentation de l'information est minimale : c'est à dire quand l'information qu'on veut représenter est une suite aléatoire : on ne peut plus la compresser car elle n'a pas de structure. Par exemple pour te d'écrire le chiffre formé de 100000 de 7 je n'ai pas besoin d'écrire 100000 de 7 sur une feuille ce qui prend de la place. Avec 7 caractères j'y arrive. Par contre une suite de nombre aléatoire de 1000000 chiffres ne pourra se représenter qu'en écrivant cette suite de manière explicite. L'entropie des un millions de 7 est 6 ou 7 car juste avec 7 caractères je peux la représenter. L'entropie de la suite aléatoire sera elle égale à sa longueur (modulo codage).
Rincevent Posté 21 décembre 2018 Signaler Posté 21 décembre 2018 @Bisounours : c'est la quantité d'information nécessaire pour décrire tous les détails d'un système. On va prendre un exemple avec des images. Quand tu as un monochrome bleu de Klein, tu dis "bleu Pantone numéro tant, sur tant de centimètres par tant de centimètres", et tu as décrit tous les détails de l'image. Pour la Joconde, tu as des objets discernables, mais tu as aussi des aplats de couleurs, du coup tu as beaucoup plus à décrire, mais ça reste humain, parce que les objets n'ont pas des couleurs et des formes aléatoires, donc tu peux les décrire plus simplement qu'en décrivant chacun des points. Pour de la peinture de drogué un Jackson Pollock, c'est quasiment impossible de décrire l'intégralité du tableau autrement que "à telle position du tableau, tu as telle couleur sur tant de millimètres", et ce pour toutes les positions du tableau. Le tableau de Klein a une entropie minimale, la Joconde une entropie plus grande, et la toile pour drogués une entropie quasiment maximale. Edit : grillé par @Kassad ! 1
Rübezahl Posté 22 décembre 2018 Signaler Posté 22 décembre 2018 Il y a 12 heures, Bisounours a dit : Quelqu'un pour m'expliquer de façon simple ce qu'est l'entropie, plize ? j'ai été sur le oueb et j'avoue que c'est un peu confusionnant puisqu'il est question d'informatique, de maths, de médecine, d'univers...@Lancelot @Kassad @Rincevent copié/collé je ne sais plus où : La thermodynamique statistique a ensuite fourni un nouvel éclairage à cette grandeur physique abstraite : elle peut être interprétée comme la mesure du degré de désordre d'un système au niveau microscopique. Plus l'entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l'énergie inutilisable pour l'obtention d'un travail
Lancelot Posté 22 décembre 2018 Signaler Posté 22 décembre 2018 Pour compléter ce qui a déjà été dit la notion d'entropie, à l'instar par exemple de celle d'évolution, est un outil conceptuel fructueux pour envisager plein de phénomènes différents, ce qui explique pourquoi on la retrouve dans des disciplines diverses et variées.
ttoinou Posté 22 décembre 2018 Signaler Posté 22 décembre 2018 @Rübezahl ça contredit ta propre citation de René Thom
ttoinou Posté 22 décembre 2018 Signaler Posté 22 décembre 2018 il y a 17 minutes, Lancelot a dit : Pour compléter ce qui a déjà été dit la notion d'entropie, à l'instar par exemple de celle d'évolution, est un outil conceptuel fructueux pour envisager plein de phénomènes différents, ce qui explique pourquoi on la retrouve dans des disciplines diverses et variées. Yep. Je le redis, on peut probablement l'utiliser comme unité universelle au lieu de prendre la température par exemple. La puissance du truc.
POE Posté 22 décembre 2018 Signaler Posté 22 décembre 2018 Vos explications me paraissent plus compliquées que la question ! Sauf celle de frigo. Si l’entropie est une grandeur, quelle est l’unité de mesure ? Comment comparer l’entropie de deux systèmes ? Quelle est la relation entre l’entropie d’un système et la quantité d’énergie qu’il peut produire ?
Rübezahl Posté 22 décembre 2018 Signaler Posté 22 décembre 2018 Il y a 1 heure, ttoinou a dit : @Rübezahl ça contredit ta propre citation de René Thom Je serais intéressé à ce que tu pointes précisément la contradiction.
G7H+ Posté 22 décembre 2018 Signaler Posté 22 décembre 2018 L’entropie c’est un mot décrivant le déclin progressif de toute chose, de l’ordre vers le désordre. Des étoiles à ton tapis de bain, tout s’use et se décompose. 1
Bisounours Posté 22 décembre 2018 Signaler Posté 22 décembre 2018 Ah ouais, c'est pas simple, mais continuez, ça peut s'éclaircir, et merci pour les efforts les garçons
Tipiak Posté 22 décembre 2018 Signaler Posté 22 décembre 2018 Il y a 1 heure, Bisounours a dit : Ah ouais, c'est pas simple, mais continuez, ça peut s'éclaircir, et merci pour les efforts les garçons C'est pourtant simple, concentre toi un peu ! Plus sérieusement, pour faire très court, dans le monde physique (oublions l'informatique par exemple), c'est une mesure du désorde. Et il faut savoir qu'il y a une loi (physique toujours) qui dit que l'entropie ne fait qu'augmenter dans l'univers. Si tu as une pomme et une carotte, tu as peu de désordre. Si tu les mixes au mixeur, ça fait de la bouillie, tu as augmenté le désordre, donc l'entropie. Une loi dit que si tu attends assez longtemps, ta pomme et ta carotte vont se transformer spontanément en bouillie parce que le désordre ne fait qu'augmenter dans l'univers.
Rübezahl Posté 22 décembre 2018 Signaler Posté 22 décembre 2018 ... attention, car cette loi (2° principe de la thermodynamique) ne dit rien quant à la répartition du désordre. En particulier elle ne dit pas, ni ne sous-entend, que ce désordre serait réparti de manière homogène. Bref, rien n'interdit en théorie des îlots d'ordre au milieu d'une mer de désordre. (ça tombe bien, car c'est pile ce que l'on observe.) 1
frigo Posté 22 décembre 2018 Signaler Posté 22 décembre 2018 Quand je me met en couple j'ai le sentiment d'une très forte entropie. 2
ttoinou Posté 22 décembre 2018 Signaler Posté 22 décembre 2018 Il y a 8 heures, Rübezahl a dit : Je serais intéressé à ce que tu pointes précisément la contradiction. Citation Je cite explicitement René Thom : "En réalité, si on regarde de près la démonstration du second principe de la thermodynamique, il n'y a absolument rien qui permette d'affirmer que la variation de l'entropie soit nécessairement liée à une évolution vers un état chaotique." - René Thom (p. 41) Citation Quel était le sens de chaotique dans cette citation selon toi Citation Thom parle là d'état désordonné de la matière. Citation La thermodynamique statistique a ensuite fourni un nouvel éclairage à cette grandeur physique abstraite : elle peut être interprétée comme la mesure du degré de désordre d'un système au niveau microscopique. Plus l'entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l'énergie inutilisable pour l'obtention d'un travail Ceci dit la dernière partie est intéressante : un scientifique m'a dis une fois que l'augmentation de température ambiante (~= vitesse cinétique des molécules augmente ~= augmentation de l'entropie thermodynamique toute autre variable du gaz étant égale par ailleurs) est la forme la plus extrême de dégradation de l'énergie et qu'il est beaucoup plus difficile de la récupérer comparé aux autres formes d’énergie disponibles (travail dans la citation).
ttoinou Posté 22 décembre 2018 Signaler Posté 22 décembre 2018 Il y a 9 heures, POE a dit : Si l’entropie est une grandeur, quelle est l’unité de mesure ? Ben déjà je ne suis pas sûr qu'il y aie une définition universelle, il y a plusieurs définitions séparées discutées ici non ? Certains ici ont parlés de l'entropie de la théorie de l'information, d'autres de l'entropie thermodynamique. La première tu peux la calculer en Shannon (ou, suivre lien, autre unité équivalente qui font différer le X) avec la classique : Somme sur les états ( probabilité_de_l'état * logarithme base X ( probabilité_de_l'état ) ). Mais c'est probablement une "fausse" unité comme les radians Pour l'entropie thermodynamique dans des conditions idéales tu la relie à l'agitation moléculaire d'un gaz il me semble, donc la vitesse cinétique des molécules (mais attention chaque molécule a ses propres propriétés : https://en.wikipedia.org/wiki/Maxwell–Boltzmann_distribution ) L'unité que tu as dépends de ton système d'unités physique (pour celui qu'on utilise ça devrait être relié à la https://fr.wikipedia.org/wiki/Constante_de_BoltzmannConstante de Boltzmann )
Rübezahl Posté 23 décembre 2018 Signaler Posté 23 décembre 2018 Il y a 11 heures, ttoinou a dit : Ceci dit la dernière partie est intéressante : un scientifique m'a dis une fois que l'augmentation de température ambiante (~= vitesse cinétique des molécules augmente ~= augmentation de l'entropie thermodynamique toute autre variable du gaz étant égale par ailleurs) est la forme la plus extrême de dégradation de l'énergie et qu'il est beaucoup plus difficile de la récupérer comparé aux autres formes d’énergie disponibles (travail dans la citation). Cette ambiguïté est présente depuis le début de la discussion il y a quelques jours. Attention à ne pas confondre l'énergie-travail ("utile") et l'énergie dissipée, qui est de l'énergie "perdue" (ie qu'on ne sait pas convertir en travail utile) et toujours présente de manière incompressible. Dès qu'on met en place un système de récupération d'énergie qui produit un travail ... il y a toujours une fraction "dissipée" qui l'accompagne. Et ça, les savants y réfléchissent depuis la machine à vapeur. De manière générale, pour arriver à récupérer de l'énergie sous forme de travail, il faut quelle soit canalisée/vectorisée d'une façon ou d'une autre pour obtenir des vitesses (et un peu d'inertie) susceptibles d'entraîner des dispositifs macroscopiques. Le mouvement brownien est la parfaite antithèse de cela. Des particules qui s'agitent en tous sens, sans jamais ni se grouper, ni garder de direction constante pour commencer à emmagasiner d'énergie cinétique. L'histoire de la domestication du feu et de la métallurgie est passionnante. Comment, du feu en plein air, au feu en foyer, à la cheminée, au haut-fourneau, en allongeant le flux, mètre par mètre, on est parvenu à atteindre des températures de plus en plus élevées, et fondre à chaque fois de nouvelles catégories de matériaux. Un parfait exemple d'émergence d'un îlot de production d'ordre au milieu d'un ensemble désordonné (bois, charbon, air ambiant). 1
ttoinou Posté 23 décembre 2018 Signaler Posté 23 décembre 2018 Oui mais pourquoi ? Qu'est ce qui fait qu'il est plus facile de se servir du mouvement des électrons ou des photons que l'agitation moléculaire ? J'ai arrêté la physique avant d'éluder ce genre de questions
Rincevent Posté 23 décembre 2018 Signaler Posté 23 décembre 2018 Il y a 9 heures, ttoinou a dit : Oui mais pourquoi ? Qu'est ce qui fait qu'il est plus facile de se servir du mouvement des électrons ou des photons que l'agitation moléculaire ? J'ai arrêté la physique avant d'éluder ce genre de questions Parce que, pour ouvrir et fermer sa petite porte sélective, le démon de Maxwell utilise de l'énergie, donc augmente l'entropie ailleurs.
ttoinou Posté 23 décembre 2018 Signaler Posté 23 décembre 2018 Oui mais on pourrait imaginer qu'on voudrait récupérer l'énergie de la température thermodynamique et cela dissiperait de l’énergie électrique par exemple ? Même si on trouve qu'il existe une hiérarchie dans les qualités des différentes énergie, pourquoi celle thermodynamique serait tout en bas sans rien en dessous ?
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant