Aller au contenu

Le fil des questions alakons


Fadior

Messages recommandés

Posté

Ok merci, donc mon estimation est pas forcément fausse ^^ Tout s'explique. (Et je mange pas spécialement high ou low carb pour le moment, même si je crois que je suis spontanément plutôt low de ce que je comprends.)

Posté
  Le 08/12/2018 à 13:31, NoName a dit :

ça dépend aussi de ton régime alimentaire. Quand je mangeais locarb, je me suis retrouvé à aller beaucoup moins souvent aux toilettes mais à chier des briques.

Expand  

Faut manger plus gras et boire davantage. ;)

Posté
  Le 08/12/2018 à 19:40, NicolasB a dit :

Boire de l'eau hein? Ou du café... Mais pas d'alcool.

Expand  

Indeed. Je n'ai pas d'idée sur les effets de l'éthanol quant au caca ; mais je sais que 1- ne pas assez boire d'eau mène à chier des briques, et 2- la caféine stimule le tonus des muscles chargés du transit intestinal (d'où les trois C du matin).

  • Yea 1
Posté
  Le 08/12/2018 à 19:54, Bisounours a dit :

Je conseille l'eau avec du magnesium, genre Hépar, très efficace.

Expand  

Oui, le magnésium, c'est bien pour les muscles comme pour le popo.

  • 2 weeks later...
Posté
  Le 21/12/2018 à 19:18, Bisounours a dit :

 

Quelqu'un pour m'expliquer de façon simple ce qu'est l'entropie, plize ? j'ai été sur le oueb et j'avoue que c'est un peu confusionnant puisqu'il est question d'informatique, de maths, de médecine, d'univers...:huh:@Lancelot  @Kassad

@Rincevent

Expand  

Ton hamoniste préféré = discours de basse entropie
Tu peux prévoir ce qu'il dit dans le futur en l'ayant écouté parler 10 minutes

  • Huh ? 1
  • Haha 2
Posté
  Le 21/12/2018 à 19:18, Bisounours a dit :

 

Quelqu'un pour m'expliquer de façon simple ce qu'est l'entropie, plize ? j'ai été sur le oueb et j'avoue que c'est un peu confusionnant puisqu'il est question d'informatique, de maths, de médecine, d'univers...:huh:@Lancelot  @Kassad

@Rincevent

Expand  

L'entropie est une mesure de la quantité d'information. 

 

L'information est ce qui permet de réduire l'incertitude. L'exemple de base est le suivant : supposons que le jeu est de deviner un mot lettre par lettre. Au début du jeu tu as 0 informations. N'importe quelle lettre convient (en fait tu peux faire des statistiques sur le début de mots : plis de mots commencent par b que par  w il suffit de regarder un dictionnaire). Le jeu avançant le mot ne révèle petit à petit si le débit du mot est "anticonstitutionnellem" tu peux deviner sans te tromper la fin du mot qui sera "ent". Autrement dit les dernières lettres n'apportent aucune information car tu sais déjà lesquelles elles sont. Ce n'est pas inutile dans la vie de tous les jours car on peut avoir des conversations dans des endroits bruyants et donc la redondance information est utile (dans les langues naturelles a peu près 50 % de l'information est en trop c'est une des raisons pour lesquelles on peut compresser sans pertes des fichiers).

 

L'entropie est une manière mathématique de formaliser cette intuition. L'entropie est maximale quand la représentation de l'information est minimale : c'est à dire quand l'information qu'on veut représenter est une suite aléatoire : on ne peut plus la compresser car elle n'a pas de structure. 

 

Par exemple pour te d'écrire le chiffre formé de 100000 de 7 je n'ai pas besoin d'écrire 100000 de 7 sur une feuille ce qui prend de la place. Avec 7 caractères j'y arrive. Par contre une suite de nombre aléatoire de 1000000 chiffres ne pourra se représenter qu'en écrivant cette suite de manière explicite. L'entropie des un millions de 7 est 6 ou 7 car juste avec 7 caractères je peux la représenter. L'entropie de la suite aléatoire sera elle égale à sa longueur (modulo codage).

 

Posté

@Bisounours : c'est la quantité d'information nécessaire pour décrire tous les détails d'un système. On va prendre un exemple avec des images.

 

Quand tu as un monochrome bleu de Klein, tu dis "bleu Pantone numéro tant, sur tant de centimètres par tant de centimètres", et tu as décrit tous les détails de l'image. Pour la Joconde, tu as des objets discernables, mais tu as aussi des aplats de couleurs, du coup tu as beaucoup plus à décrire, mais ça reste humain, parce que les objets n'ont pas des couleurs et des formes aléatoires, donc tu peux les décrire plus simplement qu'en décrivant chacun des points. Pour de la peinture de drogué un Jackson Pollock, c'est quasiment impossible de décrire l'intégralité du tableau autrement que "à telle position du tableau, tu as telle couleur sur tant de millimètres", et ce pour toutes les positions du tableau. Le tableau de Klein a une entropie minimale, la Joconde une entropie plus grande, et la toile pour drogués une entropie quasiment maximale.

 

Edit : grillé par @Kassad !

  • Yea 1
Posté
  Le 21/12/2018 à 19:18, Bisounours a dit :

 

Quelqu'un pour m'expliquer de façon simple ce qu'est l'entropie, plize ? j'ai été sur le oueb et j'avoue que c'est un peu confusionnant puisqu'il est question d'informatique, de maths, de médecine, d'univers...:huh:@Lancelot  @Kassad

@Rincevent

Expand  

copié/collé je ne sais plus où :

La thermodynamique statistique a ensuite fourni un nouvel éclairage à cette grandeur physique abstraite : elle peut être interprétée comme la mesure du degré de désordre d'un système au niveau microscopique. Plus l'entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l'énergie inutilisable pour l'obtention d'un travail

 

Posté

Pour compléter ce qui a déjà été dit la notion d'entropie, à l'instar par exemple de celle d'évolution, est un outil conceptuel fructueux pour envisager plein de phénomènes différents, ce qui explique pourquoi on la retrouve dans des disciplines diverses et variées.

Posté
  Le 22/12/2018 à 11:35, Lancelot a dit :

Pour compléter ce qui a déjà été dit la notion d'entropie, à l'instar par exemple de celle d'évolution, est un outil conceptuel fructueux pour envisager plein de phénomènes différents, ce qui explique pourquoi on la retrouve dans des disciplines diverses et variées.

Expand  

Yep. Je le redis, on peut probablement l'utiliser comme unité universelle au lieu de prendre la température par exemple. La puissance du truc.

Posté

Vos explications me paraissent plus compliquées que la question ! Sauf celle de frigo.

Si l’entropie est une grandeur, quelle  est l’unité de mesure ?

Comment comparer l’entropie de deux systèmes ?

Quelle est la relation entre l’entropie d’un système et la quantité d’énergie qu’il peut produire ?

Posté

L’entropie c’est un mot décrivant le déclin progressif de toute chose, de l’ordre vers le désordre. Des étoiles à ton tapis de bain, tout s’use et se décompose.

  • Yea 1
Posté
  Le 22/12/2018 à 15:29, Bisounours a dit :

Ah ouais, c'est pas simple, mais continuez, ça peut s'éclaircir, et merci pour les efforts les garçons

Expand  

C'est pourtant simple, concentre toi un peu !

Entropie.jpg

 

Plus sérieusement, pour faire très court, dans le monde physique (oublions l'informatique par exemple), c'est une mesure du désorde. Et il faut savoir qu'il y a une loi (physique toujours) qui dit que l'entropie ne fait qu'augmenter dans l'univers.

 

Si tu as une pomme et une carotte, tu as peu de désordre. Si tu les mixes au mixeur, ça fait de la bouillie, tu as augmenté le désordre, donc l'entropie. Une loi dit que si tu attends assez longtemps, ta pomme et ta carotte vont se transformer spontanément en bouillie parce que le désordre ne fait qu'augmenter dans l'univers.

Posté

... attention, car cette loi (2° principe de la thermodynamique) ne dit rien quant à la répartition du désordre.

En particulier elle ne dit pas, ni ne sous-entend, que ce désordre serait réparti de manière homogène.

Bref, rien n'interdit en théorie des îlots d'ordre au milieu d'une mer de désordre.

(ça tombe bien, car c'est pile ce que l'on observe.)

  • Yea 1
Posté
  Le 22/12/2018 à 13:34, Rübezahl a dit :

Je serais intéressé à ce que tu pointes précisément la contradiction.

 

Expand  

 

  Citation

Je cite explicitement René Thom :

"En réalité, si on regarde de près la démonstration du second principe de la thermodynamique, il n'y a absolument rien qui permette d'affirmer que la variation de l'entropie soit nécessairement liée à une évolution vers un état chaotique." - René Thom (p. 41) 

Expand  

 

  Citation

Quel était le sens de chaotique dans cette citation selon toi

Expand  

 

  Citation

Thom parle là d'état désordonné de la matière.

Expand  

 

 

 

 

 

  Citation

La thermodynamique statistique a ensuite fourni un nouvel éclairage à cette grandeur physique abstraite : elle peut être interprétée comme la mesure du degré de désordre d'un système au niveau microscopique. Plus l'entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l'énergie inutilisable pour l'obtention d'un travail

Expand  

 

 

Ceci dit la dernière partie est intéressante : un scientifique m'a dis une fois que l'augmentation de température ambiante (~= vitesse cinétique des molécules augmente ~= augmentation de l'entropie thermodynamique toute autre variable du gaz étant égale par ailleurs) est la forme la plus extrême de dégradation de l'énergie et qu'il est beaucoup plus difficile de la récupérer comparé aux autres formes d’énergie disponibles (travail dans la citation).

Posté
  Le 22/12/2018 à 13:07, POE a dit :

Si l’entropie est une grandeur, quelle  est l’unité de mesure ?

Expand  

Ben déjà je ne suis pas sûr qu'il y aie une définition universelle, il y a plusieurs définitions séparées discutées ici non ? Certains ici ont parlés de l'entropie de la théorie de l'information, d'autres de l'entropie thermodynamique.

 

La première tu peux la calculer en Shannon (ou, suivre lien, autre unité équivalente qui font différer le X) avec la classique : Somme sur les états ( probabilité_de_l'état * logarithme base X ( probabilité_de_l'état ) ). Mais c'est probablement une "fausse" unité comme les radians

 

Pour l'entropie thermodynamique dans des conditions idéales tu la relie à l'agitation moléculaire d'un gaz il me semble, donc la vitesse cinétique des molécules (mais attention chaque molécule a ses propres propriétés : https://en.wikipedia.org/wiki/Maxwell–Boltzmann_distribution )

L'unité que tu as dépends de ton système d'unités physique (pour celui qu'on utilise ça devrait être relié à la https://fr.wikipedia.org/wiki/Constante_de_BoltzmannConstante de Boltzmann )

Posté
  Le 22/12/2018 à 22:20, ttoinou a dit :

Ceci dit la dernière partie est intéressante : un scientifique m'a dis une fois que l'augmentation de température ambiante (~= vitesse cinétique des molécules augmente ~= augmentation de l'entropie thermodynamique toute autre variable du gaz étant égale par ailleurs) est la forme la plus extrême de dégradation de l'énergie et qu'il est beaucoup plus difficile de la récupérer comparé aux autres formes d’énergie disponibles (travail dans la citation).

Expand  

Cette ambiguïté est présente depuis le début de la discussion il y a quelques jours.

Attention à ne pas confondre l'énergie-travail ("utile") et l'énergie dissipée, qui est de l'énergie "perdue" (ie qu'on ne sait pas convertir en travail utile) et toujours présente de manière incompressible.

Dès qu'on met en place un système de récupération d'énergie qui produit un travail ... il y a toujours une fraction "dissipée" qui l'accompagne. Et ça, les savants y réfléchissent depuis la machine à vapeur.

 

De manière générale, pour arriver à récupérer de l'énergie sous forme de travail, il faut quelle soit canalisée/vectorisée d'une façon ou d'une autre pour obtenir des vitesses (et un peu d'inertie) susceptibles d'entraîner des dispositifs macroscopiques.

Le mouvement brownien est la parfaite antithèse de cela. Des particules qui s'agitent en tous sens, sans jamais ni se grouper, ni garder de direction constante pour commencer à emmagasiner d'énergie cinétique.

 

L'histoire de la domestication du feu et de la métallurgie est passionnante.

Comment, du feu en plein air, au feu en foyer, à la cheminée, au haut-fourneau, en allongeant le flux, mètre par mètre, on est parvenu à atteindre des températures de plus en plus élevées, et fondre à chaque fois de nouvelles catégories de matériaux.

Un parfait exemple d'émergence d'un îlot de production d'ordre au milieu d'un ensemble désordonné (bois, charbon, air ambiant).

 

  • Yea 1
Posté

Oui mais pourquoi ? Qu'est ce qui fait qu'il est plus facile de se servir du mouvement des électrons ou des photons que l'agitation moléculaire ? J'ai arrêté la physique avant d'éluder ce genre de questions:(

Posté
  Le 23/12/2018 à 10:35, ttoinou a dit :

Oui mais pourquoi ? Qu'est ce qui fait qu'il est plus facile de se servir du mouvement des électrons ou des photons que l'agitation moléculaire ? J'ai arrêté la physique avant d'éluder ce genre de questions:(

Expand  

Parce que, pour ouvrir et fermer sa petite porte sélective, le démon de Maxwell utilise de l'énergie, donc augmente l'entropie ailleurs.

Posté

Oui mais on pourrait imaginer qu'on voudrait récupérer l'énergie de la température thermodynamique et cela dissiperait de l’énergie électrique par exemple ?

Même si on trouve qu'il existe une hiérarchie dans les qualités des différentes énergie, pourquoi celle thermodynamique serait tout en bas sans rien en dessous ?

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...