Aller au contenu

Le fil des questions alakons


Fadior

Messages recommandés

Il y a 2 heures, NoName a dit :

ça dépend aussi de ton régime alimentaire. Quand je mangeais locarb, je me suis retrouvé à aller beaucoup moins souvent aux toilettes mais à chier des briques.

Faut manger plus gras et boire davantage. ;)

Lien vers le commentaire
il y a 6 minutes, NicolasB a dit :

Boire de l'eau hein? Ou du café... Mais pas d'alcool.

Indeed. Je n'ai pas d'idée sur les effets de l'éthanol quant au caca ; mais je sais que 1- ne pas assez boire d'eau mène à chier des briques, et 2- la caféine stimule le tonus des muscles chargés du transit intestinal (d'où les trois C du matin).

  • Yea 1
Lien vers le commentaire
il y a 1 minute, Bisounours a dit :

Je conseille l'eau avec du magnesium, genre Hépar, très efficace.

Oui, le magnésium, c'est bien pour les muscles comme pour le popo.

Lien vers le commentaire
  • 2 weeks later...
il y a 6 minutes, Bisounours a dit :

 

Quelqu'un pour m'expliquer de façon simple ce qu'est l'entropie, plize ? j'ai été sur le oueb et j'avoue que c'est un peu confusionnant puisqu'il est question d'informatique, de maths, de médecine, d'univers...:huh:@Lancelot  @Kassad

@Rincevent

Ton hamoniste préféré = discours de basse entropie
Tu peux prévoir ce qu'il dit dans le futur en l'ayant écouté parler 10 minutes

  • Huh ? 1
  • Haha 2
Lien vers le commentaire
1 hour ago, Bisounours said:

 

Quelqu'un pour m'expliquer de façon simple ce qu'est l'entropie, plize ? j'ai été sur le oueb et j'avoue que c'est un peu confusionnant puisqu'il est question d'informatique, de maths, de médecine, d'univers...:huh:@Lancelot  @Kassad

@Rincevent

L'entropie est une mesure de la quantité d'information. 

 

L'information est ce qui permet de réduire l'incertitude. L'exemple de base est le suivant : supposons que le jeu est de deviner un mot lettre par lettre. Au début du jeu tu as 0 informations. N'importe quelle lettre convient (en fait tu peux faire des statistiques sur le début de mots : plis de mots commencent par b que par  w il suffit de regarder un dictionnaire). Le jeu avançant le mot ne révèle petit à petit si le débit du mot est "anticonstitutionnellem" tu peux deviner sans te tromper la fin du mot qui sera "ent". Autrement dit les dernières lettres n'apportent aucune information car tu sais déjà lesquelles elles sont. Ce n'est pas inutile dans la vie de tous les jours car on peut avoir des conversations dans des endroits bruyants et donc la redondance information est utile (dans les langues naturelles a peu près 50 % de l'information est en trop c'est une des raisons pour lesquelles on peut compresser sans pertes des fichiers).

 

L'entropie est une manière mathématique de formaliser cette intuition. L'entropie est maximale quand la représentation de l'information est minimale : c'est à dire quand l'information qu'on veut représenter est une suite aléatoire : on ne peut plus la compresser car elle n'a pas de structure. 

 

Par exemple pour te d'écrire le chiffre formé de 100000 de 7 je n'ai pas besoin d'écrire 100000 de 7 sur une feuille ce qui prend de la place. Avec 7 caractères j'y arrive. Par contre une suite de nombre aléatoire de 1000000 chiffres ne pourra se représenter qu'en écrivant cette suite de manière explicite. L'entropie des un millions de 7 est 6 ou 7 car juste avec 7 caractères je peux la représenter. L'entropie de la suite aléatoire sera elle égale à sa longueur (modulo codage).

 

Lien vers le commentaire

@Bisounours : c'est la quantité d'information nécessaire pour décrire tous les détails d'un système. On va prendre un exemple avec des images.

 

Quand tu as un monochrome bleu de Klein, tu dis "bleu Pantone numéro tant, sur tant de centimètres par tant de centimètres", et tu as décrit tous les détails de l'image. Pour la Joconde, tu as des objets discernables, mais tu as aussi des aplats de couleurs, du coup tu as beaucoup plus à décrire, mais ça reste humain, parce que les objets n'ont pas des couleurs et des formes aléatoires, donc tu peux les décrire plus simplement qu'en décrivant chacun des points. Pour de la peinture de drogué un Jackson Pollock, c'est quasiment impossible de décrire l'intégralité du tableau autrement que "à telle position du tableau, tu as telle couleur sur tant de millimètres", et ce pour toutes les positions du tableau. Le tableau de Klein a une entropie minimale, la Joconde une entropie plus grande, et la toile pour drogués une entropie quasiment maximale.

 

Edit : grillé par @Kassad !

  • Yea 1
Lien vers le commentaire
Il y a 12 heures, Bisounours a dit :

 

Quelqu'un pour m'expliquer de façon simple ce qu'est l'entropie, plize ? j'ai été sur le oueb et j'avoue que c'est un peu confusionnant puisqu'il est question d'informatique, de maths, de médecine, d'univers...:huh:@Lancelot  @Kassad

@Rincevent

copié/collé je ne sais plus où :

La thermodynamique statistique a ensuite fourni un nouvel éclairage à cette grandeur physique abstraite : elle peut être interprétée comme la mesure du degré de désordre d'un système au niveau microscopique. Plus l'entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l'énergie inutilisable pour l'obtention d'un travail

 

Lien vers le commentaire

Pour compléter ce qui a déjà été dit la notion d'entropie, à l'instar par exemple de celle d'évolution, est un outil conceptuel fructueux pour envisager plein de phénomènes différents, ce qui explique pourquoi on la retrouve dans des disciplines diverses et variées.

Lien vers le commentaire
il y a 17 minutes, Lancelot a dit :

Pour compléter ce qui a déjà été dit la notion d'entropie, à l'instar par exemple de celle d'évolution, est un outil conceptuel fructueux pour envisager plein de phénomènes différents, ce qui explique pourquoi on la retrouve dans des disciplines diverses et variées.

Yep. Je le redis, on peut probablement l'utiliser comme unité universelle au lieu de prendre la température par exemple. La puissance du truc.

Lien vers le commentaire

Vos explications me paraissent plus compliquées que la question ! Sauf celle de frigo.

Si l’entropie est une grandeur, quelle  est l’unité de mesure ?

Comment comparer l’entropie de deux systèmes ?

Quelle est la relation entre l’entropie d’un système et la quantité d’énergie qu’il peut produire ?

Lien vers le commentaire
Il y a 1 heure, Bisounours a dit :

Ah ouais, c'est pas simple, mais continuez, ça peut s'éclaircir, et merci pour les efforts les garçons

C'est pourtant simple, concentre toi un peu !

Entropie.jpg

 

Plus sérieusement, pour faire très court, dans le monde physique (oublions l'informatique par exemple), c'est une mesure du désorde. Et il faut savoir qu'il y a une loi (physique toujours) qui dit que l'entropie ne fait qu'augmenter dans l'univers.

 

Si tu as une pomme et une carotte, tu as peu de désordre. Si tu les mixes au mixeur, ça fait de la bouillie, tu as augmenté le désordre, donc l'entropie. Une loi dit que si tu attends assez longtemps, ta pomme et ta carotte vont se transformer spontanément en bouillie parce que le désordre ne fait qu'augmenter dans l'univers.

Lien vers le commentaire

... attention, car cette loi (2° principe de la thermodynamique) ne dit rien quant à la répartition du désordre.

En particulier elle ne dit pas, ni ne sous-entend, que ce désordre serait réparti de manière homogène.

Bref, rien n'interdit en théorie des îlots d'ordre au milieu d'une mer de désordre.

(ça tombe bien, car c'est pile ce que l'on observe.)

  • Yea 1
Lien vers le commentaire
Il y a 8 heures, Rübezahl a dit :

Je serais intéressé à ce que tu pointes précisément la contradiction.

 

 

Citation

Je cite explicitement René Thom :

"En réalité, si on regarde de près la démonstration du second principe de la thermodynamique, il n'y a absolument rien qui permette d'affirmer que la variation de l'entropie soit nécessairement liée à une évolution vers un état chaotique." - René Thom (p. 41) 

 

Citation

Quel était le sens de chaotique dans cette citation selon toi

 

Citation

Thom parle là d'état désordonné de la matière.

 

 

 

 

 

Citation

La thermodynamique statistique a ensuite fourni un nouvel éclairage à cette grandeur physique abstraite : elle peut être interprétée comme la mesure du degré de désordre d'un système au niveau microscopique. Plus l'entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l'énergie inutilisable pour l'obtention d'un travail

 

 

Ceci dit la dernière partie est intéressante : un scientifique m'a dis une fois que l'augmentation de température ambiante (~= vitesse cinétique des molécules augmente ~= augmentation de l'entropie thermodynamique toute autre variable du gaz étant égale par ailleurs) est la forme la plus extrême de dégradation de l'énergie et qu'il est beaucoup plus difficile de la récupérer comparé aux autres formes d’énergie disponibles (travail dans la citation).

Lien vers le commentaire
Il y a 9 heures, POE a dit :

Si l’entropie est une grandeur, quelle  est l’unité de mesure ?

Ben déjà je ne suis pas sûr qu'il y aie une définition universelle, il y a plusieurs définitions séparées discutées ici non ? Certains ici ont parlés de l'entropie de la théorie de l'information, d'autres de l'entropie thermodynamique.

 

La première tu peux la calculer en Shannon (ou, suivre lien, autre unité équivalente qui font différer le X) avec la classique : Somme sur les états ( probabilité_de_l'état * logarithme base X ( probabilité_de_l'état ) ). Mais c'est probablement une "fausse" unité comme les radians

 

Pour l'entropie thermodynamique dans des conditions idéales tu la relie à l'agitation moléculaire d'un gaz il me semble, donc la vitesse cinétique des molécules (mais attention chaque molécule a ses propres propriétés : https://en.wikipedia.org/wiki/Maxwell–Boltzmann_distribution )

L'unité que tu as dépends de ton système d'unités physique (pour celui qu'on utilise ça devrait être relié à la https://fr.wikipedia.org/wiki/Constante_de_BoltzmannConstante de Boltzmann )

Lien vers le commentaire
Il y a 11 heures, ttoinou a dit :

Ceci dit la dernière partie est intéressante : un scientifique m'a dis une fois que l'augmentation de température ambiante (~= vitesse cinétique des molécules augmente ~= augmentation de l'entropie thermodynamique toute autre variable du gaz étant égale par ailleurs) est la forme la plus extrême de dégradation de l'énergie et qu'il est beaucoup plus difficile de la récupérer comparé aux autres formes d’énergie disponibles (travail dans la citation).

Cette ambiguïté est présente depuis le début de la discussion il y a quelques jours.

Attention à ne pas confondre l'énergie-travail ("utile") et l'énergie dissipée, qui est de l'énergie "perdue" (ie qu'on ne sait pas convertir en travail utile) et toujours présente de manière incompressible.

Dès qu'on met en place un système de récupération d'énergie qui produit un travail ... il y a toujours une fraction "dissipée" qui l'accompagne. Et ça, les savants y réfléchissent depuis la machine à vapeur.

 

De manière générale, pour arriver à récupérer de l'énergie sous forme de travail, il faut quelle soit canalisée/vectorisée d'une façon ou d'une autre pour obtenir des vitesses (et un peu d'inertie) susceptibles d'entraîner des dispositifs macroscopiques.

Le mouvement brownien est la parfaite antithèse de cela. Des particules qui s'agitent en tous sens, sans jamais ni se grouper, ni garder de direction constante pour commencer à emmagasiner d'énergie cinétique.

 

L'histoire de la domestication du feu et de la métallurgie est passionnante.

Comment, du feu en plein air, au feu en foyer, à la cheminée, au haut-fourneau, en allongeant le flux, mètre par mètre, on est parvenu à atteindre des températures de plus en plus élevées, et fondre à chaque fois de nouvelles catégories de matériaux.

Un parfait exemple d'émergence d'un îlot de production d'ordre au milieu d'un ensemble désordonné (bois, charbon, air ambiant).

 

  • Yea 1
Lien vers le commentaire
Il y a 9 heures, ttoinou a dit :

Oui mais pourquoi ? Qu'est ce qui fait qu'il est plus facile de se servir du mouvement des électrons ou des photons que l'agitation moléculaire ? J'ai arrêté la physique avant d'éluder ce genre de questions:(

Parce que, pour ouvrir et fermer sa petite porte sélective, le démon de Maxwell utilise de l'énergie, donc augmente l'entropie ailleurs.

Lien vers le commentaire

Oui mais on pourrait imaginer qu'on voudrait récupérer l'énergie de la température thermodynamique et cela dissiperait de l’énergie électrique par exemple ?

Même si on trouve qu'il existe une hiérarchie dans les qualités des différentes énergie, pourquoi celle thermodynamique serait tout en bas sans rien en dessous ?

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...