Aller au contenu

Les petites inventions qui font faire de grands bonds en avant


h16

Messages recommandés

Un aimant qui accroche sur du plastique ?  :icon_wink:

 

C'est une sorte de ventouse en fait, mais j'ai pas trop compris comment ça se fait qu'elle se détache aussi facilement quand on tire à la verticale.

il y a une section dans la partie inferieure du mug, quand tu tires dessus ca deforme la ventouse et donc ca la libere

Lien vers le commentaire

Ouep, mais si je me trompe pas ça ne change pas grand chose au limitations techniques liées à la fréquence non ?

C'est pas parce que la puce pourrait supporter thermiquement de monter au delà de 6 ou 7 GHz que ça fonctionnerait non ?

 

C'est sympa pour le refroidissement et la fiabilité des composants, mais pas révolutionnaire pour la puissance de calcul par cpu, si ?

De mon cours d'électro il me semble me souvenir qu'il y avait une relation inverse entre la taille du transistor et la fréquence à laquelle on peut le faire fonctionner.

Lien vers le commentaire

Ouep, mais si je me trompe pas ça ne change pas grand chose au limitations techniques liées à la fréquence non ?

C'est pas parce que la puce pourrait supporter thermiquement de monter au delà de 6 ou 7 GHz que ça fonctionnerait non ?

 

C'est sympa pour le refroidissement et la fiabilité des composants, mais pas révolutionnaire pour la puissance de calcul par cpu, si ?

De mon cours d'électro il me semble me souvenir qu'il y avait une relation inverse entre la taille du transistor et la fréquence à laquelle on peut le faire fonctionner.

Heu.

Disons que si tu as déjà vu passer les factures de refroidissement d'une salle machine, eh bien tu te dis que ce serait bien si...

Lien vers le commentaire

Heu.

Disons que si tu as déjà vu passer les factures de refroidissement d'une salle machine, eh bien tu te dis que ce serait bien si...

Oui ok évidemment, j'ai déjà vu un cluster dans ma vie, mais si c'est pour se taper des machines qui font du 1GHz, c'est pas certain qu'on y gagne.

Lien vers le commentaire

Oui ok évidemment, j'ai déjà vu un cluster dans ma vie, mais si c'est pour se taper des machines qui font du 1GHz, c'est pas certain qu'on y gagne.

Le coût d'un processeur supplémentaire, de nos jours, est faible. En revanche, l'espace pris (et l'infra autour) est coûteux à cause de la réfrigération notamment. Donc des procs qui se refroidissent tout seul, c'est une bonne chose parce que ça va diviser par plusieurs grandeurs le coût de calcul.

Accessoirement, pense aussi à toutes les applications où actuellement, on est limité par la chaleur émise par le proc (espace confiné, typiquement). Actuellement, l'encombrement d'une carte graphique, d'un processeur vient de son système de refroidissement. Imagine le gain d'avoir un PC qui occupe l'équivalent d'un petit cube de 10 cm de côté, et dont le prix s'écroule parce qu'en terme d'ingénierie pour le concevoir, il n'y a plus ce besoin de faire circuler de l'air... Etc... Autrement dit, c'est la porte ouverte à des processeurs puissants dans des myriades d'endroits.

Lien vers le commentaire

Le coût d'un processeur supplémentaire, de nos jours, est faible. En revanche, l'espace pris (et l'infra autour) est coûteux à cause de la réfrigération notamment. Donc des procs qui se refroidissent tout seul, c'est une bonne chose parce que ça va diviser par plusieurs grandeurs le coût de calcul.

Accessoirement, pense aussi à toutes les applications où actuellement, on est limité par la chaleur émise par le proc (espace confiné, typiquement). Actuellement, l'encombrement d'une carte graphique, d'un processeur vient de son système de refroidissement. Imagine le gain d'avoir un PC qui occupe l'équivalent d'un petit cube de 10 cm de côté, et dont le prix s'écroule parce qu'en terme d'ingénierie pour le concevoir, il n'y a plus ce besoin de faire circuler de l'air... Etc... Autrement dit, c'est la porte ouverte à des processeurs puissants dans des myriades d'endroits.

Bien sûr, mais je me posais la question des perfs car j'étais plus sûr.

Il me semble que ça n'aura pas beaucoup d'influence de ce point de vue là, où plutôt marginale, ça permettra un overclock plus important because moins de chaleur, mais la limite théorique restera la même ? C'est quoi la fréquence théorique max des processeurs aujourd'hui ?

Lien vers le commentaire

Le coût d'un processeur supplémentaire, de nos jours, est faible. En revanche, l'espace pris (et l'infra autour) est coûteux à cause de la réfrigération notamment. Donc des procs qui se refroidissent tout seul, c'est une bonne chose parce que ça va diviser par plusieurs grandeurs le coût de calcul.

 

Autre solution: on peut aussi ne pas réfrigérer du tout, et plutôt utiliser la chaleur des CPU pour se chauffer: http://www.qarnot-computing.com/technology

Lien vers le commentaire

J'aimerai également voir le bilan global, si c'est un moyen de transferer de la chaleur de façon très efficace, c'est déjà bien assez pour permettre les processeurs 3D, ce qui est de loin le plus important, encore bien plus que la baisse du cout d'exploitation ou de la consommation (et de la production de vilain CO2...), la limite à la scalabilité des solutions informatique, c'est la propagation du signal entre les composents, pas la fréquence de ceux-ci, ni d'ailleurs le rendement en bits/joule.

 

Un processeur capable d'empiler des centaines de couches, si il peut évacuer correctement son énergie, si il faut à coté une tour de refroidissement à l'eau et une double pompe et qu'il suce 20kw, c'est pas un problème du tout, ça permet de résoudre des NOUVEAUX problemes, pas de résoudre moins cher des problèmes actuels.

 

 

Edit: je pars du principe que le système à un comportement à grande échelle qui respecte les lois de la thermodynamique, si il y à exposition à grande échelle de l'effet quantique et que la réalité n'invente pas une fois de plus un moyen de violer la thermodynamique au niveau quantique sans jamais laisser les effets monter d'un étage, alors le refroidissement d'un processeur est une application secondaire et peu importante de leur machin, l'application primaire étant de mettre au placard des vielleries amusantes mais peu efficaces la fusion nucléaire :devil:

 

Lien vers le commentaire

Pour pouvoir comparer les différents technos et architectures, l fait regarder le nombres d'instructions par watt, plutôt.

 

Franchement, c'est une mode, on regarde le nombre d'instruction par watt parce que c'est grosso merdo le seul facteur qu'on puisse optimiser une fois qu'un à atteint les limites de la lithographie 2D et qu'on est obligés de se limiter à des problèmes pour lesquels la paralellisation est triviale (aka: avec des working sets locaux et peu de transfert de données entre agents).

 

Quand la seule option c'est de coller des hectares de CPU, les instructions par joules sont importantes, mais c'est un peu un objectif de "pauvre".

 

Les datacenters, c'est pas le futur, c'est la meilleure solution qu'on ai trouvé pour continuer à monter, avec souffrance, depuis que Moore est Mort.

Lien vers le commentaire

J'aimerai également voir le bilan global, si c'est un moyen de transferer de la chaleur de façon très efficace, c'est déjà bien assez pour permettre les processeurs 3D, ce qui est de loin le plus important, encore bien plus que la baisse du cout d'exploitation ou de la consommation (et de la production de vilain CO2...), la limite à la scalabilité des solutions informatique, c'est la propagation du signal entre les composents, pas la fréquence de ceux-ci, ni d'ailleurs le rendement en bits/joule.

C'est ce que je me demandais, n'y a-t-il pas un lien physique entre la taille du transistor et la fréquence à laquelle je peux l'exploiter ?

Bon en y repensant aujourd'hui je me suis souvenu de ce proc que IBM a fait tourner à 500 GHz donc on doit pas être à cette limite là, c'est plutôt un problème thermique.

 

Un processeur capable d'empiler des centaines de couches, si il peut évacuer correctement son énergie, si il faut à coté une tour de refroidissement à l'eau et une double pompe et qu'il suce 20kw, c'est pas un problème du tout, ça permet de résoudre des NOUVEAUX problemes, pas de résoudre moins cher des problèmes actuels.

Tout à fait¨

Les datacenters, c'est pas le futur, c'est la meilleure solution qu'on ai trouvé pour continuer à monter, avec souffrance, depuis que Moore est Mort.

Pas tout à fait, on a toujours eu des data centers, même à la plus belle époque de la loi de Moore, c'est juste la catégorie de problèmes qui sont résolus par eux qui a changé au cours du temps. C'est pas le futur qui chante, mais comme ça a été le passé et le présent, ce sera aussi le futur tant que les humains auront assez d'imagination pour poser des problèmes complexes aux machines.
Lien vers le commentaire

 

De ce que j'en comprends, il ne s'agit pas vraiment d'un autorefroidissement, mais d'une sélection à l'entrée des électrons "froids".

Ca ne permettrait pas de faire des économies, ça délocaliserait seulement la dissipation, en l’occurrence dans les câbles d'entrée, qui devront faire circuler une intensité élevée pour qu'un petit flux d'électrons froids soigneusement sélectionnés puisse arriver dans le processeur.

 

C'est sympa, mais d'un intérêt limité me semble-t-il.

Lien vers le commentaire

Un processeur capable d'empiler des centaines de couches, si il peut évacuer correctement son énergie, si il faut à coté une tour de refroidissement à l'eau et une double pompe et qu'il suce 20kw, c'est pas un problème du tout, ça permet de résoudre des NOUVEAUX problemes

 

Tu aurais des exemples ?

 

Lien vers le commentaire

Réponse de l'à peu près théoricien facétieux, prend n'importe quel problème np-complet multiplie par 1.1 la taille que tu acceptais en entrée auparavant et hop tu peux dire que c'est un nouveau problème.

Typiquement la simulation du cerveau c'est un truc qu'on essaie poussivement de réaliser, et on est loin d'être capable de le faire en temps réel.

Lien vers le commentaire

Le coût d'un processeur supplémentaire, de nos jours, est faible. En revanche, l'espace pris (et l'infra autour) est coûteux à cause de la réfrigération notamment. Donc des procs qui se refroidissent tout seul, c'est une bonne chose parce que ça va diviser par plusieurs grandeurs le coût de calcul.

 

Ca va aider la gauche dans sa quête de transition énergétique !

Lien vers le commentaire

http://www.liberaux.org/index.php/topic/34590-la-voiture-de-demain-energies-alternatives/?p=1160222

 

Je n'en reviens pas que la rédaction laisse dire que le dernier papier est une étude indépendante, alors que le compte rendu de l'expérience indique noir sur blanc que Rossi a largement contribué à l'expérience, et été l'acteur principal lors d'étapes essentielles.

 

Voir mon commentaire qui cite le passage en question.

Lien vers le commentaire

... alors ce serait donc pas bidon ?

Juste à la lecture de l'article, on sait que c'est bidon. La culture du secret, le marketing de la rumeur ("Il en aurait déjà vendu une à la Navy américaine"), la conception empirique… Comme si "des centaines de combinaisons" suffisaient à trouver par hasard quelque chose qui marche. Quelques milliards à la rigueur, mais là… même lorsqu'une théorie indique exactement ce qu'on vise, il me semble que des centaines d'essais sont de mise.

Si en plus l'information apportée par FabriceM est vraie, c'est plié de chez plié.

Cela dit, ça fait rêver.

Lien vers le commentaire

J'estime très probable que ça soit bidon, mais pas certain.

Si par miracle son machin marche, c’est le premier à prendre le risque d’acheter du vent à la place d’une centrale d’un MW qui pourra le prouver, rossi est trop louche pour autoriser une expérience en labo serieuse.

Lien vers le commentaire

A noter quand même que contrairement aux charlatans typiques, Rossi est transparent sur sa machine, a publié les détails, répondu aux questions techniques, permis des audits indépendants, et n'a pas rempli de brevets pour lever des fonds sans rien montrer. Tout le contraire de ce que font les charlatans qui cherchent à gagner de l'argent avec du vent.

 

 

Si par miracle son machin marche, c’est le premier à prendre le risque d’acheter du vent à la place d’une centrale d’un MW qui pourra le prouver, rossi est trop louche pour autoriser une expérience en labo serieuse.

 

Le NASA et une entreprise japonaise (NEC il me semble) sont déjà dessus.

Lien vers le commentaire

euhm oui mais alors comment il fait sortir le megawatt de son arnaque? ca pue l'arnaque effectivement mais je croyais ca plus facile de verifier une source d'energie si puissante?

Facile : des extraterrestres sont venus le voir, lui ont donné une techno à laquelle il ne comprend rien, lui ont juste dit de l'emballer dans un paquet de PQ, et hop, ça marche.

Je sors.

Lien vers le commentaire

ok, admettons que ce soit pas du pipo: comment Rossi peut-il proteger au mieux ses interets? ce qu'il fait en ce moment en fait-il partie? je dubite, au feeling je dirais qu'il a une tete d'arnaqueur.

Moi aussi, je pense que c'est un type louche, avec un passif peu reluisant, et qu'il est malhonnete, ce qui ne prouve pas que c'est un hoax, mais donne d'excellentes raisons de le penser.

Lien vers le commentaire

Si par miracle son machin marche, c’est le premier à prendre le risque d’acheter du vent à la place d’une centrale d’un MW qui pourra le prouver, rossi est trop louche pour autoriser une expérience en labo serieuse.

D'un autre côté, si même l'inventeur ne comprend pas comment son truc fonctionne, l'industrialiser reviendrait un peu trop à jouer à l'apprenti sorcier.

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...