Brock Posté 11 octobre 2014 Signaler Posté 11 octobre 2014 Le 07/10/2014 à 12:35, Malky a dit : Un aimant qui accroche sur du plastique ? C'est une sorte de ventouse en fait, mais j'ai pas trop compris comment ça se fait qu'elle se détache aussi facilement quand on tire à la verticale. il y a une section dans la partie inferieure du mug, quand tu tires dessus ca deforme la ventouse et donc ca la libere
h16 Posté 11 octobre 2014 Auteur Signaler Posté 11 octobre 2014 Le 11/10/2014 à 12:58, Fenster a dit : Une puce qui s'autorefroiditouatte ze fucking fuck, ça m'a l'air bien comme idée.
Noob Posté 11 octobre 2014 Signaler Posté 11 octobre 2014 Ouep, mais si je me trompe pas ça ne change pas grand chose au limitations techniques liées à la fréquence non ? C'est pas parce que la puce pourrait supporter thermiquement de monter au delà de 6 ou 7 GHz que ça fonctionnerait non ? C'est sympa pour le refroidissement et la fiabilité des composants, mais pas révolutionnaire pour la puissance de calcul par cpu, si ? De mon cours d'électro il me semble me souvenir qu'il y avait une relation inverse entre la taille du transistor et la fréquence à laquelle on peut le faire fonctionner.
h16 Posté 11 octobre 2014 Auteur Signaler Posté 11 octobre 2014 Le 11/10/2014 à 15:27, noob a dit : Ouep, mais si je me trompe pas ça ne change pas grand chose au limitations techniques liées à la fréquence non ? C'est pas parce que la puce pourrait supporter thermiquement de monter au delà de 6 ou 7 GHz que ça fonctionnerait non ? C'est sympa pour le refroidissement et la fiabilité des composants, mais pas révolutionnaire pour la puissance de calcul par cpu, si ? De mon cours d'électro il me semble me souvenir qu'il y avait une relation inverse entre la taille du transistor et la fréquence à laquelle on peut le faire fonctionner. Heu. Disons que si tu as déjà vu passer les factures de refroidissement d'une salle machine, eh bien tu te dis que ce serait bien si...
Noob Posté 11 octobre 2014 Signaler Posté 11 octobre 2014 Le 11/10/2014 à 15:29, h16 a dit : Heu. Disons que si tu as déjà vu passer les factures de refroidissement d'une salle machine, eh bien tu te dis que ce serait bien si... Oui ok évidemment, j'ai déjà vu un cluster dans ma vie, mais si c'est pour se taper des machines qui font du 1GHz, c'est pas certain qu'on y gagne.
h16 Posté 11 octobre 2014 Auteur Signaler Posté 11 octobre 2014 Le 11/10/2014 à 15:50, noob a dit : Oui ok évidemment, j'ai déjà vu un cluster dans ma vie, mais si c'est pour se taper des machines qui font du 1GHz, c'est pas certain qu'on y gagne.Le coût d'un processeur supplémentaire, de nos jours, est faible. En revanche, l'espace pris (et l'infra autour) est coûteux à cause de la réfrigération notamment. Donc des procs qui se refroidissent tout seul, c'est une bonne chose parce que ça va diviser par plusieurs grandeurs le coût de calcul. Accessoirement, pense aussi à toutes les applications où actuellement, on est limité par la chaleur émise par le proc (espace confiné, typiquement). Actuellement, l'encombrement d'une carte graphique, d'un processeur vient de son système de refroidissement. Imagine le gain d'avoir un PC qui occupe l'équivalent d'un petit cube de 10 cm de côté, et dont le prix s'écroule parce qu'en terme d'ingénierie pour le concevoir, il n'y a plus ce besoin de faire circuler de l'air... Etc... Autrement dit, c'est la porte ouverte à des processeurs puissants dans des myriades d'endroits.
the_student Posté 11 octobre 2014 Signaler Posté 11 octobre 2014 Heu la chaleur va ou ? L'électron est refroidit mais pas la puce non ?
Noob Posté 11 octobre 2014 Signaler Posté 11 octobre 2014 Le 11/10/2014 à 21:01, h16 a dit : Le coût d'un processeur supplémentaire, de nos jours, est faible. En revanche, l'espace pris (et l'infra autour) est coûteux à cause de la réfrigération notamment. Donc des procs qui se refroidissent tout seul, c'est une bonne chose parce que ça va diviser par plusieurs grandeurs le coût de calcul. Accessoirement, pense aussi à toutes les applications où actuellement, on est limité par la chaleur émise par le proc (espace confiné, typiquement). Actuellement, l'encombrement d'une carte graphique, d'un processeur vient de son système de refroidissement. Imagine le gain d'avoir un PC qui occupe l'équivalent d'un petit cube de 10 cm de côté, et dont le prix s'écroule parce qu'en terme d'ingénierie pour le concevoir, il n'y a plus ce besoin de faire circuler de l'air... Etc... Autrement dit, c'est la porte ouverte à des processeurs puissants dans des myriades d'endroits. Bien sûr, mais je me posais la question des perfs car j'étais plus sûr. Il me semble que ça n'aura pas beaucoup d'influence de ce point de vue là, où plutôt marginale, ça permettra un overclock plus important because moins de chaleur, mais la limite théorique restera la même ? C'est quoi la fréquence théorique max des processeurs aujourd'hui ?
jubal Posté 12 octobre 2014 Signaler Posté 12 octobre 2014 Le 11/10/2014 à 21:01, h16 a dit : Le coût d'un processeur supplémentaire, de nos jours, est faible. En revanche, l'espace pris (et l'infra autour) est coûteux à cause de la réfrigération notamment. Donc des procs qui se refroidissent tout seul, c'est une bonne chose parce que ça va diviser par plusieurs grandeurs le coût de calcul. Autre solution: on peut aussi ne pas réfrigérer du tout, et plutôt utiliser la chaleur des CPU pour se chauffer: http://www.qarnot-computing.com/technology
WBell Posté 12 octobre 2014 Signaler Posté 12 octobre 2014 Le 11/10/2014 à 21:54, noob a dit : C'est quoi la fréquence théorique max des processeurs aujourd'hui ? Pour pouvoir comparer les différents technos et architectures, l fait regarder le nombres d'instructions par watt, plutôt.
neuneu2k Posté 12 octobre 2014 Signaler Posté 12 octobre 2014 J'aimerai également voir le bilan global, si c'est un moyen de transferer de la chaleur de façon très efficace, c'est déjà bien assez pour permettre les processeurs 3D, ce qui est de loin le plus important, encore bien plus que la baisse du cout d'exploitation ou de la consommation (et de la production de vilain CO2...), la limite à la scalabilité des solutions informatique, c'est la propagation du signal entre les composents, pas la fréquence de ceux-ci, ni d'ailleurs le rendement en bits/joule. Un processeur capable d'empiler des centaines de couches, si il peut évacuer correctement son énergie, si il faut à coté une tour de refroidissement à l'eau et une double pompe et qu'il suce 20kw, c'est pas un problème du tout, ça permet de résoudre des NOUVEAUX problemes, pas de résoudre moins cher des problèmes actuels. Edit: je pars du principe que le système à un comportement à grande échelle qui respecte les lois de la thermodynamique, si il y à exposition à grande échelle de l'effet quantique et que la réalité n'invente pas une fois de plus un moyen de violer la thermodynamique au niveau quantique sans jamais laisser les effets monter d'un étage, alors le refroidissement d'un processeur est une application secondaire et peu importante de leur machin, l'application primaire étant de mettre au placard des vielleries amusantes mais peu efficaces la fusion nucléaire
neuneu2k Posté 12 octobre 2014 Signaler Posté 12 octobre 2014 Le 12/10/2014 à 06:57, WBell a dit : Pour pouvoir comparer les différents technos et architectures, l fait regarder le nombres d'instructions par watt, plutôt. Franchement, c'est une mode, on regarde le nombre d'instruction par watt parce que c'est grosso merdo le seul facteur qu'on puisse optimiser une fois qu'un à atteint les limites de la lithographie 2D et qu'on est obligés de se limiter à des problèmes pour lesquels la paralellisation est triviale (aka: avec des working sets locaux et peu de transfert de données entre agents). Quand la seule option c'est de coller des hectares de CPU, les instructions par joules sont importantes, mais c'est un peu un objectif de "pauvre". Les datacenters, c'est pas le futur, c'est la meilleure solution qu'on ai trouvé pour continuer à monter, avec souffrance, depuis que Moore est Mort.
Noob Posté 12 octobre 2014 Signaler Posté 12 octobre 2014 Le 12/10/2014 à 17:05, neuneu2k a dit : J'aimerai également voir le bilan global, si c'est un moyen de transferer de la chaleur de façon très efficace, c'est déjà bien assez pour permettre les processeurs 3D, ce qui est de loin le plus important, encore bien plus que la baisse du cout d'exploitation ou de la consommation (et de la production de vilain CO2...), la limite à la scalabilité des solutions informatique, c'est la propagation du signal entre les composents, pas la fréquence de ceux-ci, ni d'ailleurs le rendement en bits/joule.C'est ce que je me demandais, n'y a-t-il pas un lien physique entre la taille du transistor et la fréquence à laquelle je peux l'exploiter ? Bon en y repensant aujourd'hui je me suis souvenu de ce proc que IBM a fait tourner à 500 GHz donc on doit pas être à cette limite là, c'est plutôt un problème thermique. Citation Un processeur capable d'empiler des centaines de couches, si il peut évacuer correctement son énergie, si il faut à coté une tour de refroidissement à l'eau et une double pompe et qu'il suce 20kw, c'est pas un problème du tout, ça permet de résoudre des NOUVEAUX problemes, pas de résoudre moins cher des problèmes actuels.Tout à fait¨ Le 12/10/2014 à 17:19, neuneu2k a dit : Les datacenters, c'est pas le futur, c'est la meilleure solution qu'on ai trouvé pour continuer à monter, avec souffrance, depuis que Moore est Mort.Pas tout à fait, on a toujours eu des data centers, même à la plus belle époque de la loi de Moore, c'est juste la catégorie de problèmes qui sont résolus par eux qui a changé au cours du temps. C'est pas le futur qui chante, mais comme ça a été le passé et le présent, ce sera aussi le futur tant que les humains auront assez d'imagination pour poser des problèmes complexes aux machines.
FabriceM Posté 12 octobre 2014 Signaler Posté 12 octobre 2014 Citation Une puce qui s'autorefroidit De ce que j'en comprends, il ne s'agit pas vraiment d'un autorefroidissement, mais d'une sélection à l'entrée des électrons "froids". Ca ne permettrait pas de faire des économies, ça délocaliserait seulement la dissipation, en l’occurrence dans les câbles d'entrée, qui devront faire circuler une intensité élevée pour qu'un petit flux d'électrons froids soigneusement sélectionnés puisse arriver dans le processeur. C'est sympa, mais d'un intérêt limité me semble-t-il.
FabriceM Posté 12 octobre 2014 Signaler Posté 12 octobre 2014 Le 12/10/2014 à 17:05, neuneu2k a dit : Un processeur capable d'empiler des centaines de couches, si il peut évacuer correctement son énergie, si il faut à coté une tour de refroidissement à l'eau et une double pompe et qu'il suce 20kw, c'est pas un problème du tout, ça permet de résoudre des NOUVEAUX problemes Tu aurais des exemples ?
Noob Posté 12 octobre 2014 Signaler Posté 12 octobre 2014 Réponse de l'à peu près théoricien facétieux, prend n'importe quel problème np-complet multiplie par 1.1 la taille que tu acceptais en entrée auparavant et hop tu peux dire que c'est un nouveau problème. Typiquement la simulation du cerveau c'est un truc qu'on essaie poussivement de réaliser, et on est loin d'être capable de le faire en temps réel.
DiabloSwing Posté 12 octobre 2014 Signaler Posté 12 octobre 2014 Le 11/10/2014 à 21:01, h16 a dit : Le coût d'un processeur supplémentaire, de nos jours, est faible. En revanche, l'espace pris (et l'infra autour) est coûteux à cause de la réfrigération notamment. Donc des procs qui se refroidissent tout seul, c'est une bonne chose parce que ça va diviser par plusieurs grandeurs le coût de calcul. Ca va aider la gauche dans sa quête de transition énergétique !
Rübezahl Posté 13 octobre 2014 Signaler Posté 13 octobre 2014 Fusion froide : le chat (E-Cat) est enfin sorti de sa boîte http://www.contrepoints.org/2014/10/13/184364-fusion-froide-le-chat-e-cat-est-enfin-sorti-de-sa-boite ... alors ce serait donc pas bidon ? (n'hésitez pas à déplacer ce post dans un fil plus approprié si nécessaire)
h16 Posté 13 octobre 2014 Auteur Signaler Posté 13 octobre 2014 Heu. J'aurais pris quelques précautions supplémentaires pour publier un tel article...
FabriceM Posté 13 octobre 2014 Signaler Posté 13 octobre 2014 http://www.liberaux.org/index.php/topic/34590-la-voiture-de-demain-energies-alternatives/?p=1160222 Je n'en reviens pas que la rédaction laisse dire que le dernier papier est une étude indépendante, alors que le compte rendu de l'expérience indique noir sur blanc que Rossi a largement contribué à l'expérience, et été l'acteur principal lors d'étapes essentielles. Voir mon commentaire qui cite le passage en question.
Malky Posté 13 octobre 2014 Signaler Posté 13 octobre 2014 C'est toujours la même clique à ce que je vois : universités de Bologne et d'Uppsala, plus un nouveau venu qu'ils ont du repêcher quelque part. Bref, à prendre avec des pincettes.
L'affreux Posté 13 octobre 2014 Signaler Posté 13 octobre 2014 Le 13/10/2014 à 06:18, Vincent Andrès a dit : ... alors ce serait donc pas bidon ? Juste à la lecture de l'article, on sait que c'est bidon. La culture du secret, le marketing de la rumeur ("Il en aurait déjà vendu une à la Navy américaine"), la conception empirique… Comme si "des centaines de combinaisons" suffisaient à trouver par hasard quelque chose qui marche. Quelques milliards à la rigueur, mais là… même lorsqu'une théorie indique exactement ce qu'on vise, il me semble que des centaines d'essais sont de mise. Si en plus l'information apportée par FabriceM est vraie, c'est plié de chez plié. Cela dit, ça fait rêver.
FabriceM Posté 13 octobre 2014 Signaler Posté 13 octobre 2014 http://newenergytimes.com/v2/sr/RossiECat/RossiTimeline.shtml L'historique des annonces de Rossi&Co. Edifiant. Un webmaster, d'un site appelé "e-cat news" a même déclaré en 2012 que l'e-cat était une arnaque. http://newenergytimes.com/v2/sr/RossiECat/docs/ECAT-PaulBurns-TheLieCat.pdf
Brock Posté 13 octobre 2014 Signaler Posté 13 octobre 2014 euhm oui mais alors comment il fait sortir le megawatt de son arnaque? ca pue l'arnaque effectivement mais je croyais ca plus facile de verifier une source d'energie si puissante?
neuneu2k Posté 13 octobre 2014 Signaler Posté 13 octobre 2014 J'estime très probable que ça soit bidon, mais pas certain. Si par miracle son machin marche, c’est le premier à prendre le risque d’acheter du vent à la place d’une centrale d’un MW qui pourra le prouver, rossi est trop louche pour autoriser une expérience en labo serieuse.
Brock Posté 13 octobre 2014 Signaler Posté 13 octobre 2014 ok, admettons que ce soit pas du pipo: comment Rossi peut-il proteger au mieux ses interets? ce qu'il fait en ce moment en fait-il partie? je dubite, au feeling je dirais qu'il a une tete d'arnaqueur.
Theor Posté 13 octobre 2014 Signaler Posté 13 octobre 2014 A noter quand même que contrairement aux charlatans typiques, Rossi est transparent sur sa machine, a publié les détails, répondu aux questions techniques, permis des audits indépendants, et n'a pas rempli de brevets pour lever des fonds sans rien montrer. Tout le contraire de ce que font les charlatans qui cherchent à gagner de l'argent avec du vent. Le 13/10/2014 à 12:30, neuneu2k a dit : Si par miracle son machin marche, c’est le premier à prendre le risque d’acheter du vent à la place d’une centrale d’un MW qui pourra le prouver, rossi est trop louche pour autoriser une expérience en labo serieuse. Le NASA et une entreprise japonaise (NEC il me semble) sont déjà dessus.
L'affreux Posté 13 octobre 2014 Signaler Posté 13 octobre 2014 Le 13/10/2014 à 12:17, JIM16 a dit : euhm oui mais alors comment il fait sortir le megawatt de son arnaque? ca pue l'arnaque effectivement mais je croyais ca plus facile de verifier une source d'energie si puissante? Facile : des extraterrestres sont venus le voir, lui ont donné une techno à laquelle il ne comprend rien, lui ont juste dit de l'emballer dans un paquet de PQ, et hop, ça marche. Je sors.
neuneu2k Posté 13 octobre 2014 Signaler Posté 13 octobre 2014 Le 13/10/2014 à 12:32, JIM16 a dit : ok, admettons que ce soit pas du pipo: comment Rossi peut-il proteger au mieux ses interets? ce qu'il fait en ce moment en fait-il partie? je dubite, au feeling je dirais qu'il a une tete d'arnaqueur. Moi aussi, je pense que c'est un type louche, avec un passif peu reluisant, et qu'il est malhonnete, ce qui ne prouve pas que c'est un hoax, mais donne d'excellentes raisons de le penser.
L'affreux Posté 13 octobre 2014 Signaler Posté 13 octobre 2014 Le 13/10/2014 à 12:30, neuneu2k a dit : Si par miracle son machin marche, c’est le premier à prendre le risque d’acheter du vent à la place d’une centrale d’un MW qui pourra le prouver, rossi est trop louche pour autoriser une expérience en labo serieuse. D'un autre côté, si même l'inventeur ne comprend pas comment son truc fonctionne, l'industrialiser reviendrait un peu trop à jouer à l'apprenti sorcier.
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant