didine Posté 31 octobre 2006 Signaler Posté 31 octobre 2006 Où en sont les logiciels de traduction ? Si ils ne sont pas encore au point, dans combien de temps peut-on s'attendre à quelque chose de valable ?A côté de ça, qu'en est-il de la reconnaissance vocale ? Ces questions sont importantes dans le cadre de la promotion du libéralisme. Rien ne vaux le bon gros vieux dictionnaire car c'est avec lui qu'on a le plus de chance de trouver les bonnes traductions et non avec des logiciels qui ne traduisent pas toutes les nuances des mots.
h16 Posté 31 octobre 2006 Signaler Posté 31 octobre 2006 Reference idiote a une pub mercurochrome qui courut en France ou la sequence slogan etait repete deux fois de suite a la fin… sans doute pour marquer les esprits…http://www.google.com/search?q=%22mercu…ros%22&btnG=Search Ah ok. Ca tombe à l'eau avec les editions ultérieures. Bien tenté.
A.B. Posté 31 octobre 2006 Signaler Posté 31 octobre 2006 Rien ne vaux le bon gros vieux dictionnaire car c'est avec lui qu'on a le plus de chance de trouver les bonnes traductions et non avec des logiciels qui ne traduisent pas toutes les nuances des mots. http://www.wordreference.com/ que du bonheur… le forum donne une reponse en moins de 5 minutes en general.
Invité jabial Posté 1 novembre 2006 Signaler Posté 1 novembre 2006 Etonnant. Avec Thunderbird, ça marche tout seul. Et pour le moment, en plusieurs années, 0 faux positifs… ? Tu ne dois pas recevoir autant de spams que moi. Je reçois en ce moment (ça a été plus à une époque) 40 mails légitimes par jour, dont en moyenne 5 ou 6 mails personnels, 20 mails de listes de discussion et et 14-15 publicités sollicités et autres nouveautés. Environ 60 spams par contre. Il y a un an, à cause du volume des mails de listes de discussion, j'en étais à 100 mails légitimes par jour. Je reçois environ 50-60 spams par jour. Il y a un an, à cause du forwarding d'une ancienne adresse maintenant détruite, je recevais 200 spams par jour. Enfin bref, j'ai deux filtrages successifs : celui de spamcop et celui de thunderbird. Parmi mes spams, 90% sont filtrés par spamcop, mais en contrepartie, il y a souvent (deux ou trois fois par mois) un ou plusieurs faux positifs. A l'étape du filtrage par thunderbird, c'est le contraire : généralement seule une grosse moitié de mes spams est éliminée, par contre je n'ai eu que deux faux positifs en deux ans.
melodius Posté 1 novembre 2006 Signaler Posté 1 novembre 2006 Je crois que j'ai la clé du mystère; ce n'est pas Evolution (sous Xandros BE3) qui merde, c'est l'antispam de notre provider…
h16 Posté 1 novembre 2006 Signaler Posté 1 novembre 2006 Tu ne dois pas recevoir autant de spams que moi. Je reçois en ce moment (ça a été plus à une époque) 40 mails légitimes par jour, dont en moyenne 5 ou 6 mails personnels, 20 mails de listes de discussion et et 14-15 publicités sollicités et autres nouveautés. Environ 60 spams par contre.Il y a un an, à cause du volume des mails de listes de discussion, j'en étais à 100 mails légitimes par jour. Je reçois environ 50-60 spams par jour. Il y a un an, à cause du forwarding d'une ancienne adresse maintenant détruite, je recevais 200 spams par jour. Enfin bref, j'ai deux filtrages successifs : celui de spamcop et celui de thunderbird. Parmi mes spams, 90% sont filtrés par spamcop, mais en contrepartie, il y a souvent (deux ou trois fois par mois) un ou plusieurs faux positifs. A l'étape du filtrage par thunderbird, c'est le contraire : généralement seule une grosse moitié de mes spams est éliminée, par contre je n'ai eu que deux faux positifs en deux ans. Etrange. Je reçois 200 à 250 spams par jour correctement filtrés par Thunderbird, et une 50aine de mails légitimes (j'ai 6 ou 7 adresses différentes). Pour le moment, je n'ai pas eu de problème. Il est à noter que ce sont des stats que j'ai observés sur d'autres postes de travail (avec des volumes encore plus importants de personnes ne travaillant que par mail). Etrange x2.
pankkake Posté 1 novembre 2006 Signaler Posté 1 novembre 2006 J'utilise Spamcop (leur service gratuit de DNSBL, à utiliser avec un logiciel capable donc), mais surtout comme indication supplémentaire (et je fais de temps en temps des rapports en renvoyant mes spams qu'il ne détecte pas), mais leur méthode* est loin de se suffire à elle-même. * Il s'agit en gros une blacklist sur les adresses IP des envoyeurs.
Yozz Posté 5 novembre 2006 Signaler Posté 5 novembre 2006 Juste pour rigoler, les stats de mon courrier perso. Statistiques pour la semaine du 28 octobre au 04 novembre Total Average Number Folder —-- ——- —— —— 0 0 845 ## diagnostic messages ## 523320 18690 28 /home/yozz/Mail/cron 40303 20151 2 /home/yozz/Mail/debian 687671 38203 18 /home/yozz/Mail/free 6511 6511 1 /home/yozz/Mail/gpl 2785967 8900 313 /home/yozz/Mail/junk 501428 4249 118 /home/yozz/Mail/liberaux 2887 2887 1 /home/yozz/Mail/mailstats 3943276 32059 123 /home/yozz/Mail/yozz 2186402 104114 21 /usr/sbin/sendmail -oi ycXXXXXX —-- ——- —— 10677765 7263 1470 ———————-- Main account volume = 36% Main account numbers = 19% ———————-- Cath volume = 20% Cath numbers = 3% ———————-- Free account volume = 6% Free account numbers = 2% ———————-- Liberaux volume = 4% Liberaux numbers = 18% ———————-- Cron volume = 4% Cron numbers = 4% ———————-- Junk volume = 26% Junk numbers = 50% Spamassassin, bine configuré (c'est-à-dire qu'on continue de lui apprendre des trucs continuellement) ne laisse que très peu passer. Chez moi, 5 ou 6 spams passent par semaine (alors qu'en une semaine j'en reçois aux alentours de 300…), et je n'ai encore eu qu'un seul cas de faux positif, qui était assez légitime (un petit malin qui modifiait ses en-têtes). Spamassassin rulez, mais ne sert à rien si on lui donne pes des cours régulièrement.
Fredo Posté 1 décembre 2006 Signaler Posté 1 décembre 2006 Rien ne vaux le bon gros vieux dictionnaire car c'est avec lui qu'on a le plus de chance de trouver les bonnes traductions et non avec des logiciels qui ne traduisent pas toutes les nuances des mots. Et le cerveau correctement configuré et patché qui va avec.
toccata Posté 2 décembre 2006 Signaler Posté 2 décembre 2006 Il y a trois niveau de logiciel de traduction. 1) le grand public. par exemple http://babelfish.altavista.com. Ces logiciels sont rapides (execution instantanée) mais ne permettent que de déchiffrer le sens général d'un texte. La qualité de la traduction est faible. 2) professionnel. Il s'agit de logiciels qui poussent l'analyse grammatical assez loin pour tenter de deviner le sens et proposer une traduction adéquat. Ces logiciels ont presque obligatoirement des défaillances à cause des ambiguïtés des langages courants. Cela étant, la qualité de traduction peut être suffisament bonne pour offrir un simple travail de relecture au traducteur. En conclusion, ces logiciels, assez chers (quelques milliers d'euros), servent à accélerer le processus de traduction par les traducteurs (humains ceux-ci). 3) industriel, principalement dans l'aeronautique. Ici on est dans des logiciels à plusieurs millions d'euros. Le but est d'effecteur une traduction technique dans toute les langues des clients. Le contexte réduit très fortement les possibilités d'ambiguïté. De plus des instructions sont données aux ingénieurs sur la façon de rédiger les notices, afin de lever au maximum les risques ambiguïtés et afin de faciliter la traduction automatique.
Invité jabial Posté 4 décembre 2006 Signaler Posté 4 décembre 2006 2) professionnel. Il s'agit de logiciels qui poussent l'analyse grammatical assez loin pour tenter de deviner le sens et proposer une traduction adéquat. Ces logiciels ont presque obligatoirement des défaillances à cause des ambiguïtés des langages courants. Cela étant, la qualité de traduction peut être suffisament bonne pour offrir un simple travail de relecture au traducteur. En conclusion, ces logiciels, assez chers (quelques milliers d'euros), servent à accélerer le processus de traduction par les traducteurs (humains ceux-ci). C'est ça que j'ai, et ça s'appelle un logiciel d'aide à la traduction d'ailleurs. Ca raccourcit énormément le travail, mais ça ne le fait pas à notre place.
Fredo Posté 16 décembre 2006 Signaler Posté 16 décembre 2006 C'est ça que j'ai, et ça s'appelle un logiciel d'aide à la traduction d'ailleurs. Ca raccourcit énormément le travail, mais ça ne le fait pas à notre place. +1. Ne serait-ce que pour le travail de "saisie".
ULYSSE Posté 17 décembre 2006 Signaler Posté 17 décembre 2006 Pour qu'un ordinateur comprenne vraiment un langage, il faudrait qu'il devienne presque "intelligent" et il y a beaucoup de chemin à faire (et ce n'est pas un problème de performances !). c'est un peu la même chose avec les secrétaires bilingues. Elles ne comprennent pas tout le langage intelligent, mais ne serait-ce que pour le travail de saisie ça fait gagner du temps.
xavdr Posté 17 décembre 2006 Signaler Posté 17 décembre 2006 En ce qui concerne la reconnaissance de la parole : Les logiciels à usage professionnels existent, et nous en rencontrons régulièrement. Les médecins ont des dictaphones avec transcription automatique, les servives téléphoniques des agences bancaires proposent des aiguillages par reconnaissance de mots clés, etc. Nous n'en sommes pas encore au logiciel parfait, loins s'en faut, mais cela avance régulièrement. Plusieurs niveaux de traitement, chacun avec ses difficultés : - acquisition : fréquence, amplitude, finesse, normalisation, directionnelle - prétraitement accoustique : spectrogrammes, ondelettes, prédictif linéaire, bancs de filtres, cepstres… - décodage accoustique : identification de mots ou de composants (phonémes, halophones, triphones) avec des varaintes selon : ) - bruit, échos etc. ) - locuteur : unique, en petit nombre, universel (caracéristiques organiques : bouche, nez, cordes vocales, etc.) ) - intonation : régulière, montante, descendante, etc. ) - prononciation : soignée, normale, chants, murmures, grognements, cris, essoufflement, accent… - assemblage phonique (séquences phonémique, halophonique, triphonique, etc.) - vocabulaire : réduit, compact, large, illimité - syntaxe : stricte, correcte, déstructurée - sémantique : spécifique, générique - pragmatique : relations humaines, etc. L'acquisition est un problème réglé depuis longtemps, avec toutefois quelques ouvertures complémentaires e.g. concernant les traitements directionnels, permetant e.g. de se focaliser sur une source ayant une localisation spatiale précise, ce qui est utile pour écouter quelqu'un au milieu du brouhaha d'une réunion où tout le monde parle. En pratique, la parole est stockable de façon compréhensible avec un échantillonnage de 8 KHz, ou plutot de 16 KHz, codé de façon exponentielle (ou quelque chose qui y ressemble) sur 8 bits, ou plutot 16 bits. Le signal prend alors la forme d'une suite de nombres, représentant la pression qui traverse l'air du fait du son. Les sons graves ont une forte amplitude, les sons aigus forment des micro-variations autour de la porteuse qu'ils constituent, parsémée de chocs (soit d'authentiques chocs, soit des plosives "p" "k" "t" etc.). Aussi on choisit presque toujours de prétraiter ce signal, par exemple sous la forme de spectrogrammes fréquentiels (ou bien analytiques prédictifs linéaires ou encore issus d'ondelettes) qui donnent une image 2D avec niveau de gris ou 3D simple avec pour dimensions : temps, e.g. fréquence (graves en bas, aigues en haut, souvent regroupées selon une échelle exponentielle puisque l'oreille et les langages humains différentient peu les hautes fréquences) et intensité (cette dernière étant souvent rendue sous la forme d'un niveau de gris). Ces prétraitements visent à effectuer un travail similaire à celui de l'oreille interne, mais celle-ci dispose de subtilités non reproduites par les logiciels au début des années 2000 : tension des récepteurs (des sortes de petits poils !) permettant de s'ajuster à la voie d'un locuteur, optimisation stéréo, etc. Le décodage accoustique est la partie à laquelle tout le monde pense quand on parle de reconnaissance du message parlé. A ce stade, il y a de nombreuses subtilités. Par exemple, beaucoup de "sons" que nous "entendons" ne sont pas directement présents dans le signal sonore, mais sont plutôt impulsés sans être présents. Par exemple, quand je dis "par exemple", il y a une forte chance pour que l'explosion du "p" ne soit pas réellement présente, mais le "em" et le "l" qui l'entourent sont infléchis comme si l'explosion allait effectivement avoir lieu et cela suffit pour qu'un interlocuteur l'"entende"… Les variabilités d'un locuteur à l'aute, d'un contexte de prononciation à l'autre sont telles qu'on ne peut pas se contenter d'un mapping brutal d'une image 2D+1 à l'autre. En pratique, on essaye, si possible avec un ajustement au locuteur courant, de faire des mappings vers un vocabulaire très limité, et, pour les vocabulaires importants, vers un niveau intermédiaire : phonèmes, halophones, triphones…, ce qui permet d'avoir quelques dizaines de cibles vers lesquelles projeter chaque section temporelle de l'image. Cette phase recoure à des techniques telles que les probabilités baysiennes ou les "réseaux de neurones" de type "perceptron multi-couche à poids partagés TDNN, ou récurrents". On obtient alors un graphe du type segment temporel X classe X probabilité. On cherche au sein de ce graphe le chemin ou l'ensemble de chemins porteurs du (des ?) sens le plus vraisemblable(s). A ce stade, les niveaux lexicaux, syntaxiques, sémantiques, pragmatiques interviennent. La phase lexicale recoure à des techniques telles que la programmation dynamique (algorithme d'optimisation de chemins dans des graphes se contentant d'un unique passage en revue du graphe) ou plutôt les modèles de Markov cachés qui sont des automates probabilistes à deux niveaux (séquences et émission). Mis à part le fait de gérer en parrallèle de nombreuses hypothèses issues de la phase de décodage accoustique, les autres niveaux de cette phase reposent sur des méthodes similaires à celles des systèmes de traduction écrites automatique. Dans les années 1990 les niveaux acoustiques et lexicaux étaient souvent fondus en un seul système, mais cela traduisait une volonté d'intégration totale à un stade rudimentaire (mais déjà diabolique !!!) de la technologie. Les techniques mises en oeuvre pour les phases de décodage accoustique et linguistiques sont des techniques d'apprentissage automatique a posteriori sur la base de structures a priori. L'apprentissage automatique, et les tests en laboratoires, necessitent des bases de données d'exemples qui peuvent (doivent ?) être énormes. Un enfant apprend à comprendre en plusieurs années, alors qu'il entend plusieurs heures par jour la parole humaine. Concrètement, les logiciels sont de plus en plus performants face aux perturbations de la vie courante (bruit, etc.), à la variété des locuteurs, et à la perplexité (nombre de possiblités envisageables à chaque étape), mais il y encore du chemin à faire. L'intégration des différents niveaux a beaucoup progressé depuis la fin des années 1990, permettant des gains spectaculaires sur le résultat final. Cette intégration va jusqu'à engendrer des feed-back d'un module sur le(s) module(s) qui le précède. Dans l'idéal, ce type de feed-back a vocation à parcourir toute la chaîne de traitement, de la pragmatique vers l'accoustique voire vers l'acquisition. Il y a donc des progrès considérables à attendre dans les années à venir du fait de la progression de cette intégration, liée à la puissance de calcul, à l'intelligence des algorithmes, à la modélisation du langage, à l'ampleur des bases de données d'apprentissage.
xavdr Posté 17 décembre 2006 Signaler Posté 17 décembre 2006 Au delà de la seule traduction automatique et de la reconniassance du message parlé, mon pronostic : en 2050, le robot équivalent humain (2040 : brute épaisse, 2060 : génie ?). Pas encore empatique, d'où une pragmatique légèrement incomplète, et d'un physique inhumain, mais aussi performant qu'un être humain pour toutes les tâches non spécifiquement humaines, et presque aussi performant que l'être humain pour la grande majorité des tâches humaines. LA singularité historique.
A.B. Posté 17 décembre 2006 Signaler Posté 17 décembre 2006 presque aussi performant que l'être humain pour la grande majorité des tâches humaines. Y compris la création d'IA LA singularité historique. voilà :-)
Rincevent Posté 17 décembre 2006 Signaler Posté 17 décembre 2006 @ xavdr et A.B. : Mouais. Faudrait d'abord que les fondeurs de silicium trouvent comment briser le plancher des 10 nm. Et les pertes quantiques commençant à se faire sentir, les ingénieurs des bureaux d'études s'arrachent les cheveux depuis quelques années pour trouver comment les éviter ou les pallier. Plus que quatre à six années, et il leur faudra changer complètement de technologie. Le futur est décidément un endroit passionnant.
toccata Posté 17 décembre 2006 Signaler Posté 17 décembre 2006 Au delà de la seule traduction automatique et de la reconniassance du message parlé, mon pronostic : en 2050, le robot équivalent humain (2040 : brute épaisse, 2060 : génie ?). Pas encore empatique, d'où une pragmatique légèrement incomplète, et d'un physique inhumain, mais aussi performant qu'un être humain pour toutes les tâches non spécifiquement humaines, et presque aussi performant que l'être humain pour la grande majorité des tâches humaines.LA singularité historique. Tu es trop optimiste. L'intelligence robotique est différente de l'intelligence humaine. Il y a des domaines où les robots nous sont supérieurs, et d'autres où il ne peuvent tout simplement pas rivaliser. Il ne faut pas espérer voir les ordinateurs être intelligents comme des hommes avant d'avoir compris comment le cerveau humain fonctionne. or même si la recherche avance vite, on n'est encore qu'au balbutiements. On commence tout juste à pouvoir observer en temps réel l'activité cérébrale… Puis viennent les questions existentielles… Programmons un robot pour qu'il soit conscient de lui-même. Ce sentiment d'exister n'empêche pas le robot de ne pas savoir comment il a conscience (comment il a été programmé). Alors est-ce vraiment de la conscience? Retournons le problème à l'homme. Est-on réellement conscient alors que nous ne savons pas comment nous acquérons notre conscience?
h16 Posté 17 décembre 2006 Signaler Posté 17 décembre 2006 @ xavdr et A.B. : Mouais. Faudrait d'abord que les fondeurs de silicium trouvent comment briser le plancher des 10 nm. Et les pertes quantiques commençant à se faire sentir, les ingénieurs des bureaux d'études s'arrachent les cheveux depuis quelques années pour trouver comment les éviter ou les pallier. Plus que quatre à six années, et il leur faudra changer complètement de technologie. Le futur est décidément un endroit passionnant. Ca fait 30 ans que dans 10 ans on est dans la merde … Nanotechs, optronique, etc. L'homme est inventif. Il trouvera.
A.B. Posté 17 décembre 2006 Signaler Posté 17 décembre 2006 @ xavdr et A.B. : Mouais. Faudrait d'abord que les fondeurs de silicium trouvent comment briser le plancher des 10 nm. Et les pertes quantiques commençant à se faire sentir, les ingénieurs des bureaux d'études s'arrachent les cheveux depuis quelques années pour trouver comment les éviter ou les pallier. Plus que quatre à six années, et il leur faudra changer complètement de technologie. Le futur est décidément un endroit passionnant. Ordinateur quantique… le saut en puissance est… monstrueux… c'est la nature meme des algorithmes qui change, pas seulement la vitesse.
h16 Posté 17 décembre 2006 Signaler Posté 17 décembre 2006 Tu es trop optimiste. L'intelligence robotique est différente de l'intelligence humaine. Il y a des domaines où les robots nous sont supérieurs, et d'autres où il ne peuvent tout simplement pas rivaliser. Il ne faut pas espérer voir les ordinateurs être intelligents comme des hommes avant d'avoir compris comment le cerveau humain fonctionne. or même si la recherche avance vite, on n'est encore qu'au balbutiements. On commence tout juste à observer en temps réel l'activité cérébrale… Approche top-down classique. La compréhension du cerveau humain n'amènera probablement rien sur la compréhension de l'intelligence qui est un phénomène d'émergence et pas un phénomène mécaniste. Puis viennent les questions existentielles… Programmons un robot pour qu'il soit conscient de lui-même. Ce sentiment d'exister n'empêche pas le robot de ne pas savoir comment il a conscience (comment il a été programmé). Alors est-ce vraiment de la conscience? Retournons le problème à l'homme. Est-on réellement conscient alors que nous ne savons pas comment nous acquérons notre conscience? Peu importe. Si un tel robot est construit, on lui demandera probablement autre chose que de se tortiller la nouille avec ces questions…
Rincevent Posté 17 décembre 2006 Signaler Posté 17 décembre 2006 @ h16 : Ca fait 50 ans que dans 20 ans on aura des bases lunaires. […] c'est la nature meme des algorithmes qui change, pas seulement la vitesse. Ca veut dire qu'il faudra réapprendre à programmer à des millions de personnes qui, déjà, codaient mal avant ? Dis, tu crois que le LISP pourra être adapté pour les ordinateurs quantiques ?
David Boring Posté 17 décembre 2006 Signaler Posté 17 décembre 2006 Hum tout ça est en fait assez effrayant. Est-il encore temps de retourner dans le passé buter Sarah Connor ?
toccata Posté 17 décembre 2006 Signaler Posté 17 décembre 2006 Peu importe. Si un tel robot est construit, on lui demandera probablement autre chose que de se tortiller la nouille avec ces questions… Ce n'est pas au robot d'y répondre mais à nous. Y répondre est indiquer les conditions qui nous semblent nécessaires pour reconnaitre à une machine sa conscience et son intelligence.
ULYSSE Posté 18 décembre 2006 Signaler Posté 18 décembre 2006 L'avenir n'est pas à l'intelligence artificielle pure, mais à la combinaison du biologique et de l'informatique. On sait déjà faire des alliances de neurones de rats et d'électrodes. (Je ne parle pas de Sarkozy)
A.B. Posté 18 décembre 2006 Signaler Posté 18 décembre 2006 L'avenir n'est pas à l'intelligence artificielle pure, mais à la combinaison du biologique et de l'informatique.On sait déjà faire des alliances de neurones de rats et d'électrodes. (Je ne parle pas de Sarkozy) Arfimation bien peremptoire… ca peut etre interessant pour de l'interfacage mais bon… la puissance d'un reseau de neurone biologique est ridicule d'un point de vue qualitatif face a la puissance d'un ordinateur quantique.
Rincevent Posté 18 décembre 2006 Signaler Posté 18 décembre 2006 […] la puissance d'un reseau de neurone biologique est ridicule d'un point de vue qualitatif face a la puissance d'un ordinateur quantique. Après le péremptoire, voici le fils emptoire ! Les ordinateurs quantiques, c'est bien ces boites noires où l'on ne sait pas ce que l'on met, et d'où l'on ne sait ce que l'on sort après un long et gourmand traitement logique effectué par une machine classique ? Plus sérieusement, rien ne permet de croire que les microtubules neuronaux ne jouent pas le rôles d'unités quantiques de calcul (idée lancée par Roger Penrose). De plus, les neurones seuls ne sont riens : ils sont eux-même entourés de cellules gliales, 10 fois plus nombreuses, et dont le rôle dans la transmission de l'influx nerveux et de la plasticité cérébrale est encore très mal connu.
ULYSSE Posté 18 décembre 2006 Signaler Posté 18 décembre 2006 la puissance d'un reseau de neurone biologique est ridicule- Tu dis ça parce que tu fréquentes trop les blondes et les militants politiques. Un crâne humain reste un tout petit volume. Compressé ça tient dans un portable. Pour le moment, aucun ordinateur géant n'est capable du nombre de connections nécessaires pour créer la conscience. La neurologie a donc une supériorité sur l'informatique : Estimés à des centaines de milliards, dans le cerveau humain, les neurones forment un réseau fortement connexe. Il y aurait 100 000 milliards de connexions. Un neurone peut se relier à 1 000 autres, par l’intermédiaire de 1 000 à 10 000 liaisons synaptiques. Un neurone peut donc se connecter de multiples fois à un même autre. La connexité est une forme de redondance sécuritaire qui garantit qu’il y a toujours plusieurs chemins pour relier deux points quelconques.
h16 Posté 18 décembre 2006 Signaler Posté 18 décembre 2006 Arfimation bien peremptoire… ca peut etre interessant pour de l'interfacage mais bon… la puissance d'un reseau de neurone biologique est ridicule d'un point de vue qualitatif face a la puissance d'un ordinateur quantique. Puissance toute théorique. Un ordinateur quantique, pour le moment, c'est 3 bits. Ok, 3 bits, pour un homme, c'est beaucoup. Mais il y a encore loin de la coupe aux lèvres.
h16 Posté 18 décembre 2006 Signaler Posté 18 décembre 2006 Plus sérieusement, rien ne permet de croire que les microtubules neuronaux ne jouent pas le rôles d'unités quantiques de calcul (idée lancée par Roger Penrose). Mouai sauf que Penrose (brillant mathématicien au demeurant) n'est pas vraiment un spécialiste de la question (ni en IA, ni en biologie). Et le bouquin auquel tu fais référence (The Emperor's new mind si je me souviens bien) n'a rien de transcendant…
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.