John Loque Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 Où en sont les logiciels de traduction ? Si ils ne sont pas encore au point, dans combien de temps peut-on s'attendre à quelque chose de valable ? A côté de ça, qu'en est-il de la reconnaissance vocale ? Ces questions sont importantes dans le cadre de la promotion du libéralisme.
h16 Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 La traduction automatique est encore assez moyenne, pour ne pas dire médiocre. Quant à savoir quand on aura des traducteurs auto valables, cela peut prendre encore un moment. L'arrivée des nanotechs dans le domaine du traitement de l'info permettra d'accéder à une meilleure puissance de calcul et une meilleure "connectivité" , mais ça va demander encore au moins 10 ans… La reconnaissance vocale fait des progrès, à condition de l'entraîner à un locuteur particulier…
Good Signal Strength Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 Je place tres peu d'espoir en ces logiciels de traduction, qui n'atteindront jamais le niveau des traducteurs proffessionels. Il atteindront peut etre le niveau "passable" dans une dizaine d'annees. mais la quantite et la qualite de l'information est, selon moi, quasiment impossible a prendre en charge par un ordinateur, a moins que l'on ne parvienne a doter les machines d'une intelligence artificielle "sensible". Ce qui m'est difficilement envisageable. En attendant que les robots ne prennent le controle, faites confiances aux traducteurs equipes d'un boite cranienne
A.B. Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 Les logiciels de traduction sont de plus en plus efficaces. Les plus developpes sont en realite des logiciels d'assistance a la traduction… on tape soit meme la traduction et il suggere des pans entiers de phrases (plusieurs), le choix de l'utilisateur permettant de lever au fur et a mesure les ambiguites du texte… Le probleme de la traduction automatique est plutot bien compris, il manque essentiellement une base semantique suffisante pour comprendre ce qu'on traduit mais ca ne saurait tarder. Je pense que contrairement a ce qu'on peut penser ce n'est pas un probleme suffisamment important a resoudre pour qu'il attire beaucoup d'investissement. Je pense que d'ici 3,4 ans on pourrait avoir des traducteurs sans contresens (mais pas forcement litteraires), a condition que le besoin actuel ne diminue pas.
Fredo Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 Oui. Jusqu'à un certain point ces logiciels pourront encore s'améliorer. Mais il restera un gros problème pour les autonomes (sans intervention) : celui du contexte, et bien sûr au niveau littéraire ce qui relève de la forme (figures de style, etc). Sans parler de l'humour, de l'autoréférence, des fonctions de dénotation etc.
h16 Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 Oui. Jusqu'à un certain point ces logiciels pourront encore s'améliorer. Mais il restera un gros problème pour les autonomes (sans intervention) : celui du contexte, et bien sûr au niveau littéraire ce qui relève de la forme (figures de style, etc). Sans parler de l'humour, de l'autoréférence, des fonctions de dénotation etc. Bref, tout ce qui fait le sel d'une conversation humaine. "Une délicieuse jeune femme" -> "A tasteful young lady". Bon appétit.
A.B. Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 Bref, tout ce qui fait le sel d'une conversation humaine. "Une délicieuse jeune femme" -> "A tasteful young lady". Bon appétit. © Lecter
DiabloSwing Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 A moins que les travaux engagés dans les intelligences artificielles (sur la capacité d'apprentissage des machines) ne fassent un bond de géant.
h16 Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 A moins que les travaux engagés dans les intelligences artificielles (sur la capacité d'apprentissage des machines) ne fassent un bond de géant. Comme évoqué dans mon précédent post, l'introduction des nanotech permet de faire vraiment un bond de géant. Actuellement, les processeurs font en gros 10^10 opérations à la seconde et traitent 10^10 informations ; une utilisation efficace d'un processeur "moléculaire" permettrait à un portable d'un kilo de réaliser 10^51 opérations à la secondes sur 10^31 infos…
pankkake Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 Comme évoqué dans mon précédent post, l'introduction des nanotech permet de faire vraiment un bond de géant. Actuellement, les processeurs font en gros 10^10 opérations à la seconde et traitent 10^10 informations ; une utilisation efficace d'un processeur "moléculaire" permettrait à un portable d'un kilo de réaliser 10^51 opérations à la secondes sur 10^31 infos… Les traducteurs actuels ne sont pas lents du tout. Et la plupart des utilisateurs préféreraient un logiciel lent mais qui marche. Pour qu'un ordinateur comprenne vraiment un langage, il faudrait qu'il devienne presque "intelligent" et il y a beaucoup de chemin à faire (et ce n'est pas un problème de performances !).
h16 Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 Les traducteurs actuels ne sont pas lents du tout. Et la plupart des utilisateurs préféreraient un logiciel lent mais qui marche. Pour qu'un ordinateur comprenne vraiment un langage, il faudrait qu'il devienne presque "intelligent" et il y a beaucoup de chemin à faire (et ce n'est pas un problème de performances !). Ils sont lents en ce qu'ils n'étudient qu'une faible partie des possibilités de traduction en un temps raisonnable donné et ne disposent que d'un champ lexical partiel. Pour qu'ils soient valables, il faudrait qu'ils soient effectivement plus lents (mais là, ils deviendrait probablement invendables en l'état) et disposent de champs lexicaux, de grammaire etc… plus vastes. Tu imagines sérieusement acheter un traducteur pour une langue qui traduise parfaitement un texte de deux pages en 3 jours ?
Legion Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 J'ai moi aussi de sérieux doutes : Quand on voit le niveau d'une traduction automatique Français - Italien ou Français - Espagnol (des langues qui sont quand même très proches), je me dit que pour des langues vraiment différentes, ben c'est pas gagné.
h16 Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 J'ai moi aussi de sérieux doutes : Quand on voit le niveau d'une traduction automatique Français - Italien ou Français - Espagnol (des langues qui sont quand même très proches), je me dit que pour des langues vraiment différentes, ben c'est pas gagné. Surtou kan on met des pièjes.
pankkake Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 J'ai moi aussi de sérieux doutes : Quand on voit le niveau d'une traduction automatique Français - Italien ou Français - Espagnol (des langues qui sont quand même très proches), je me dit que pour des langues vraiment différentes, ben c'est pas gagné. Tiens, je sais qu'il y a un logiciel open-source capable d'apprendre la grammaire d'une langue d'après des textes (mais ça ne marche vraiment qu'avec certains langages il est vrai). J'ai perdu son nom mais ça pourrait t'intéresser.
Mobius Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 mais ça ne marche vraiment qu'avec certains langages il est vrai En Klingon?
A.B. Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 Les traducteurs actuels ne sont pas lents du tout. Et la plupart des utilisateurs préféreraient un logiciel lent mais qui marche. Pour qu'un ordinateur comprenne vraiment un langage, il faudrait qu'il devienne presque "intelligent" et il y a beaucoup de chemin à faire (et ce n'est pas un problème de performances !). Non justement… il y a juste un mapping syntaxique a faire entre les deux langages en s'appuyant occasionellement sur des indices semantiques pour lever des ambiguites. Avec de betes methodes bayesiennes sur le champs lexical on fait deja des miracles. Si on veut aller plus loin, le parsing grammatical est assez au point et on peut en deduire une representation semantique sous formes de graphes, type RDF… tout ceci arrive…. bientot…
Legion Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 Non justement… il y a juste un mapping syntaxique a faire entre les deux langages en s'appuyant occasionellement sur des indices semantiques pour lever des ambiguites. Avec de betes methodes bayesiennes sur le champs lexical on fait deja des miracles. Si on veut aller plus loin, le parsing grammatical est assez au point et on peut en deduire une representation semantique sous formes de graphes, type RDF… tout ceci arrive…. bientot… Oui, mais en fait, non. Là c'est l'optique de Chomsky, de la grammaire générative. Mais en fait, la linguistique cognitive a démontré que le sens d'un énoncé est indissociable des données contextuelles, qu'il n'y a pas de langage objectif, toute expression faisant appelle à des métaphores, des "trames" sémantiques (le genre de truc qui fait que l'emploi de deux mots synonymes, de sens très proche, peut malgré tout changer complètement le sens d'une phrase).
Fredo Posté 29 octobre 2006 Signaler Posté 29 octobre 2006 Oui, mais en fait, non. Là c'est l'optique de Chomsky, de la grammaire générative. Mais en fait, la linguistique cognitive a démontré que le sens d'un énoncé est indissociable des données contextuelles, qu'il n'y a pas de langage objectif, toute expression faisant appelle à des métaphores, des "trames" sémantiques (le genre de truc qui fait que l'emploi de deux mots synonymes, de sens très proche, peut malgré tout changer complètement le sens d'une phrase). Legion rulez. Ainsi je me souviens que j'avais du mal à faire admettre que ces deux phrases n'ont pas exactement le même sens : Le chat a mangé la souris. La souris a été mangée par le chat.
melodius Posté 30 octobre 2006 Signaler Posté 30 octobre 2006 Non justement… il y a juste un mapping syntaxique a faire entre les deux langages en s'appuyant occasionellement sur des indices semantiques pour lever des ambiguites. Avec de betes methodes bayesiennes sur le champs lexical on fait deja des miracles. Si on veut aller plus loin, le parsing grammatical est assez au point et on peut en deduire une representation semantique sous formes de graphes, type RDF… tout ceci arrive…. bientot… Les méthodes bayésiennes, ce sont celles qui sont censées faire fonctionner mon anti-spam ? Eh ben c'est pas gagné. En tant que traducteur occasionnel, je n'ai aucune crainte pour le futur des humains qui s'y emploient professionnellement.
wapiti Posté 30 octobre 2006 Signaler Posté 30 octobre 2006 Les méthodes bayésiennes, ce sont celles qui sont censées faire fonctionner mon anti-spam ?Eh ben c'est pas gagné. +1
A.B. Posté 30 octobre 2006 Signaler Posté 30 octobre 2006 Les méthodes bayésiennes, ce sont celles qui sont censées faire fonctionner mon anti-spam ?Eh ben c'est pas gagné. Quel antispam utilises-tu? Normalement il n'y a rien qui passe et jamais de faux positifs.
melodius Posté 30 octobre 2006 Signaler Posté 30 octobre 2006 Je ne sais pas comment il s'appelle, c'est celui qui est intégré à Evolution.
pankkake Posté 30 octobre 2006 Signaler Posté 30 octobre 2006 Le filtre bayésien que j'utilise (sur un logiciel Windowsien tout pourri) marche très bien. Bon je reçois 95% de spam sur cette adresse donc ce n'est pas vraiment un bon exemple. Sinon Gmail doit faire moins de 1% d'erreurs, mais je ne sais pas exactement quels sont leurs filtres (sûrement du bayesien combiné à d'autres choses).
A.B. Posté 30 octobre 2006 Signaler Posté 30 octobre 2006 Normalement je crois que sur evolution c'est par defaut spamassassin qui est redoutablement efficace… attention parfois il croit l'utiliser alors qu'il n'est pas installe… c'est peut-etre ton cas… sinon il combine de nombreuses methodes, dont une analyse bayesienne, mais dans ce cas soit il faut l'entrainer, ce qui peut prendre du temps soit on peut utiliser des donnees toutes pretes. En somme c'est peut-etre un probleme d'installation…
melodius Posté 31 octobre 2006 Signaler Posté 31 octobre 2006 Ne t'en fais pas, je l'ai bien installé… Le problème c'est surtout un nombre important de faux positifs.
h16 Posté 31 octobre 2006 Signaler Posté 31 octobre 2006 Etonnant. Avec Thunderbird, ça marche tout seul. Et pour le moment, en plusieurs années, 0 faux positifs… ?
A.B. Posté 31 octobre 2006 Signaler Posté 31 octobre 2006 Ne t'en fais pas, je l'ai bien installé… Y'a plusieurs rapports de bugs qui trainent sur ubuntu a propos d'une mauvaise installation automatique de spamassassin donc sait-on jamais. Etonnant. Avec Thunderbird, ça marche tout seul. Et pour le moment, en plusieurs années, 0 faux positifs… ? Ahhh toute l'efficacite de la pub mercurochrome au service de l'open source.
h16 Posté 31 octobre 2006 Signaler Posté 31 octobre 2006 Ahhh toute l'efficacite de la pub mercurochrome au service de l'open source. Flûte, mon ABDécodotron vient de tomber en rade. Que diable a-t-il voulu dire ?
A.B. Posté 31 octobre 2006 Signaler Posté 31 octobre 2006 Flûte, mon ABDécodotron vient de tomber en rade. Que diable a-t-il voulu dire ? Reference idiote a une pub mercurochrome qui courut en France ou la sequence slogan etait repete deux fois de suite a la fin… sans doute pour marquer les esprits… http://www.google.com/search?q=%22mercu…ros%22&btnG=Search
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.