Aller au contenu

Jeux & singularité : go


Messages recommandés

Et prédire a priori ce qui pourra en émerger, c'est difficile. Je m'en abstiendrais justement parce que les "grands triomphes" de l'intelligence humaine, je ne sais pas comment ils sont réalisés. Je ne sais donc pas s'ils ne pourraient pas être redécouverts par ce type de machine.

 

 

la c'est interessant ce que tu dis parce que ca nous ramene autour du theme 'les IA vont elles etre PLUS et MIEUX que nous" ce qui a mon avis est une question qui n'a pas de sens mais donne des informations sur celui qui la pose.

En tant qu'industriel je ne me pose pas la question, la question c'est toujours comment l'IA peut effectuer une tache qui necessite creativite et apprentissage sans tout fucker.Le but c'est clairement de l'asservir a une tache, pas de flipper sur son emancipation.

Lien vers le commentaire

   J'ai l'habitude de suivre les échecs comme ça depuis une vingtaine d'années. J'imagine bien les commentaires... C'est un très bon divertissement quand il y a des commentateurs éclairés (et pas seulement des footix qui éructent un résultat du type les blancs gagnent) et que tu connais bien le jeu.

 

   Même si le champion était hyper stressé, comme l'était Kasparov dans ses rencontres avec Deep Blue, il n'en demeure pas moins que je me rappelle de moultes conversations assez récentes où on m'assurait que le Go ne pourrait pas être dominé par les machines avant des années et des années.

 

   Ce qui est le plus étonnant est la rapidité à laquelle on est passé du niveau "joueur correct" à "ultra humain". En moins d'une dizaine d'années. Il a bien fallu 2/3 décades pour les échecs pour réaliser ce bond (en gros de la fin des années 70 à autour de 2000/2010). 

 

oui

 

je me rappelle précisément, vers mes 11 ou 12 ans, lire un article de magazine dire que les Echecs ok c'est mort, mais que le go serait impossible à cause de l'impossibilité pour l'ordinateur de comprendre des motifs aussi complexe.

ça me fait marrer quand tu vois des trucs comme ça. Les gens te disent "pas possible, ça demande trop de puissance etc..." sans avoir compris que chez l'humain, la seule chose qui importe c'est de prouver que c'est possible. Une fois qu'on sait que c'est faisable le reste c'est juste une question de temps d'une trivialité délirante. Même dans les cas où le potentiel économique est nul, tout ce qui est un tant soit peu intéressant, même vaguement, même de loin, trouvera sa propre sous-culture pour la faire avancer et lui faire passer le tipping-point où ça va devenir 1/efficient 2/suffisamment simple pour être utilisé par les débiles légers qu'on trouve dans la population.

C'est comme ça qu'on est passé des frères Wright aux Rafales, de pièces entières de serveurs aux smartphones et de des petits répliques d'avions aux drones quadricoptères

Lien vers le commentaire

la c'est interessant ce que tu dis parce que ca nous ramene autour du theme 'les IA vont elles etre PLUS et MIEUX que nous" ce qui a mon avis est une question qui n'a pas de sens mais donne des informations sur celui qui la pose.

En tant qu'industriel je ne me pose pas la question, la question c'est toujours comment l'IA peut effectuer une tache qui necessite creativite et apprentissage sans tout fucker.Le but c'est clairement de l'asservir a une tache, pas de flipper sur son emancipation.

Je n'ai pas parlé d'émancipation et je ne dis pas qu'elle peut faire mieux, d'ailleurs je ne sais pas ce que c'est mieux.

Je dis que le fait qu'on ne sache pas donner l'algorithme d'effectuation d'une tâche particulière, notamment parce qu'on sait la reconnaître mais pas la définir, ce fait n'implique pas qu'une machine ne pourra jamais adopter, pour effectuer une tâche bien définie, un comportement dans lequel on reconnaîtra l'effectuation de ces autres tâches qu'on arrive pas à définir.

Notamment je pense que c'est possible qu'une machine retrouve automatiquement des catégories par lesquelles nous appréhendons, par exemple le jeu de go. La dangerosité d'une situation par exemple. Une grande partie de l'apprentissage machine c'est de la catégorisation automatique. De cette manière on arrive à re-découvrir automatiquement des genres musicaux que les humains avaient identifiés "au feeling" par exemple

Est-ce que je m'exprime clairement ou pas ?

Je ne parle pas d'émancipation, une machine fera toujours ce pour quoi on la programme. Ce que je dis c'est que pour un but bien défini donné, assigné par le concepteur, il n'est pas impossible qu'une machine découvre, en chemin, quelque chose dont nous ne savions pas que c'était une méthode pour ce but, ou que n'arrivions pas à définir.

Lien vers le commentaire

De cette manière on arrive à re-découvrir automatiquement des genres musicaux que les humains avaient identifiés "au feeling" par exemple

tu dis ça en exemple ou c'es vraiment arrivé ?

Lien vers le commentaire

Non c'est arrivé, j'ai un ami qui bosse sur ça, sa boîte s'appelle Scarlett ils sont en train de développer une application de recommandations musicales sur ce principe. Le truc s'arrête pas là car en plus de découvrir des styles musicaux qui sont déjà identifiés il en inventent qui après coup ont l'air pertinent, si le rythme ou la mélodie sont plus saillants que le timbre, il peut faire des rapprochements pas du tout absurde entre de la musique électronique et de la musique orchestrale, par exemple.

Par contre ce qui fout tout en l'air c'est le discours parlé, qui apparemment est tellement saillant que tous les morceaux avec un passage de discours sont groupés ensemble.

  • Yea 2
Lien vers le commentaire

Anton_k ne parle pas de stat', de machine learning ou d'algo. Ce n'est visiblement pas ton domaine de compétence.

L'anova n'a rien à voir avec la classification non supervisée par exemple.

 

edit : Tu as raison, c'est toi le statisticien, et je confonds ANOVA et k-moyennes, et il est clair que je n'aurais pas du dire que la catégorisation automatique était la principale méthode d'apprentissage automatique. Dirais tu que ce à quoi je voulais en venir était du bullshit complet ? Si oui, je me tais.

Lien vers le commentaire

Je poste ici un petit texte bien fait qui illustre très bien le problème de l'anticipation de ce que sera capable de faire l'IA : http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

 

Tout est résumé dans ce graphique qui montre bien pourquoi on imagine un monde avec un niveau N d'IA dans 10 ans et pourquoi on est très en dessous de la réalité à chaque fois et de plus en plus. Je vous laisse tirer les conclusions que vous voulez, mais je poserai juste une question : tout le monde spécule sur une singularité dans 20 ou 30 ans, ce qui paraît déjà rapide, mais raisonnable compte-tenu de l'exponentielle observée. Soit. Mais que se passerait-il si cette singularité intervenait ... dans 2 ans ? Sur un coup de chance, une erreur, un truc imprévu ?

 

 

Projections.png

 

Lien vers le commentaire

J'ai plutôt tendance à être optimiste.

En même temps on peut aussi constater qu'il existe des problèmes pour lequel les progrès sont très lents,

voire où on peut causer de stagnation, eg la reconnaissance vocale.

 

C'est ama largement du au grégarisme/oeillères des chercheurs eux-mêmes.

On peut être 1000 ou plus sur un sujet, si tout le monde s'engage dans la même voie et que c'est une impasse,

le nombre ne fait rien à l'affaire.

 

Lien vers le commentaire

Typiquement un jeu combinatoire abstrait c'est du domaine du trivial. Je n'ai jamais trop compris non plus l'engouement pour le go comme dernier bastion de l'humanité, à partir du moment où le morpion est résolu le reste n'est en gros qu'une question de puissance de calcul.

 

  Non ce n'est pas trivial : la dimension du jeu bien que finie peut être impossible, concrètement, à gérer sur ordinateur. On peut très vite parler de chiffre supérieurs au nombre d'atomes dans l'univers. Il est alors très très très difficile d'être "malin" et de ne considérer que ce qui est intéressant. Dans le cas du Go ça semblait tellement énorme que même avec les symétries etc on ne pensait pas pouvoir "débroussailler" suffisamment le terrain pour que l'ordinateur puisse faire quelque chose d'intéressant car il resterait toujours trop de mauvaises herbes. 

Lien vers le commentaire

Je poste ici un petit texte bien fait qui illustre très bien le problème de l'anticipation de ce que sera capable de faire l'IA : http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

 

Tout est résumé dans ce graphique qui montre bien pourquoi on imagine un monde avec un niveau N d'IA dans 10 ans et pourquoi on est très en dessous de la réalité à chaque fois et de plus en plus. Je vous laisse tirer les conclusions que vous voulez, mais je poserai juste une question : tout le monde spécule sur une singularité dans 20 ou 30 ans, ce qui paraît déjà rapide, mais raisonnable compte-tenu de l'exponentielle observée. Soit. Mais que se passerait-il si cette singularité intervenait ... dans 2 ans ? Sur un coup de chance, une erreur, un truc imprévu ?

 

  La peur exponentielle  :) (c'est marrant Benoît était dans mon groupe de TD à la fac).

 

  Plus sérieusement il y a un mur que l'exponentielle ne peut crever c'est celui de la calculabilité. Il y a des limites dures (vraiment dures) sur ce qu'un système formel ne peut pas faire. Toute la question est de savoir si le cerveau humain est turing-simulable ou pas.

 

  Je ne vois pas de progrès en IA dans le domaine "introspectif". Je vois les progrès dans le traitement de questions précises dont on ne sait pas comment répondre (le deep learning c'est ça).  Ca me semble être la limite (l'auto-référence, ie l'argument diagonal de Cantor) dure sur laquelle l'IA va se casser les dents.

 

  Le problème de l'IA est qu'elle apporte des réponses, certes étonnantes, mais ce qui fait progresser ce ne sont pas les réponses mais les questions.

Lien vers le commentaire

C'est plié pour la seconde partie. Il va prendre une valise le pauvre (il n'a pas eu le temps de s'y faire comme les joueurs d'échecs qui eux ont pu voir venir le drone de loin) : http://www.lemonde.fr/pixels/article/2016/03/10/jeu-de-go-lee-sedol-perd-la-deuxieme-manche-face-a-l-intelligence-artificielle_4879776_4408996.html

Lien vers le commentaire

  Non ce n'est pas trivial : la dimension du jeu bien que finie peut être impossible, concrètement, à gérer sur ordinateur. On peut très vite parler de chiffre supérieurs au nombre d'atomes dans l'univers. Il est alors très très très difficile d'être "malin" et de ne considérer que ce qui est intéressant. Dans le cas du Go ça semblait tellement énorme que même avec les symétries etc on ne pensait pas pouvoir "débroussailler" suffisamment le terrain pour que l'ordinateur puisse faire quelque chose d'intéressant car il resterait toujours trop de mauvaises herbes. 

 

Du coup, comment tu comprends le fait qu'ils y soient arrivés plus vite que prévus ? Comment ont ils fait ?

 

Lien vers le commentaire

Je poste ici un petit texte bien fait qui illustre très bien le problème de l'anticipation de ce que sera capable de faire l'IA : http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html

 

Tout est résumé dans ce graphique qui montre bien pourquoi on imagine un monde avec un niveau N d'IA dans 10 ans et pourquoi on est très en dessous de la réalité à chaque fois et de plus en plus. Je vous laisse tirer les conclusions que vous voulez, mais je poserai juste une question : tout le monde spécule sur une singularité dans 20 ou 30 ans, ce qui paraît déjà rapide, mais raisonnable compte-tenu de l'exponentielle observée. Soit. Mais que se passerait-il si cette singularité intervenait ... dans 2 ans ? Sur un coup de chance, une erreur, un truc imprévu ?

 

 

 

 

Sauf que la singularité reste une hypothèse pour l'instant, s'il s'agit réellement d'un changement de paradigme, cela signifie aussi que les moyens dont on dispose pour l'appréhender sont insuffisants, y compris la prédiction de son avènement.

Lien vers le commentaire

Une singularité est inappréhendable par définition. Personne ne peut commencer à imaginer ce qu'il pourrait y avoir derrière, pour peu qu'il y ait un derrière.

 

J'ai bien compris, c'est aussi pourquoi je ne vois pas comment on pourrait prédire sa venue.

Lien vers le commentaire
Toute la question est de savoir si le cerveau humain est turing-simulable ou pas..

Il l'est certainement.

Il n'y a aucune raison que le muscle humain soit la métrique de ce qui est physiquement possible (couper du bois, etc).

Il n'y a pas plus de raisons pour que le cerveau humain soit la métrique de ce qui est intellectuellement possible.

Là où ça coince souvent, c'est dans la bonne représentation des données pour le traitement.

Lien vers le commentaire

Il l'est certainement.

Il n'y a aucune raison que le muscle humain soit la métrique de ce qui est physiquement possible (couper du bois, etc).

Il n'y a pas plus de raisons pour que le cerveau humain soit la métrique de ce qui est intellectuellement possible.

Là où ça coince souvent, c'est dans la bonne représentation des données pour le traitement.

 

   Ce n'est pas si évident. Les limites des modèles de calculs formalisables (comme les ordinateurs) sont très claires : elles n'ont rien à voir avec la physique mais avec la logique (le fait que tu passes par un texte qui n'est qu'une suite finie de symboles). Par contre rien ne dit que le biologique soit formalisable, ni modélisable comme un modèle de calcul. Auquel cas le cerveau n'est pas Turing simulable.

 

   Ca parait con à dire mais tu ne peux parler que de ce dont tu parler : autrement dit, il faut que ce tu décrives possède une structure qui soit explicitable par un texte fini pour que tu puisses le simuler par MT. Ce n'est pas du tout évident que tu puisses réduire la pensée issue d'un cerveau biologique de cette manière et que donc les limites du calculable soient applicables au cerveau humain. 

 

   Je pense que le vrai challenge comme je le disais est de construire des IA qui posent et se posent des questions intéressantes. Je n'ai pas de doutes que les IA pourront répondre bien mieux qu'on le pense actuellement aux questions qu'on leur pose (par simulation et apprentissage par exemple) mais par contre qu'elles construisent des questions pertinentes pour l'instant je n'ai rien vu qui s'en approche même de loin. 

 

Lien vers le commentaire

Du coup, comment tu comprends le fait qu'ils y soient arrivés plus vite que prévus ? Comment ont ils fait ?

 

 

  Il y a eu une avancée dans les algorithmes de machine learning : la machine se réajuste elle même en fonction des résultats qu'elle obtient. Pour le coup elle peut même s'améliorer en jouant contre elle même.

 

  Donc pour répondre à ta question : les chercheurs n'ont pas vraiment trouvé comment mieux jouer au Go mais ils ont trouvé comment programmer une machine qui apprend à mieux jouer au Go (mais ça s'applique très facilement à d'autre domaines, le Go est juste un exemple frappant vu ce qu'en pensaient les gens) en regardant et ou en jouant des parties de telle manière à ce qu'elle change ses paramètres en fonction des gains et des pertes.

Lien vers le commentaire

Il l'est certainement.

Il n'y a aucune raison que le muscle humain soit la métrique de ce qui est physiquement possible (couper du bois, etc).

Il n'y a pas plus de raisons pour que le cerveau humain soit la métrique de ce qui est intellectuellement possible.

Là où ça coince souvent, c'est dans la bonne représentation des données pour le traitement.

 

  Un autre point : les images comparant le monde physique et le monde des idées ne tiennent généralement pas la route. Pense à la différence entre récupérer le bois que tu as coupé qu'un méchant voleur t'a pris et récupérer le secret qu'un espion t'a dérobé.

Lien vers le commentaire

La peur exponentielle  :) (c'est marrant Benoît était dans mon groupe de TD à la fac).

 

  Plus sérieusement il y a un mur que l'exponentielle ne peut crever c'est celui de la calculabilité. Il y a des limites dures (vraiment dures) sur ce qu'un système formel ne peut pas faire. Toute la question est de savoir si le cerveau humain est turing-simulable ou pas.

 

  Je ne vois pas de progrès en IA dans le domaine "introspectif". Je vois les progrès dans le traitement de questions précises dont on ne sait pas comment répondre (le deep learning c'est ça).  Ca me semble être la limite (l'auto-référence, ie l'argument diagonal de Cantor) dure sur laquelle l'IA va se casser les dents.

 

  Le problème de l'IA est qu'elle apporte des réponses, certes étonnantes, mais ce qui fait progresser ce ne sont pas les réponses mais les questions.

 

Apparemment, tous les pontes en IA ne se chicannent plus trop sur la possibilité ou non d'atteindre l'intelligence artificielle d'un niveau humain ; ils se chicannent sur le timing, éventuellement, et sur le temps de passage à l'étage du dessus (intelligence supra humaine), mais pas sur la réalisabilité de l'IA 'dure'.

 

En outre, des deux hypothèses (cerveau humain turing simulable ou pas), la première n'implique rien de particulier sur le plan chimique, organique ou physique. La seconde implique que le cerveau traite l'information d'une façon "non simulable" (Penrose invoque la physique quantique par exemple ; toi, tu évoques les barrières que la biologie entraînerait dans la formalisation des pensées, ...). Comme on arrive déjà à simuler pas mal de choses (depuis des "cerveaux" complets de vers simples jusqu'à des hippocampes complets aussi), moi et mon rasoir d'Ocam (ainsi, donc, qu'un paquet de références du milieu IA) avons tendance à pencher pour la première hypothèse.

 

Mais oui, bien sûr : si le cerveau humain n'est pas simulable, la question est close.

...

Du reste, je note qu'il est globalement inutile de simuler un cerveau humain. Il est bien plus intéressant de simuler l'activité d'apprentissage d'un cerveau humain, ce qui est encore différent.

Lien vers le commentaire

par contre qu'elles construisent des questions pertinentes pour l'instant je n'ai rien vu qui s'en approche même de loin.

Ca ne me surprend pas du tout. Ce genre de niveau d'introspection est encore loin ; un chat ou un chien ne doit pas y arriver, on doit commencer à le tripoter vaguement du côté des chimpanzées et encore, pas tous.

Lien vers le commentaire

Ca ne me surprend pas du tout. Ce genre de niveau d'introspection est encore loin ; un chat ou un chien ne doit pas y arriver, on doit commencer à le tripoter vaguement du côté des chimpanzées et encore, pas tous.

L'autre jour, j'ai vu (à N reprises) un petit oiseau sauvage (tarin) devant un miroir

... c'était vraiment un drôle de spectacle.

Petite tête peut-être pas si petite que ça.

 

@Kassad Pour le reste, a priori le cerveau humain fonctionne avec des éléments de base qui tournent à ~1 mégakiloherz.

Le cerveau humain est sans conteste une merveille d'évolution et d'organisation, mais bon, c'est pas non plus fabriqué avec des morceaux de licornes et d'arc-en-ciel.

 

 

Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...