Jump to content
0100011

Jeux & singularité : go

Recommended Posts

Le cerveau humain est sans conteste une merveille d'évolution et d'organisation, mais bon, c'est pas non plus fabriqué avec des morceaux de licornes et d'arc-en-ciel.

Ce n'est pas ce qu'il dit.

Il dit que la façon dont on raisonne n'est pas forcément modélisable sous la forme d'un calcul décidable. Ce qui reste effectivement une possibilité. Et je remarque qu'à la limite, on s'en fiche : puisque le résultat de nos pensées est, en tout cas, intelligible et décidable (on construit des ordinateurs, après tout), point n'est besoin de simuler un cerveau ou même de simuler l'intellilgence humaine. Il "suffit" de créer un mécanisme dont les outputs sont supérieurs ou égaux, en qualité, à ce que nous fournissons nous. Ce serait déjà très suffisant.

Share this post


Link to post
Share on other sites

Ce n'est pas ce qu'il dit.

Il dit que la façon dont on raisonne n'est pas forcément modélisable sous la forme d'un calcul décidable. Ce qui reste effectivement une possibilité. Et je remarque qu'à la limite, on s'en fiche : puisque le résultat de nos pensées est, en tout cas, intelligible et décidable (on construit des ordinateurs, après tout), point n'est besoin de simuler un cerveau ou même de simuler l'intellilgence humaine. Il "suffit" de créer un mécanisme dont les outputs sont supérieurs ou égaux, en qualité, à ce que nous fournissons nous. Ce serait déjà très suffisant.

oui, je n'ai surtout pas voulu prêter à Kassad telle ou telle pensée.

Je voulais juste faire remarquer que, par ailleurs, le cerveau humain fonctionne physiquement avec des composants qui ne sont pas extraordinaires. Même si l'agencement est plutôt pas mal !

D'où pas franchement d'impossibilité physique à pondre un analogue.

 

Et, si on discute apprentissage, on constate bel et bien que c'est l'occurrence et la réoccurrence de situations qui nous enseignent des choses précieuses. Même si parfois il peut s'écouler 10 ans pour avoir assez d'occurrences pour piger un truc.

... alors que dire d'un système qu'on bombarde de millions de cas intéressants en quelques heures.

 

J'ai corrigé (pas assez vite :)) pour kiloherz. Merci.

Share this post


Link to post
Share on other sites

 

@Kassad Pour le reste, a priori le cerveau humain fonctionne avec des éléments de base qui tournent à ~1 mégaherz.

Le cerveau humain est sans conteste une merveille d'évolution et d'organisation, mais bon, c'est pas non plus fabriqué avec des morceaux de licornes et d'arc-en-ciel.

 

  C'est là toute le problème. Toutes les IA que tu vas construire sont formalisables de manière discrète : il faut bien décrire le programme par des données et un programme qui ne sont que des suites de symboles. L'ensemble de tous les programmes que tu ne pourras jamais construire est donc discret/dénombrable.

 

  Il n'est pas clair du tout que l'univers (sans parler de morceaux de licornes ni d'arc-en-ciel) soit discret. S'il ne l'est pas et qu'il est continu alors la puissance de calcul que tu peux obtenir en utilisant le continu ne se compare pas avec celle que tu obtiens avec des machines discrètes (cf la hiérarchie hyperarithmétique). Plus triviallement on peut imaginer qu'il est impossible de décrire par un texte (aussi long soit il) le fonctionnement exact du cerveau. C'est le mur sur lequel la réflexion va toujours s'écraser : tu ne peux penser que ce dont tu peux parler. Pour prendre une image mathématique étonnante tu peux constater que tu ne peux parler que d'un ensemble de mesure nulle de nombre réels, car pour chaque réel dont tu parles il faut un texte pour le définir proprement.

 

Bien sûr ça ne donne pas une preuve qu'on ne peut pas simuler ce qui sort du cerveau humain mais ça incite à la prudence : ce n'est pas juste une histoire de Mhz ou de nombre de transistors au centimètre carré. Au fond du fond tu ne peux peut-être pas modéliser le fonctionnement de la pensée à un système de transitions entre états (ce qui est le cas des réseaux de neurones et autres techniques d'apprentissage machine : tu n'as au mieux que des approximations finies de fonctions sur R).

 

Pour le moment la seule méthode connue pour produire de l'intelligence de niveau humain... c'est de se reproduire et de bien éduquer ses enfants.

 

Share this post


Link to post
Share on other sites

C'est là toute le problème. Toutes les IA que tu vas construire sont formalisables de manière discrète : il faut bien décrire le programme par des données et un programme qui ne sont que des suites de symboles. L'ensemble de tous les programmes que tu ne pourras jamais construire est donc discret/dénombrable.

Ok.

Mais en quoi, l'ensemble des cerveaux humains serait plus (ou moins) discret/dénombrable ??

 

(Les 2 sont fabriqués avec de la matière (et le cerveau humain avec des éléments basiques plus nombreux mais plus grossiers que ce que la techno sait produire aujourd'hui)).

Share this post


Link to post
Share on other sites

Pff, vous me faites flipper. Je veux pas vivre dans ce monde qui vient. Laissez-moi mener une vie normale, mourir dans une ferme en Nouvelle-Zélande à 80 balais puis faites ce que vous voulez ensuite !

Share this post


Link to post
Share on other sites

Ok.

Mais en quoi, l'ensemble des cerveaux humains serait plus (ou moins) discret/dénombrable ??

 

(Les 2 sont fabriqués avec de la matière (et le cerveau humain avec des éléments basiques plus nombreux mais plus grossiers que ce que la techno sait produire aujourd'hui)).

 

  Non il y a une grosse différence : le cerveau humain n'est pas constitué de pièces qu'on assemble (ça montre déjà ton biais formaliste). Le cerveau humain "est". Tu peux le découper en petits morceaux, l'analyser au microscope à balayage électronique et tenter de copier son fonctionnement mais rien, absolument rien ne te permet d'affirmer qu'il a des propriétés compositionelles. Alors que pour les machines que tu assembles, par construction tu as un objet compositionnel fait de bidules que tu connectes les uns aux autres.

 

  Ce ne sont pas les éléments constituant le cerveau humain qui sont basiques mais bien la compréhension que nous avons du cerveau humain. C'est le fameux : quand on a un marteau tous les problèmes ressemblent à des clous.

 

Share this post


Link to post
Share on other sites

Kassad : R n'est pas si réel que ça, et je reste convaincu que la réalité est discrète dans tous ses aspects. Disons que le continu est une idée intéressante pour un tas de choses, mais qui ne reflète sans doute pas la réalité exacte. ;)

  • Yea 1

Share this post


Link to post
Share on other sites

j'ai un copain qui fait de la recherche en neuro et il dit que le cerveau c'est un bordel total, qui fonctionne beaucoup par inhibition ce qui rend toute nalyse ultra difficile...

Share this post


Link to post
Share on other sites

Toutafé. Quand les dispositifs d'inhibition sautent, on appelle ça une crise d'épilepsie.

  • Yea 1

Share this post


Link to post
Share on other sites

Pff, vous me faites flipper. Je veux pas vivre dans ce monde qui vient. Laissez-moi mener une vie normale, mourir dans une ferme en Nouvelle-Zélande à 80 balais puis faites ce que vous voulez ensuite !

 

:lol:

 

Personne ne décidera. En fait, si l'IA de capacité humaine ou supérieure est possible, alors elle arrivera quasiment quoi qu'on fasse. Et plutôt tôt que tard (avant, bien avant tes 80 balais).

Share this post


Link to post
Share on other sites

  Ce ne sont pas les éléments constituant le cerveau humain qui sont basiques mais bien la compréhension que nous avons du cerveau humain. C'est le fameux : quand on a un marteau tous les problèmes ressemblent à des clous.

 

 

Sauf que, comme je l'ai mentionné plus haut, nul besoin de simuler un cerveau, ni même de simuler l'intelligence humaine. On a juste besoin de produire un mécanisme qui donne un niveau de satisfaction supérieur ou égal à l'intelligence humaine. Typiquement, on n'a pas volé en recopiant les oiseaux. En outre, la condition d'obtention d'une intelligence de capacité suffisante n'est pas très forte puisqu'il suffit (au sens mathématique - pas que ce soit simple) d'un mécanisme qui soit capable d'apprendre de façon assez souple et assez étendue. La difficulté est bien sûr de bien définir ou comprendre "assez souple" ou "assez étendu", mais c'est tout.

 

  • Yea 1

Share this post


Link to post
Share on other sites

Non il y a une grosse différence : le cerveau humain n'est pas constitué de pièces qu'on assemble (ça montre déjà ton biais formaliste). Le cerveau humain "est". Tu peux le découper en petits morceaux, l'analyser au microscope à balayage électronique et tenter de copier son fonctionnement mais rien, absolument rien ne te permet d'affirmer qu'il a des propriétés compositionelles. Alors que pour les machines que tu assembles, par construction tu as un objet compositionnel fait de bidules que tu connectes les uns aux autres.

Non.

Ce n'est pas moi ou un autre programmeur qui établit les connections.

C'est un programme d'apprentissage qui tape sur les doigts du système quand il se goure, et reinforce quand il est dans la bonne direction, aka diminue ou augmente la puissance des connections concernées.

Via des algorithmes, dont eg fameux algo de rétro-propagation du gradient (qui a une histoire intéressante), qui sont capables d'aller faire des corrections pertinentes profondément à l'intérieur du système. (Mais il y a d'autres algos hein).

Share this post


Link to post
Share on other sites

Non ce n'est pas trivial : la dimension du jeu bien que finie peut être impossible, concrètement, à gérer sur ordinateur. On peut très vite parler de chiffre supérieurs au nombre d'atomes dans l'univers.

En effet, c'est trivial que le jeu peut être résolu mais il faut trouver des méthodes au niveau algorithmique qui rendent également possible l'implémentation de la solution en réduisant cette dimensionnalité. Et ça ce n'est pas trivial du tout. Mais on commence à gérer pas trop mal la régression/classification.

 

Toute la question est de savoir si le cerveau humain est turing-simulable ou pas.

Et avant tout de savoir ce qu'on veut simuler. Parce que typiquement la conscience, même chez l'humain, on n'arrive pas à la définir. Alors pour aller essayer de la simuler...

Les avancées sont possibles uniquement dans les domaines où on sait définir quel output on veut (que ça soit jouer aux échecs, reconnaitre des mots parlés ou écrits ou conduire d'un point 1 à un point 2).

 

Il n'y a aucune raison que le muscle humain soit la métrique de ce qui est physiquement possible (couper du bois, etc).

Il n'y a pas plus de raisons pour que le cerveau humain soit la métrique de ce qui est intellectuellement possible.

Nos outils physiques ne sont que le prolongement de nos capacités physiques, tout comme nos outils computationnels ne sont que le prolongement de nos capacités intellectuelles.

 

Apparemment, tous les pontes en IA ne se chicannent plus trop sur la possibilité ou non d'atteindre l'intelligence artificielle d'un niveau humain ; ils se chicannent sur le timing, éventuellement, et sur le temps de passage à l'étage du dessus (intelligence supra humaine), mais pas sur la réalisabilité de l'IA 'dure'.

Et je parie qu'il n'y en a pas deux qui s'accordent pour savoir exactement ce que c'est ce "niveau humain". Si la tâche est de jouer aux échecs, l'IA a déjà un niveau largement surhumain, tout comme un marteau est largement plus efficace qu'un poing pour planter un clou. Mais le marteau n'est pas un "corps artificiel".

 

Le cerveau humain est sans conteste une merveille d'évolution et d'organisation

Nah, c'est un bordel immonde :mrgreen:

Ceci dit effectivement ça peut être utile de comprendre comment marche le cerveau (quels types de problèmes il essaye de résoudre et comment il s'y prend) pour peut-être lui piquer une idée ou deux (c'est le fond de commerce du connexionnisme).

 

Pour le moment la seule méthode connue pour produire de l'intelligence de niveau humain... c'est de se reproduire et de bien éduquer ses enfants.

S9pVWrX.gif

Toutafé. Quand les dispositifs d'inhibition sautent, on appelle ça une crise d'épilepsie.

C'est ce qui se passe quand on se met à utiliser 100% des capacités de notre cerveau en même temps, n'en déplaise à Luc Besson.

epilepsy.jpg

Share this post


Link to post
Share on other sites

Pour ceux qui souhaitent parler de l'évolution du cerveau humain, tenez compte de ce que les dernières connaissances nous indiquent: c'est un organe très coûteux, métaboliquement (20% de l'énergie pour 2-3% du corps), à fabriquer (accapare énormément de nutriments les plus denses: les graisses), et sa capacité chez nos ancêtres a été contrainte à moins de 500 cc jusqu'à un hack de thermorégulation assez grossier qui a poussé cette limite à 1800 cc.

Les animaux marins sont moins contraints que nous sur ce dernier aspect, d'ailleurs leur taille de cerveau dépasse souvent allégrement la nôtre. Pour autant ils n'en font pas grand chose, de cette capacité, à part peaufiner des techniques de chasse en 3D. Chez les calmars ce serait plutôt utilisé pour la communication et le camouflage apparemment.

Et chez les oiseaux la contrainte métabolique et structurelle est beaucoup plus stricte que pour nous, pour pouvoir voler *et* survivre à l'hiver. Pourtant ils savent fabriquer des outils et l'enseigner à leurs petits.

Bref il y a de la marge énorme de progrès possible du côté biologique. Les machines n'ont a priori pas le début du commencement de ces limites.

  • Yea 1

Share this post


Link to post
Share on other sites

un hack de thermorégulation assez grossier

 

Ca me rappelle cette expression d'un biologiste, François Jacob (cité par ce bon vieux Paul Jorion) pour décrire le cerveau humain : Un moteur à réaction (cortex surdéveloppé récemment) monté sur une brouette (le reste).

Share this post


Link to post
Share on other sites

... Les machines n'ont a priori pas le début du commencement de ces limites.

Les machines dépensent de l'énergie sans avoir besoin d'en produire, c'est déjà un avantage mais qui peut devenir un inconvénient. Peut être faudrait il chercher là la différence entre l'organisme vivant et la machine ? La capacité à se maintenir en fonctionnement par ses propres moyens. Les machines seraient plus proches des parasites ou des virus du coup, des hôtes obligatoires.

Share this post


Link to post
Share on other sites

C'est plus la programmation que le métal le facteur limitant.

Share this post


Link to post
Share on other sites

Et je parie qu'il n'y en a pas deux qui s'accordent pour savoir exactement ce que c'est ce "niveau humain". Si la tâche est de jouer aux échecs, l'IA a déjà un niveau largement surhumain, tout comme un marteau est largement plus efficace qu'un poing pour planter un clou. Mais le marteau n'est pas un "corps artificiel".

 

Oh oui, parie moi de l'argent :)

 

En gros, "passe le test de turing" et ça, c'est assez communément admis.

Share this post


Link to post
Share on other sites
La victoire est assez suprenante en effet.
 
3 hypothèses:
 
- L'équipe de Deepmind a arbitrairement diminué le niveau de difficulté pour x raisons, ou bien ils ont essayé un autre mode d'approche (puisqu'ils viennent tester leur machine), ou bien alpha go s'est lui-même adapté au niveau du joueur
 
- le joueur a compris le jeu de l'IA, il a donc faussé son jeu par rapport aux 3 précédents match. L'IA n'a pas eu le temps de s'adapter au nouveau style de jeu créatif.
Mais bon, je connais mal le go et valider cette hypothèse sous-tend que le robot avait plus d'informations sur le joueur pré-match alors que le joueur connait pas le style du robot (ce qui peut relativiser les 3 précédentes victoires du robot)
 
- God move, intuition du génie et personne n'a vu venir, le robot a buggé dessus. Il n'est pas capable de réagir face au coup de génie.

En tout cas, congratz!

Share this post


Link to post
Share on other sites

Je viens d'écouter la conférence de presse et Lee Sedol dit deux choses à ce sujet. La première est qu'il pense qu'AlphaGo joue généralement moins bien avec les pierres noires qu'avec les pierres blanches, ce qui est surprenant et je ne sais pas trop si c'est possible... La seconde est qu'à son avis, certains coups font "bugger" (sic) AlphaGo - c'est-à-dire que ses coups suivant sont généralement mauvais - notamment des coups "imprévisibles" (sic). Evidemment Lee Sedol n'a pas de raison de connaître le détail du fonctionnement d'AlphaGo donc ces remarques sont strictement phénoménologiques.

 

Les développeurs d'AlphaGo n'ont pas tenté d'expliquer la défaite par des propriétés du fonctionnement d'AlphaGo, ils l'attribuent à plusieurs reprises au talent incroyable de Lee Sedol, notamment à son 78e coup. Il n'est pas clair que Lee Sedol attribue les erreurs d'AlphaGo à ce coup particulier quand il parle de coup "imprévisible", bien qu'il semble qu'AlphaGo en ait en effet commis une juste après ce coup, un coup qui changeait le rapport de force sur plusieurs fronts différents du jeu en même temps. Par ailleurs Lee Sedol dit qu'il n'a pas construit son jeu de manière à produire ce coup, et qu'il l'a joué à un moment où il lui semblait que c'était le seul possible.

 

Du coup ce serait intéressant de se demander si AlphaGo aurait été capable de désamorcer ce coup si Lee Sedol avait eu un comportement "indiquant" (rendant plus probable) qu'il essayait de construire cette situation.

 

Ah oui, pour répondre à Neothy, les développeurs démentent avoir modifié quelques paramètres de leur programme que ce soit pour ce match, la question leur a été posée plusieurs fois.

Share this post


Link to post
Share on other sites

Ah oui, pour répondre à Neothy, les développeurs démentent avoir modifié quelques paramètres de leur programme que ce soit pour ce match, la question leur a été posée plusieurs fois.

Je ne sais pas si c'est possible, j'ai lu que la stratégie de DeepMind se reposait sur un apprentissage sur 6 semaines, donc impossible à changer d'un match à l'autre.

Share this post


Link to post
Share on other sites

Je viens d'écouter la conférence de presse et Lee Sedol dit deux choses à ce sujet. La première est qu'il pense qu'AlphaGo joue généralement moins bien avec les pierres noires qu'avec les pierres blanches, ce qui est surprenant et je ne sais pas trop si c'est possible... 

 

Au go (comme au échec), l'expérience montre qu'avoir l'initiative du premier coup est un avantage. Au go pour compenser cet avantage, on donne au joueur blanc 7,5 points d'avance (dit komi). Peut être que alphago est plus à l'aise pour gérer une avance de 7,5 point que de d'avoir la rattraper en prenant l'initiative.

 

Sinon, idem google n'a pas modifié sa machine entre les matches. D'ailleurs leur but à la base n'est pas de venir mettre un 5-0 au champion de go, c'est de tester leurs algo pour révéler leurs limites et corriger leurs faiblesses. Dans l'interview d'après match ils expliquent qu'ils ont hâte d'analyser les logs du match est de comprendre ce qu'il s'est passé.

 

Pour les curieux, l'interview d'après match (à 5:45:00) : 

Share this post


Link to post
Share on other sites

... Dans l'interview d'après match ils expliquent qu'ils ont hâte d'analyser les logs du match est de comprendre ce qu'il s'est passé.

 

C'est à dire ? Ils vont arriver à savoir pourquoi il a joué tel coup et pourquoi il s'est planté ? C'est génial !

Share this post


Link to post
Share on other sites

Bref il y a de la marge énorme de progrès possible du côté biologique. Les machines n'ont a priori pas le début du commencement de ces limites.

Le cerveau c'est l'évolution et l'ordre spontané. La machine c'est la planification rationnelle. Donc l'IA est anti-libérale.

 

En gros, "passe le test de turing" et ça, c'est assez communément admis.

Sous la forme purement verbale un programme de type Cleverbot le passe je pense. En fait le vrai test serait de substituer un enfant par un robot à la naissance et que personne ne s'en rende compte (y compris le robot). Là ok.

Share this post


Link to post
Share on other sites

C'est à dire ? Ils vont arriver à savoir pourquoi il a joué tel coup et pourquoi il s'est planté ? C'est génial !

 

Alphago a paramétré en analysant des millions de partie une fonction qui ressemble à "quel coup dois je jouer pour maximiser mes chances de victoires".

Google doit avoir accès aux statistiques calculés par l'AI pour prendre ces décisions. Ils doivent pouvoir interpréter dans une certaine mesure ses décisions. 

 

Le match s'est en grande partie sur une erreur dans le match. J'imagine Google va disséquer cette décision. Ils pourront aussi s'appuyer sur les analyses du match fait par les pros: en ce moment ils sont tous en train de revoir la position clé du match.

Share this post


Link to post
Share on other sites

Sous la forme purement verbale un programme de type Cleverbot le passe je pense.

Non. Il suffit de commencer à utiliser un peu d'humour ou d'autoréférence et pouf, la magie s'effondre.

Share this post


Link to post
Share on other sites

En fait le vrai test serait de substituer un enfant par un robot à la naissance et que personne ne s'en rende compte (y compris le robot). Là ok.

Là, tu anthropomorphises beaucoup trop et tu ajoutes des contraintes mécaniques arbitraires.

Share this post


Link to post
Share on other sites

Non c'est pas si bête l'idée de l'enfant. Je ne comprends pas trop le reproche d'anthropomorphisme puisque le test de Turing consiste à attribuer l'intelligence à une machine si elle parvient à se faire passer pour humaine auprès des humains. Un robot qui serait substituable à un enfant toute la vie de ce dernier passerait une version la plus forte du test.

 

Soit on prend le test à la lettre : se faire passer pour humaine dans le cadre d'un test de conversation textuel, etc, soit on le prend dans un sens plus large. Je trouve la deuxième interprétation plus intéressante car je pense que Turing avait dans l'idée que le comportement linguistique était soit le plus difficile à contrefaire soit définissait tout simplement l'humanité. Or si tu te renseignes sur la controverse Chomsky-Skinner, bien que la plupart considère que le premier ait remporté de le débat, les avancées dans l'apprentissage non-grammatical de la langue, c'est-à-dire seulement par essai et erreur, feraient presque penser que les propriétés formelles qu'on attribue au discours humain sont un peu optimistes.

 

Donc pas impossible qu'il faille un test plus exigeant que la conversation.

 

Après, philosophiquement, je ne suis pas du tout d'accord avec l'idée de définir l'intelligence comme la capacité à passer le test de Turing, et je pense que l'argument de Turing pour défendre ce test dans l'article de 1950 est particulièrement fallacieux, mais c'est une autre histoire.

Share this post


Link to post
Share on other sites

Non c'est pas si bête l'idée de l'enfant.

J'ai pas dit que c'était bête.

 

Je ne comprends pas trop le reproche d'anthropomorphisme

Là, on cherche à obtenir de la machine le même comportement complet (intellectuel, biologique et moteur) qu'un humain, alors que le test de turing porte sur un comportement intellectuel. Et c'est logique : on teste les capacités de la machine à tenir un raisonnement compréhensible du point de vue humain, contextualisé, etc... Pas qu'il soit capable d'avoir le même tractus digestif.

 

puisque le test de Turing consiste à attribuer l'intelligence à une machine si elle parvient à se faire passer pour humaine auprès des humains.

L'intelligence, oui, pas sa capacité à faire des prouts.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Recently Browsing   0 members

    No registered users viewing this page.

  • Similar Content

    • By Nick de Cusa
      Pas trouvé le fil robots.
      Une approche bien plus maligne que de réinventer les modes de déplacement géniaux inventés par la nature.

    • By Sekonda
      Un économiste du GMU, physicien de formation. Bryan Caplan en dit "Quand un économiste typique me parle de ses dernières recherches, ma réaction usuelle est « Ok, peut-être », puis je l'oublie. Quand Robin Hanson me parle de ses dernières recherches, ma réaction usuelle est « C'est impossible ! », puis j'y pense pendant des années"
       
      Il est en autre connu pour son travail sur les marchés de prédictions et le concept futarchie qui en découle.
       
      Son blog :  Overcoming Bias
       
      The Age of Em: Work, Love and Life when Robots Rule the Earth (2016)
      http://ageofem.com/
       
      The Elephant in the Brain: Hidden Motives in Everyday Life (avec Kevin Simler) http://elephantinthebrain.com/
       
       
    • By Lancelot
      Je suis moins utile pour ça qu'il pourrait sembler au premier abord, parce que je ne lis pour ainsi dire pas de vulgarisation.
       
      En ce moment je lis des trucs sur le cerveau des cétacés, qui est connu pour être gros (dans la même proportion voire plus gros qu'un cerveau humain par rapport à leur taille). Il y a une grosse controverse depuis plusieurs années parce que certains tentent de prouver qu'ils sont du coup super-intelligents et d'autres qu'en fait non ce sont des bestioles au fond plutôt stupides. Très fun.
    • By Nick de Cusa
      Les dauphins s'appeleraient par leurs noms.
       
      http://www.7sur7.be/7s7/fr/2668/Especes-Menacees/article/detail/1674376/2013/07/24/Les-dauphins-sauvages-s-appellent-par-leur-nom.dhtml
×
×
  • Create New...