Aller au contenu

0100011

Utilisateur
  • Compteur de contenus

    9 884
  • Inscription

  • Dernière visite

  • Jours gagnés

    8

Tout ce qui a été posté par 0100011

  1. Les IA sont des programmes comme les autres auxquels on doit appliquer les résultats scientifiques d'informatique théorique. Désolé de ne pas verser dans la littérature et la licence poétique sur un sujet scientifique. Les IA ne sont pas des produits de la nature (d'où le A dans IA). Les théorèmes d'informatique théorique ont le statut de vérités mathématiques. Par contre supposer que la nature est totalement mathématisable est un acte de foi.
  2. Justement dans Jules Vernes il s'agit d'un canon et pas d'une Tuyère ! Une fois le coup parti il n'y a plus d'apport d'énergie nouvelle donc si tu n'atteint pas la vitesse de libération (car une fois atteint la vitesse limite de déflagration tu ne reçois plus de poussée additionnelle). Et le projectile est neutre. Édit :. En y repensant il y a une possibilité théorique c'est de prendre l'énergie perpendiculairement au déplacement d'un projectile (comme le vent d'un voilier) qui ferait une force centrifuge sur un cercle de rayon inifini. Mais ce n'est pas du tout ce que JV a proposé et je ne sais pas comment c'est implantable. Une sorte de fronde pyrotechnique.
  3. Ce n'est pas un rejet viscéral. C'est assez marrant de voir que quand on a un marteau tous les problèmes ressemblent à des clous. Par construction toute IA est une machine de Turing particulière et on peut lui associer une fonction de N dans N. Quelle soit produite par deep learning ou par un processus évolutif, ou un singe qui rappelle au hasard sur un clavier, n'y change fondamentalement rien. Poser par principe que le fonctionnement de l'univers se réduisent à notre manière de le modéliser est un a priori. Il existe des indices forts pour montrer que ce n'est pas suffisant. Quant à l'image : si tu te places dans une perspective d'une IA sur-humaine alors essayer d'imaginer comment elle pourrait se comporter (dans l'article éliminer l'espèce humaine pour finir un calcul tranquillement) ressemble très exactement aux réflexions d'un enfant qui pense que ses parents font tout ce qu'ils veulent parce qu'ils lui disent "non" et que personne ne leur dit non à eux. Ergo quand il sera grand il fera ce qu'il veut car personne ne lui dira non. Bref les prophètes de malheur (les IA vont nous exterminer blabla) n'ont pas l'humilité qu'ils devraient avoir : si des super IA arrivent la seule chose que je sais est qu'on a aucune putain d'idée de ce qu'elles feront justement parce qu'elles seront inaccessibles. Maintenant trois heures de cours en complexité suffisent à montrer que cette image d'IA toute puissant est un fantasme. Si tu rajoutes un peu de Calculabilité en plus tu t'apercois que les problémes sont bien plus profonds. Un exemple à la con : soit f la fonction qui quand je lui donne une date en seconde depuis la naissance de Barberousse me donne les nombres du tirages du Loto Bulgare le plus proche dans le temps. f est très bien definie, sans ambiguïté. C'est une fonction mathématiques de N dans N comme une autre. Est ce qu'une super IA peut calculer f ? Plus subtilement : les IA sont dénombrables (il faut bien écrire le programme dans un certain alphabet). Les fonctions de N dans Notre ne le sont pas. (Théorème de Cantor).
  4. Non AlphaZero est un mélange d'exploration combinatoire aléatoire (un Monte Carlo tree search) et d'une évaluation de la position par réseau de neurones. Un réseau de neurones est juste un gros circuit (donc c'est un calcul logique) qu'on règle automatiquement avec un algorithme d'apprentissage (après chaque partie on règle des paramètres en fonction des résultats obtenus).
  5. C'est la même chose pour les IA qui jouent à des jeux combinatoires. Le problème est que pour jouer à ce même jeu les humains utilisent leur intelligence pour court circuiter ces calculs complexes : deux chemins différents pour arriver au même endroit. Une fois au même lieu il y en a qui soutiennent que l'IA a fait preuve d'intelligence en antropomorphisant et en constatant qu'elles arrivent au même résultat que la réflexion humaine.
  6. On pourrait dire en première approximation qu'il s'agit d'avoir un modèle du monde qui permette de faire des prédictions sans avoir à faire l'expérience de manière concrète : ainisi une meute de chiens africains qui se sépare en deux groupes pour chasser (un qui aboie pour rabattre sur le second groupe), l'humain qui imagine les conséquences de ses actions avant de les mettre en œuvre montrent ce même trait. La profondeur et la complexité des mécanismes mentalement simulables donne des degrés.
  7. Car c'est notre manière à nous de considérer ce coup qui fait qu'on le range dans le créatif. Créer des règles du jeu n'est pas du même niveau que de résoudre une équation combinatoire. De la même manière les coups de Stockfish aux échecs vont parfois à l'encontre de l'académisme échiquéen : mais c'est juste que nous en tant qu'humain on utilise des heuristiques (qui sont ce qu'on apprend dans les écoles d'échecs) parce que nous sommes incapables de gérer l'explosion combinatoire. La machine trouve des coups à jouer par une exploration exhaustive que de notre point de vue on qualifie de créatives (par exemple Caruana a raté un gain vu par les machines dont Kasparov disait que c'était inimaginable qu'un homme le trouve).
  8. Le problème de fond est de penser que l'intelligence est une fonction qui sur certaines entrées va produire certains résultats. C'est d'ailleurs à mon avis le pire biais du QI quant à la mesure de l'intelligence : on mesure à travers des réponses. Or ce n'est pas uniquement dans les réponses aux questions que se trouve l'intelligence, je parlerais plutôt d'habileté. D'ailleurs je sais que le fonctionnement de mon cerveau n'est pas le même quand je joue aux échecs et quand je résoud un problème d'échecs où on me dit "mat en 5". C'est complètement différent. Nécessairement les tests de QI mesurent la deuxième activité. Peut être qu'elle est corrélée à la première mais je sais qu'elles sont différentes. Ce que les humains, voire des animaux, sont capables de faire est de changer les règles du jeu (le fameux "think outside the box") pour des raisons x. A ce jour les IA ne font que répéter en mieux des schémas connus (qui sont enfouis dans des tonnes de data d'où elles apprennent). Je n'ai jamais vu une IA avoir une idée de rupture. Jamais. Qu'elles soient capables de calculer un prix de marché mieux que moi en prenant en compte des tonnes de paramètres : par exemple sur Airbnb en calculant le prix de l'appartement que je loue, c'est clair. Qu'elles soient capables de penser à une application comme Airbnb, pour le moment c'est non. Et on en est très loin. Une IA joue mieux aux échecs que moi mais moi j'ai inventé des variantes du jeu lui même (pour lesquelles elles finiront par jouer mieux que moi). La dernière idée qui ne marche pas est celle de l'accélération infinie de l'intelligence. Il y a des arguments très profonds (en Calculabilité et en complexité également : les super IA ne feront pas écrouler les classes de complexité et donc comme déjà des problèmes d'optimisation qu'on peut expliquer à un enfant de 5 ans ne sont pas tractable car exponentiels on voit mal comment une super IA pourrait d'un coup tout résoudre par magie).
  9. C'est vraiment similaire au raisonnement d'un enfant qui pense que quand il sera grand il va tout faire. D'autre part c'est supposer qu'une AIG est une fonction à maximiser dans un certain espace. Au mieux ça paraît douteux, au pire ça ressemble à du mauvais Jules Vernes qui faisait une règle de trois pour calculer la quantité de poudre nécessaire pour projeter un vaisseau sur la lune (alors que la vitesse de déflagration de n'importe quel explosif est inférieur à la vitesse de libération).
  10. Un article de Vox à la rue complet : https://www.vox.com/future-perfect/2018/12/21/18126576/ai-artificial-intelligence-machine-learning-safety-alignment Plusieurs affirmations sont directement fausses. Au delà on a droit aux scénari habituels qu'on croirait écrits par des gamins de 11 ans on retrouve cette idée que l'éthique ne pourrait pas émerger d'une super-intelligence. C'est à dire il y a cette contradiction interne suivante : on parle d'intelligence générale et en même temps on présente cette intelligence générale comme bornée et priorisant ses calculs sur tout le reste. C'est-à-dire qu'on garde une idée de l'IA qui est la maximisation d'une fonction pour intuiter l'idée du comportement d'une IA qui dépasserait l'humain. Sinon c'est marrant de voir comment le journaliste répond tout simplement "oui" à la question de savoir si une IA peut être aussi intelligente que l'homme sans donner aucun argument. Même pas un argument d'autorité. Ça me motiver ait presque pour faire un article pour contrepoints...
  11. C'est le "aware" mais politiquement orienté.
  12. It's not a bug, it's a feature.
  13. Ma fille de 4 ans prend des livres dans la bibliothèque et le demande de les lui lire. Je ne dois inventer des histoires en permanence pour ne pas lui lire "les essais" de Montaigne ou "droit législation liberté" etc. Je ne sais pas quand et comment je pourrais sortir de ce traquenard pire que le mythe du père Noël.
  14. Enchaine c'est parfait !
  15. Le truc est que "woke" est un mot précis je pense qu'il vaut mieux ne pas le traduire. Il revient de partout même dans les musics awards etc où les artistes font un w avec leurs bras etc. C'est très spécifique (mais concientisé capture assez bien l'idée en effet).
  16. Non il y a un côté trop positif pour rassembler. Elle te lie comme dans un contrat et t'aveugle car t'impose une vision du monde.
  17. Oui c'est bien du verbe lier qu'il s'agit dans le sens de Haidt c'est qu'une fois adoptée la foi te ligote. Quelle est ta proposition ?
  18. Sur les ronds points à mal utiliser des objets censés augmenter la sécurité de tous avec pour bilan plus de morts en 2018 qu'il n'y en a eu en actions terroristes.
  19. L'entropie est une mesure de la quantité d'information. L'information est ce qui permet de réduire l'incertitude. L'exemple de base est le suivant : supposons que le jeu est de deviner un mot lettre par lettre. Au début du jeu tu as 0 informations. N'importe quelle lettre convient (en fait tu peux faire des statistiques sur le début de mots : plis de mots commencent par b que par w il suffit de regarder un dictionnaire). Le jeu avançant le mot ne révèle petit à petit si le débit du mot est "anticonstitutionnellem" tu peux deviner sans te tromper la fin du mot qui sera "ent". Autrement dit les dernières lettres n'apportent aucune information car tu sais déjà lesquelles elles sont. Ce n'est pas inutile dans la vie de tous les jours car on peut avoir des conversations dans des endroits bruyants et donc la redondance information est utile (dans les langues naturelles a peu près 50 % de l'information est en trop c'est une des raisons pour lesquelles on peut compresser sans pertes des fichiers). L'entropie est une manière mathématique de formaliser cette intuition. L'entropie est maximale quand la représentation de l'information est minimale : c'est à dire quand l'information qu'on veut représenter est une suite aléatoire : on ne peut plus la compresser car elle n'a pas de structure. Par exemple pour te d'écrire le chiffre formé de 100000 de 7 je n'ai pas besoin d'écrire 100000 de 7 sur une feuille ce qui prend de la place. Avec 7 caractères j'y arrive. Par contre une suite de nombre aléatoire de 1000000 chiffres ne pourra se représenter qu'en écrivant cette suite de manière explicite. L'entropie des un millions de 7 est 6 ou 7 car juste avec 7 caractères je peux la représenter. L'entropie de la suite aléatoire sera elle égale à sa longueur (modulo codage).
  20. Dieu est incritiquable là n'est pas la question : ce que je dis est une critique des personnes qui pensent qu'elles peuvent comprendre un mécanisme aussi général que celui de l'univers au travers d'une technologie aussi spécifique que la pensée structurée (au sens où on écrit un formalisme et on donne des règles de calcul dans ce formalisme et c'est censé résumer la réalité sans perte d'information). Il se trouve que toute IA produite par un ordinateur souffrira de ces limitations également. Maintenant la question ouverte est de savoir si la réalité est schématisable ou non par ce type de technologie. Il me semble clair que c'est non mais par construction, si c'est le cas, ce n'est pas démontrable scientifiquement : on atteint les limites de la pensée humaine.
  21. Alors c'est marrant : sa misconception du "design" me donne à la fois une manière de critiquer sa classification (hint : une machine de Turing universelle peut simuler toute machine de Turing donc la distinction hardware/software est spécieuse, CRISP inside) mais me fait aussi penser à une critique possible de la théorie de "l'intelligent design". Non le résultat de l'évolution biologique ne peut pas être le résultat d'un design comme on l'entend au sens humain : un plan écrit (dessiner whatever il faut bien le représenter comme une suite de 0 et 1 que cette suite représente une photo un film ou un texte ne change rien) avec derrière une machine logique qui calcule l'évolution du système.
  22. Dernier article de Lomborg sur le sujet : https://www.project-syndicate.org/commentary/climate-change-self-defeating-alarmism-by-bjorn-lomborg-2018-12
  23. Je n'arrive pas à souscrire à l'unicité dans cette proposition. Fondamentalement je pense qu'on part à l'envers : notre manière de réfléchir et de modéliser le monde n'impose rien à ce dernier. C'est dans le sens inverse que ça se passe : la manière dont l'univers fonctionne impose des contraintes au phénomène de la cognition qui n'est qu'un phénomène particulier de l'univers. Par construction notre cognition est limitée. C'est le fameux paradoxe du menteur : une partie de l'univers, mon cerveau, est justement ce qui permet de comprendre l'univers : il n'y a pas assez de place pour que ça rentre.
  24. Le premier qualificatif de la phrase est "stable" or un phénomène qui s'auto-détruit est tout sauf stable (ou alors il faut utiliser le terme périodique).
  25. Je viens juste de commencer. C'est marrant à lire c'est vrai mais là je sens mon côté killjoy qui reprend trop le dessus sur pas mal d'aspects informatique théorique. Bon je finis avant d'en dire plus.
×
×
  • Créer...