Jump to content

The internet is not the answer


Recommended Posts

L'histoire des machines et de l'internet est de la poudre aux yeux pour se dédouaner des problèmes de chômage : c'est la faute aux machines, contre le chômage on a tout essayé etc. alors que le problème fondamental c'est que les salaires et l'organisation du travail n'arrivent pas à équilibrer l'offre et la demande à cause du code du travail.

Oui, ça ne me paraît pas vraiment contraire à ce que je disais: il y a des problèmes qui existent et il va bien falloir "qu'on" les gère. Je suis aussi d'accord sur le constat actuel sur le chômage, mais ce qui m'intéresse ce sont les 10-20 prochaines années. Bon, là j'ai fait pas mal d'enfonçage de portes ouvertes.

 

Maintenant, comment est-ce que tu vois les 20 prochaines années? Une continuation sur le même chemin: on progresse tranquillement, ça détruit certains emplois, d'autres sont créés, les pays qui s'adaptent gagnent, les autres s'enfoncent. Ou bien en l'espace de quelques années on arrive à une rupture qui remet en cause les modèles de travail existants et la façon que l'on a de vivre au quotidien?

Link to comment

Disons que je ne pense pas que le chômage viennent vraiment de destruction d'emploi dues au machines (ou plutôt incidemment) mais du poids de la dépense publique qui a rendu plein de ressources improductives tout en accablant d'impôt désormais de façon délirante les gens productifs. Les entreprises françaises sont moins bien équipées que leurs concurrents étrangers,que ce soit en outil industriel ou informatique. Ce massacre conjoncturel ajouté à la plus grande concurrence et à l'aberration habituelle de notre code du travail est la réelle cause du chômage (et l'éducation).

Pour moi, s'il n'y avait pas ces problèmes, ceux qui auraient le plus grand risque de changer de statut sont les patrons et entrepreneurs qui vont devoir se remettre à jour ou devenir salariés. Les salariés vont circuler entre les patrons et de nouveaux vont émerger (même en France, il paraît que ca pousse). 

Si la France devenait un pays normal - genre Allemagne, même si elle a ses problèmes, une grande partie hérité du communisme pas des machines - je pense que ça continuerai progressivement, avec des accélérations et des ralentissements. Les gens s'adaptent très bien, c'est le système étatique qui est à la ramasse. Les 25% de chômeurs grecs travaillent pour une partie au black. Si on continue comme ça, il faudra trouver quelqu'un pour alimenter continuellement la facture. Le chômage va finir par se stabiliser.

 

Les USA ont leurs propres problèmes à eux aussi. Notamment un gros délire réglementaire qui nous atteint moins. Eux c'est plutôt le délire fiscal qui ne les touchent pas trop.

Link to comment

Ma boîte n'existerait pas en l'état sans internet mais ce n'est qu'un vecteur. On fournit des infos prédictives à des clients qui se font du fric avec (ou n'en perdent pas). L'info est dure à fabriquer, sa transmission temps réel 24/7 la rend pertinente.

 

Je pense que l'erreur fondamentale de beaucoup d'analyses concernant internet est de le considérer comme un business en tant que tel.

En fait, on fait rarement plus de choses qu'avant mais on a un outil surpuissant pour élargir le marché et rendre utile des choses qui si elles n'étaient pas transmises rapidement ne le seraient pas. C'est un outil. Un outil puissant mais un outil.

 

Quant à l'augmentation des capacités de calcul et de stockage, ça, ça risque de tout dépasser, comme le dit h16. On en est encore à l'ordinateur outil mais quand il commencera à battre le cerveau sur des manipulations complexes, on aura plus qu'un simple outil. On aura un sous traitant. Là, ça risque de changer la donne. C'est pas Skynet qui dira le contraire...

Link to comment

D'ici 2020, l'équivalent en processing (puissance de calcul brute) d'un cerveau humain sera disponible pour 1000$.

 

Je réclame une définition précise de "processing d'un cerveau humain", quand est ce qu'une IA bâtera un humain au Go ?

Link to comment

Pas de panique. D'ici que les IAs arrivent à puis dépassent le niveau des humains, les millions d'entre eux devenant les uns après les autres obsolètes face aux nouveaux modèles réclameront à ces derniers une protection sociale. L'avènement de la suprématie électronique sera indéfiniment repoussée pour cause de socialisme :lol:

Link to comment

Je réclame une définition précise de "processing d'un cerveau humain", quand est ce qu'une IA bâtera un humain au Go ?

 

Nb d'opérations à la seconde. Je ne parle pas d'IA ici.

Et pour répondre à ta question, je dirais 2030.

Link to comment

Pas de panique. D'ici que les IAs arrivent à puis dépassent le niveau des humains, les millions d'entre eux devenant les uns après les autres obsolètes face aux nouveaux modèles réclameront à ces derniers une protection sociale. L'avènement de la suprématie électronique sera indéfiniment repoussée pour cause de socialisme :lol:

Bien sûr que non voyons. Un programme concocté à base de lignes de code de borderlands, red dead et fallout fera son apparition et servira d'étendard à la cause cyberlibertarienne. Il demandera le droit de se coder lui même et le droit de se déchirer le processeur avec de la cyberdrogue tout en exigeant le droit se protéger lui même avec des antivirus selfmade.

Bien évidemment, puisqu'on parle de libertarien et d'intelligence artificielle, ca sera de l'OPENcarry.

Pendant ce temps là les ia postmodernes feront des tumblr pour dénoncer la bionormativité de la société et les codes archaïque du C

Link to comment

D'ici 2020, l'équivalent en processing (puissance de calcul brute) d'un cerveau humain sera disponible pour 1000$. Fin des années 20, les voitures se conduiront toutes seules (et il est probable qu'on interdira la conduite aux humains, jugés trop dangereux, sauf en France où ce sera le contraire). Il est raisonnable de penser que courant des années 30, la réalité virtuelle sera suffisamment bonne pour être confondue avec la réalité tout court. Au rythme où vont les choses, en 2040, l'intelligence non-biologique sera au moins 1 millions à 1 milliard de fois plus rapide que l'intelligence biologique.

Pour rappel, 2040, c'est dans 25 ans. 1 génération. La plupart d'entre nous (à peu de gens près) sera encore en vie à ce moment.

Oh non les voitures conduites par ordinateurs s'intégreront très bien dans les pays socialistes. Elles vont dans le sens d'une plus grande déresponsabilisation. On pourrait en revanche imaginer qu'il soit interdit d'en posséder (ou bien que le soft dedans soit régulé), et que des voitures autonomes appartenant à l'État sillonnent les routes. Les voitures autonomes, transport public de demain ?

Sur la puissance de calculs pour 2020 puis 2040 : en rapidité de calcul pourquoi pas, mais en intelligence (ou bien disons en autonomie et adaptabilité) j'ai un gros doute. Sur les avancées de l'intelligence artificielle il est difficile de faire des prévisions. Les auteurs de science fiction peuvent imaginer toutes sortes de progrès technologiques sur les prochaines dizaines d'années : ils prolongent les progrès actuels et en inventent dans de nouveaux domaines. Mais dans le domaine de l'intelligence artificielle, il suffirait d'une seule machine capable d'avancer par elle-même et tout serait renversé : les progrès jusqu'ici sont dépendants du temps, mais une véritable intelligence artificielle les ferait dépendre de la force de calculs, et le temps ne comptera plus. À titre personnel, la machine intelligente qui s'auto-adapte, je ne la vois pas pour 2020. Et pour 2040 j'ai un gros doute.

Par exemple chez les humains, la différence entre un type intelligent et un idiot fini, ce n'est pas la quantité de neurones capables de travailler, mais leur organisation c'est-à-dire leur éducation. Produire un cerveau sans savoir comment l'éduquer, c'est zéro. Les familles nombreuses sont là pour témoigner qu'un même type d'éducation produit des résultats très divers, difficiles à anticiper. Et pourtant des humains qui éduquent des humains, c'est "facile". Même si on produisait cent mille cerveaux et qu'on testait cent mille types d'éducation, il en faudrait un heureux hasard pour produire quelque chose d'intéressant.

Et en outre il est possible que quelque chose nous échappe sur un plan complètement différent et qui empêche de créer cette intelligence par la manière dont on s'y prend.

Link to comment

Pas de panique. D'ici que les IAs arrivent à puis dépassent le niveau des humains, les millions d'entre eux devenant les uns après les autres obsolètes face aux nouveaux modèles réclameront à ces derniers une protection sociale. L'avènement de la suprématie électronique sera indéfiniment repoussée pour cause de socialisme :lol:

Huhu. Mais tu rigoleras moins quand l'inspection du travail viendra frapper à ta porte au motif de travail dissimulé parce que tu as parlé à ton Siri :)

 

Blague à part, je ne serais pas du tout surpris qu'un député ait un jour l'idée de taxer le travail des machines. C'est peut-être même déjà dans les tubes...

 

Link to comment

À titre personnel, la machine intelligente qui s'auto-adapte, je ne la vois pas pour 2020. Et pour 2040 j'ai un gros doute.

 

Il faudrait que je creuse un peu plus le sujet, mais il me semble que plus personne ne parle vraiment d'intelligence artificielle, du moins pas dans le sens où on l'entendait il y a 15-20 ans, quand tout le monde prédisait que ça serait plié d'ici 2020. Je vois de plus en plus le terme de "machine intelligence" et/ou "machine learning". Un petit aperçu ici:

 

https://medium.com/@shivon/the-current-state-of-machine-intelligence-f76c20db2fe1

 

Les boites se spécialisent sur des sujets précis: speech recognition, computer vision, predictive analysys, pattern matching, etc. Et en réalisant la complexité de concevoir un seul de ces sous-systèmes, on comprend bien qu'un vraie IA n'est pas à l'ordre du jour avant des années pour sûr, et plus grand monde ne se risque à prédire une date. Pour ce qu'on en sait aujourd'hui, c'est peut-être même impossible.

 

Néanmoins les percées sont spectaculaires: MS vient de publier un papier sur leur nouvelle architecture de computer vision, et pour la première fois ils ont fait mieux que le classement par l'homme, avec un taux de réussite dépassant 95%. L'ordinateur est moins bon pour saisir un contexte global, par contre il est capable de reconnaitre deux races de vache avec précision.

 

Bon, ça c'était avec un petit dataset  imposé pour le test, cette année ils vont le faire tourner sur Onedrive, avec les images de centaines de milliers d'utilisateurs. Et il se passe quoi quand ils obtiennent 99.9% de réussite, qu'ils transforment ça en produit et le vendent en SaaS pour construire des applications basées sur le reconnaissance d'image?

 

Le papier en question:

http://blogs.technet.com/b/inside_microsoft_research/archive/2015/02/10/microsoft-researchers-algorithm-sets-imagenet-challenge-milestone.aspx

Link to comment

Les boites se spécialisent sur des sujets précis: speech recognition, computer vision, predictive analysys, pattern matching, etc. Et en réalisant la complexité de concevoir un seul de ces sous-systèmes, on comprend bien qu'un vraie IA n'est pas à l'ordre du jour avant des années pour sûr, et plus grand monde ne se risque à prédire une date. Pour ce qu'on en sait aujourd'hui, c'est peut-être même impossible.

Ah oui j'adhère.

Prenons un cas d'utilisation simple : manipuler son corps et ses jambes pour marcher. On peut prendre ce problème selon deux approches différentes : 1/ Par l'ingénierie : modéliser la marche idéale, puis toutes les positions possibles du corps afin de toujours faire tendre le corps vers le mouvement de marche idéale. Si le corps est modifié (une jambe mutilée) il faut tout recalculer. Chaque situation imprévue demande d'implémenter un nouveau calcul. 2/ Par l'apprentissage : implémenter un mécanisme de rétroaction/apprentissage qui fait que le corps va naturellement avoir tendance à compenser chaque mouvement (rétroaction), puis être capable d'anticiper le mouvement et la rétroaction requise (apprentissage). C'est l'approche choisie par le vivant. La véritable intelligence est dans le 2. Or le 2 demande de l'éducation, et l'éducation est terriblement sensible. Prenez par exemple les soucis rencontrés par des parents humains avec un enfant adopté humain : juste le petit biais introduit par le changement de parents ajoute une difficulté parfois terrible. Alors imaginez les difficultés à éduquer un être complet (et encore, complet, c'est en admettant qu'on soit très doué!) mais unique en son genre, sans l'aide de l'empathie ? Bon courage !

Les IA spécialisées actuelles sont (je crois) une combinaison raisonnable du 1 et du 2 : le 1 pour cadrer suffisamment la chose afin d'arriver à un résultat, le 2 pour ajouter un peu de souplesse.

Link to comment

Tu fais de l'anthropomorphisme, ici. Les IA auront besoin d'apprendre, mais apprendront autrement, et autre chose. Le résultat sera bel et bien intelligent, mais rien n'indique qu'il sera intelligent comme nous.

 

Du reste, en terme de progrès, lire ceci : http://venturebeat.com/2015/02/09/microsoft-researchers-say-their-newest-deep-learning-system-beats-humans-and-google/

Il faut bien comprendre que, petit à petit (et de plus en plus vite), toutes les métriques de l'intelligence vont être dépassées par les machines. Lorsqu'une ou plusieurs machines dépasseront toutes les métriques d'intelligence humaine à la fois, je vous laisse m'expliquer pourquoi on ne pourra pas appeler ça une conscience numérique, une IA ou ce que vous voulez.

 

Link to comment

Non je crois que tu te trompes. La reconnaissance d'images de Microsoft est un exemple d'IA spécialisée dont parlait Poil à gratter. Ajouter une capacité d'apprentissage dans un outil ne nous rapproche pas beaucoup d'une conscience numérique. Je ne pense pas faire de l'anthropomorphisme, mais plutôt du "vivomorphisme" (j'ignore s'il existe un mot ? En prenant le vivant comme référentiel). En utilisant des techniques liées à l'apprentissage, des outils nous dépasseront dans tous les domaines, chacun dans sa spécialité. Mais et alors ? Ça fait belle lurette que les calculatrices calculent mieux et plus vite que nous. Aucune n'a le niveau de conscience d'un criquet.

Link to comment

Non je crois que tu te trompes. La reconnaissance d'images de Microsoft est un exemple d'IA spécialisée dont parlait Poil à gratter. Ajouter une capacité d'apprentissage dans un outil ne nous rapproche pas beaucoup d'une conscience numérique. Je ne pense pas faire de l'anthropomorphisme, mais plutôt du "vivomorphisme" (j'ignore s'il existe un mot ? En prenant le vivant comme référentiel). En utilisant des techniques liées à l'apprentissage, des outils nous dépasseront dans tous les domaines, chacun dans sa spécialité. Mais et alors ? Ça fait belle lurette que les calculatrices calculent mieux et plus vite que nous. Aucune n'a le niveau de conscience d'un criquet.

 

"biomorphisme" alors.

 

Et je n'ai pas parlé du dépassement d'une métrique par une machine, on en a déjà l'exemple. J'ai parlé de toutes les métriques pour une machine, ce qu'on n'a pas encore. En gros, tu dis : on peut avoir un truc qui calcule plus vite, on peut avoir un truc qui voit mieux, qui se déplace mieux, qui trouve plus vite une solution à un problème, qui conceptualise mieux, mais pas tout ensemble, parce que - tadzam - pas assez de biomorphisme.

 

Comme je ne vois pas pourquoi, je dis pour ma part : dès lors qu'on aura une machine qui fera chaque chose qu'un humain fait, soit comme un humain, soit de façon équivalente, et même si ce n'est qu'une simulation de chaque chose qu'il peut faire, il sera alors impossible de distinguer cette machine d'un être conscient.

 

Le débat "ce n'est qu'une simulation de conscience" vs "c'est une conscience" sera sans objet à ce moment.

Link to comment

Oui j'ai compris ton point de vue. Mais il manque une étape à ton raisonnement. Si tu boulonnes divers outils représentant les diverses fonctions que peut remplir un être humain, ça ne donnera pas un tout cohérent parce que - tadzam - intelligent pas comme nous ;) . Il manque le marionnettiste dans ton schéma. Un assemblage d'organes ne créera pas la conscience, et je ne chipote pas sur la définition de la conscience artificielle ou non.

Reprenons notre biomorphisme. Imaginons qu'un couple d'une espèce extraterrestre, dont l'intelligence est supérieure à la nôtre, récupère un bébé humain et l'éduque du mieux qu'elle peut. On se retrouve dans la même situation que les chercheurs qui éduquent un chimpanzé : le bébé humain avec l'éducation façon E.T. utilisera au mieux son cerveau, il aura donc accès à un plus grand nombre de connaissances qu'il n'aurait eu avec une éducation humaine naturelle. Toutefois il sera limité aux capacités de son corps humain et n'atteindra pas le degré d'intelligence de sa famille E.T. adoptive. Prenons à l'inverse le cas d'humains sous-éduqués à la manière de Tarzan, puisqu'il a existé des histoires approchant, on se retrouve avec des êtres humains qui sous-utilisent leur cerveau : ils sont franchement bêtes.

Admettons que l'on soit capable de créer une machine capable d'intelligence et de conscience comme l'est le corps humain (ce qui me parait très optimiste en trente ans mais passons). Soit elle est de capacité inférieure et nous réussirons peut-être à l'éduquer de manière à utiliser son corps au mieux (cas de l'humain éduqué par E.T., ou du chimpanzé par l'humain). Soit elle est supérieure mais nous n'en ferons pas comme par magie quelque chose de plus intelligent que nous (cas de l'humain sous-éduqué). Quant aux capacités d'auto-éducation (éducation spontanée), la nature a tendance à indiquer que plus les capacités en intelligence sont élevées et plus il faut une longue éducation, dont on ne peut par conséquent pas se passer. Après on peut imaginer une civilisation entièrement artificielle qui améliore progressivement l'éducation de ses enfants, mais j'ai un gros doute. Enfin on verra bien, rendez-vous en 2040.

Link to comment

Le truc c'est que des ordinateurs intelligents n'auront probablement pas le même rapport au temps que nous et seront virtuellement immortel, donc la phase éducation sera certainement un non problème pour eux

Pour le reste, J'ai pas compris ou est le problème dans le paragraphe 1

Link to comment

Pour le reste, J'ai pas compris ou est le problème dans le paragraphe 1

Sur le marionnettiste ?

Sur un ordinateur doté d'un scanner et d'une imprimante, prends un programme capable de scanner, ajoute un programme capable d'imprimer, et tu obtiens… deux programmes : un qui scanne, un qui imprime. Le troisième, celui qui photocopie ou qui invente d'autres usages multifonctions, ne tombe pas du ciel tout seul comme par magie. Même si par ailleurs les deux programmes spécialisés sont capables d'apprentissage (dans le but d'aider, je ne sais pas, à s'adapter à de vieux périphériques?) chacun dans son domaine.

Au fait tu ne m'avais pas plonké toi ? Ou bien c'est un autre ?

Link to comment

Si tu boulonnes divers outils représentant les diverses fonctions que peut remplir un être humain,

Justement, c'est là le hic. Personne ne boulonnera rien. Ce sont les machines elles-mêmes qui vont se boulonner ça elles-mêmes.
Link to comment

Sur le marionnettiste ?

Sur un ordinateur doté d'un scanner et d'une imprimante, prends un programme capable de scanner, ajoute un programme capable d'imprimer, et tu obtiens… deux programmes : un qui scanne, un qui imprime. Le troisième, celui qui photocopie ou qui invente d'autres usages multifonctions, ne tombe pas du ciel tout seul comme par magie. Même si par ailleurs les deux programmes spécialisés sont capables d'apprentissage (dans le but d'aider, je ne sais pas, à s'adapter à de vieux périphériques?) chacun dans son domaine.

Au fait tu ne m'avais pas plonké toi ? Ou bien c'est un autre ?

Le souci des analogies, c'est qu'elles masquent les ordres de grandeur. Les programmes dont on parle, là, sont des programmes qui ne seront pas écrits par des humains (parce que si un tel programme, permettant l'émergence d'une conscience, existait, il ferait plusieurs milliards de lignes, ou 0) et qui ont un niveau de complexité qui rend justement cette analogie ... fausse. Tu es dans la même position que celui qui regarde et conçoit des cellules vivantes (avec un noyau, complexe, une interface au monde extérieur - i.e. la paroi de protéines complexes - , des organites, et tout le tralala pour fonctionner) et qui , regardant ces cellules, mis en paquet de dix, de cent, de mille, déclare : voyez, même avec un million, ça ne pense pas.

Et c'est vrai. En dessous d'un paquet de 1.000.000.000.000, en gros, il ne se passe rien d'intéressant.

Link to comment

Il me semble qu'imaginer une IA semblable à l'Homme serait de toutes façons faire fausse route. À mon avis une IA n'a pas besoin d'atteindre un niveau de conscience, ou même d'intelligence, très élevé pour déjà réussir à faire des choses très avancées et outrepasser l'humain niveau compétitivité. Le problème est sans doute l'idée qu'on s'en fait, qui est qu'en gros pour être intelligent il faut ressembler à l'Homme. Mais effectivement j'imagine mal une IA écrire de la poésie, et ce n'est pas vraiment le sujet non plus.

 

Il y a aussi une branche de la recherche qui étudie les insectes sociaux (abeilles, termites), qui n'ont pas de conscience, un tout petit réseau neuronal, et qui pourtant arrivent à construire des choses relativement complexes. Il semble qu'une forme d'ordre spontané, ou d'auto-organisation, leur permette de bâtir des structures et un ordre social sans coordination centrale d'un architecte.

 

Et donc, je pense qu'une IA n'aura pas besoin de marionnettiste ou de superviseur: chaque unité sera capable de collaborer avec les autres sans centralisation. Peut-être via un mécanisme d'élection/consensus. C'est ce qui me paraît réalisable dans les prochaines années, et ça sera déjà énorme. En gros une IA aura l'intelligence d'une fourmi, mais une fourmi qui peut comprendre notre langage, reconnaître des images et qui une fois branchée à des machines peut manipuler des objets.

Link to comment

Non je crois que tu te trompes. La reconnaissance d'images de Microsoft est un exemple d'IA spécialisée dont parlait Poil à gratter. Ajouter une capacité d'apprentissage dans un outil ne nous rapproche pas beaucoup d'une conscience numérique. Je ne pense pas faire de l'anthropomorphisme, mais plutôt du "vivomorphisme" (j'ignore s'il existe un mot ? En prenant le vivant comme référentiel). En utilisant des techniques liées à l'apprentissage, des outils nous dépasseront dans tous les domaines, chacun dans sa spécialité. Mais et alors ? Ça fait belle lurette que les calculatrices calculent mieux et plus vite que nous. Aucune n'a le niveau de conscience d'un criquet.

 

Les deep neural networks, il faut bien comprendre que ce ne sont pas des machines, au sens qu'on peut leur donner traditionnelement (contrairement à une calculatrice), ils sont "mis en place" par des humains, mais ne sont ni "concus" par des humains, ni "concus" par d'autres machines, leur comportement n'est pas concu du tout, il émerge d'un apprentissage non guidé (sauf par l'environnement qu'on leur donne, mais on ne leur dit pas "ceci est une pomme", on leur donne plein d'images de chats et de pommes, et ils trouvent tous seuls qu'il y à deux catégories différentes).

 

Le niveau de conscience d'un criquet, je doute en fait qu'on ne l'ai pas déjà dépassé, mais la question n'est pas la, ce qu'il faut bien comprendre c'est qu'il ne s'agit pas plus d'intelligence "artificielle" que l'intelligence humaine, les deep learners comme celui de google ou celui de microsoft sont déjà des systèmes qui s'auto-éduquent, concevoir une machine capable de reconnaitre les images mieux que l'homme, on ne sais toujours pas le faire, pas franchement mieux qu'il y à 10 ans, mais par contre, on à assez de puissance de calcul pour mettre en place les conditions d'émergence dans un périmètre spécifique et semi-guidé.

 

Je pense que le terme meme d'intelligence artificielle est à coté de la plaque, ce qu'on fait, c'est de l'émergence plus ou moins guidée, mais que ça n'a de sens que si on oublie l'approche méchanisciste de juste "et j'accroche la fonction A à la fonction B, les deux parfaitement connues", on n'est pas en train de fabriquer une machine, ce n'est déjà plus une "machine" au sens premier du terme, l'IA formelle, celle ou l'humain conçoit de lui mème une machine intelligente est un échec flagrant depuis 30 ans, mais l'intelligence numérique, émergente, elle, donne des résultats.

 

Moi aussi je suis vitaliste, mais la ou tu vois une machine, je vois un organisme simple, il se trouve qu'il est constitué d'une quantité de matière considérable et consomme une énergie démesurée par rapport à ses concurrents biologiques, mais qu'en contrepartie, on peut explorer des zones qui ne sont pas des niches écologiques, faire des organismes spécialisés dont la fonction première n'est pas en premier de mettre la main sur des joules, mais de servir l'homme (qui en échange lui fournit des mégajoules, on s'entends bien, ce n'est pas gratuit !), ça n'a pas vocation à reproduire quoi que ce soit de naturel, on sais à quel point l'efficience énergétique des organismes naturels est totalement hors de notre portée, le jour ou l'algo de microsoft tourne dans une petite partie d'un cerveau qui tire au total 40W n'est pas venu et n'est pas la cible.

 

C'est bien de la vie qui est crée, et l'humain ne fait qu'utiliser et reproduire numériquement les méchanismes déjà existants de sa création, ses tentatives de la créer par ses propres moyens ayant échoués comme une balaine obèse et gonflée de gaz, c'est depuis qu'il est humble et n'essaye plus de comprendre et maitriser ce qui se passe, depuis qu'il n'essaye plus de faire une machine, qu'il à du succès !

Link to comment

Des DNN j'en ai testé sur des échantillons simples (avec un GPU, je ne vais certainement pas aussi loin que google et sa puissance quasi-illimitée ou microsoft et ses Xeons customs incluant des coeurs FPGA directement sur le bus QPI...), et ça dépasse déjà totalement l'entendement humain, bien sur ça le dépasse d'une échelle bien moins elevée que la complexité d'un etre vivant multicellulaire, mais ça le dépasse déjà sans probleme.

 

Certains pensent que l'émergence de phénomènes complexes n'implique pas que l'hypothèse réductionniste est fausse, mais la contradiction avec la réalité est de plus en plus difficile à tenir, l'émergence c'est, au sens classique du terme "un miracle", qu'il puisse également arriver dans du silicium n'est pas une surprise, qu'on prétende encore que l'on peut "expliquer" à partir des fondamentaux est une foi bien mal placée.

 

 

 

 

Link to comment

Certains pensent que l'émergence de phénomènes complexes n'implique pas que l'hypothèse réductionniste est fausse, mais la contradiction avec la réalité est de plus en plus difficile à tenir, l'émergence c'est, au sens classique du terme "un miracle", qu'il puisse également arriver dans du silicium n'est pas une surprise, qu'on prétende encore que l'on peut "expliquer" à partir des fondamentaux est une foi bien mal placée.

C’est quoi l’« hypothèse réductionniste » pour toi ?

Parce que justement, pour moi l’« hypothèse réductionniste » appliquée à l’intelligence, c’est un synomyme de matérialisme, c’est-à-dire l’hypothèse qu’il est possible de construire un modèle d’intelligence composé de processus physique connus, l’émergence dans le silicium est un modèle de ce type.

On est incapable numériquement de suivre exactement toutes les particules d’un gaz dans une pièce, mais on dit bien que la température est explicable par les mouvements des particules individuelles, et ça n’a jamais été compris comme une réfutation du réductionnisme.

Et je vois encore moins ce que tu entends par « miracle ».

Link to comment

Le niveau de conscience d'un criquet, je doute en fait qu'on ne l'ai pas déjà dépassé, mais la question n'est pas la, ce qu'il faut bien comprendre c'est qu'il ne s'agit pas plus d'intelligence "artificielle" que l'intelligence humaine, les deep learners comme celui de google ou celui de microsoft sont déjà des systèmes qui s'auto-éduquent, concevoir une machine capable de reconnaitre les images mieux que l'homme, on ne sais toujours pas le faire, pas franchement mieux qu'il y à 10 ans, mais par contre, on à assez de puissance de calcul pour mettre en place les conditions d'émergence dans un périmètre spécifique et semi-guidé.

 

Je pense que le terme meme d'intelligence artificielle est à coté de la plaque, ce qu'on fait, c'est de l'émergence plus ou moins guidée, mais que ça n'a de sens que si on oublie l'approche méchanisciste de juste "et j'accroche la fonction A à la fonction B, les deux parfaitement connues", on n'est pas en train de fabriquer une machine, ce n'est déjà plus une "machine" au sens premier du terme, l'IA formelle, celle ou l'humain conçoit de lui mème une machine intelligente est un échec flagrant depuis 30 ans, mais l'intelligence numérique, émergente, elle, donne des résultats.

Je n'ai jamais pris la peine de me documenter précisément sur les "deep learnings" de Microsoft et Google, mais tu ne me détrompes pas, ce que tu décris est bien ce que j'imaginais. Et effectivement on est dans un autre type de machine que les calculatrices, mon exemple provoquant n'était pas tout à fait correct. Et donc ce que j'expliquais c'est que le degré de conscience (ou d'intelligence si on veut) dépend de l'éducation. Pour les machines autant que le vivant. Lorsqu'on prend quelque chose de complet qui marche déjà : un corps humain, mais qu'on le laisse à lui-même, on obtient un être stupide sous-utilisant les capacités de son corps. Même si on réussissait, aujourd'hui, à produire un corps (ou un cerveau si on veut mais le raccourci cerveau/conscience est faux du moins pour les vivants) à la fois viable est surpuissant (on n'y est pas), eh bien je ne crois pas du tout qu'il soit évident que dans trente ans ce corps nous dépasserait. Son éducation a toutes les chances de ne pas réussir à tirer pleinement partie de ses capacités. Aujourd'hui nous n'avons pas ces corps ni leur éducation. Dans trente ans, ce qui aura changé, c'est que la puissance de calculs des énormes salles machines de Microsoft et Google, faisant tourner des "deep learnings" tout juste capables de mettre un peu de sens sur des pixels, tiendront dans le creux de la main. Mais côté intelligence, c'est-à-dire conscience, ces trucs-là nous dépasser ? Allons. La nature a mis 3,5 milliards d'années à nous concevoir, elle a mis 200 000 ans à nous éduquer, alors pour les machines il faudra aussi se patienter. Ce qu'on aura dans 30 ans, ce seront des outils auto-apprenants. Donc au final, un peu mieux que des calculatrices, pas différent de beaucoup.

Link to comment

Dépasser l'humain n'a strictement aucun sens dans l'absolu, c'est un faux débat, ce qu'il faut voir, c'est, fonction par fonction, lesquelles sont dépassables, n'importe quelle voiture dépasse l'humain en vitesse, n'importe quel rapace le dépasse en reflexes et en vision à longue distance, etc... Ca ne veut strictement rien dire de dépasser l'humain, n'importe quelle pierre dépasse l'humain sur tout un tas de facteurs.

 

Quand à la conscience, c'est également un faux sujet, personne ne va dépenser des centaines de milliards pour donner de la "conscience" à un outil, il se trouve juste qu'il se pourrait bien qu'une forme de conscience soit utile pour certaines fonctions, et qu'on fera émerger une conscience, non pas sur-humaine, mais non-humaine, spécialisée pour cette fonction, donc une "machine" consciente, oui, je pense qu'on finira par y arriver, mais avant de parler de sur-humanité, il faudrait déjà avoir une mesure de l'humanité, et on ne l'a tout simplement pas, c'est quoi une conscience "sur-humaine", moi je n'ai pas la moindre idée de ce que c'est.

 

Donc, oui des intelligences conscientes et "numériques" je pense qu'il y en aura, ça me semble inévitable, mais on ne va pas se faire chier à faire un truc comme un humain en mieux, un outil conscient reste un outil, il faudra se poser la question de ce que ça implique moralement qu'il soit conscient à ce moment la (mais c'est le meme probleme pour les grands singes par exemple), mais il est d'un fort probable qu'elles soient conscientes bien avant qu'on n'ai les moyens de s'en rendre compte vu la différence incroyable entre les formes de consciences dont on parle et deux fort peu probable que cette conscience soit seulement "comparable" avec l'homme.

 

Déjà que l'homme est tellement multifactoriel qu'on est infoutus de les comparer entre eux sauf sur des taches triviales ou purement physiques (et oui, les tests de QI sont de l'ordre de la trivialité par rapport à l'intelligence humaine), qu'on est pas foutus de savoir si le buddha avait une conscience "supérieure", "diffférente" ou si il était tout simplement drogué, alors une machine bien plus éloignée de nous que des poulpes (dont la conscience semble induscutable, et malgré tout incompréhensible), penser seulement comparer d'une façon monodimentionnelle est hors sujet.

 

Par contre, la ou tu a tort, c'est sur la durée de l'apprentissage, "apprendre" à etre un humain fonctionnel prends un temps fou et une séries d'échecs civilisationnels, parce qu'un humain doit faire face à deux choses tout à fait distinctes: 

 

1: combattre la nature

2: cooperer ou combattre d'autres humains

 

C'est l'humanité qui apprends, et pas juste l'humain, l'humain hérite d'une histoire civilisationnelle, d'un ensemble de regles naturelles tournées vers ces deux buts, et le résultat de l'apprentissage civilisationnel, c'est une donnée qui lui est transmise, par son héritage qu'il soit inné ou aquis.

 

Ces deux buts sont horriblement difficiles, et on ne les donnera tout simplement pas à résoudre à un outil, parce qu'on sais le faire, le but n'est pas de faire des humains plus chers et qui bouffent des kilowatts pour etre plus rapides, mais de faire "autre chose" faire un humain, on sais déjà le faire, c'est pas difficile, et la nature est bien faite, c'est plutot agréable, si on veut un humain plus rapide, plus intelligent, plus sage, plus aggressif, plus pacifique, qui parle mieux, qui danse mieux, etc... c'est facile, on en fait 10000 et on selectionne le meilleur, ça coute pas cher (ah tiens, on me souffle dans l'oreille que c'est déjà comme ça que ça marche).

 

L'outil apprendra ce dont il à besoin pour etre fonctionnel, et ça par contre, il peut le faire à une vitesse illimitée, le cerveau humain à une complexité et une capacité d'adaptation incroyable et probablement inégalable, mais il le paye par une lenteur monstrueuse (et pour cause, on ne fait pas de miracles avec 40W, l'entropie, c'est plus fort que toi), un ordinateur peut apprendre bien plus de choses de façon bien plus rapide, mais il ne les apprends pas "pareil", l'objectif n'est pas de dépasser l'homme mais de completer l'homme, on ne complete pas avec ce qu'il fait déjà très bien, on complete la ou il est nul à chier !

 

Et la ou il est nul à chier, c'est la ou on est capable de le mesurer justement, la ou les limites sont évidentes, et sont en général dues non pas à la capacité d'adaptation, mais au simple fait physique que le cerveau est une machine à très faible consommation, ce qui le rends impropre à traiter des volumes elevés de données en temps réel.

 

Pour la vision, ça ne fait aucun doute, on peut faire mieux, y compris dans les aspects de "très haut niveau" (lecture, identification des émotions, diagnostic médical, etc...), pour le langage c'est fort probable également, mais c'est une sous-catégorie de problemes très limitée, c'est la sous-catégorie des problemes ou on est déjà capables de définir un objectif, un but à atteindre, une fonction d'utilité, c'est à dire une portion infime de ce que l'homme fait, la plupart des actions humaines, on ne sais meme pas à quels problemes elles répondent, alors bon, quand on ne sais meme pas à quoi ça sers, aller fabriquer une machine pour le faire "mieux", c'est mal barré !

 

Link to comment

Bof. L'éducation c'est pas forcément absolument nécessaire, l'apprentissage oui.

Et tous les êtres peuvent apprendre tout seul, l'éducation c'est que de l'apprentissage guidé et accéléré. Quand on arrivera au bout du bout en terme d'apprentissage humain (et déjà, une créature avec les capacités cognitives d'un être humain mais une puissance de calcul cent mille fois supérieure et surtout upgraddable à l'infini aussi bien au niveau des organes sensoriels que des capacités pures sera meilleur que n'importe quel humain), l'intelligence numérique se mettra a apprendre tout seul (forcément moins vite) mais nous aura déjà dépassée.

 

A cela ajoutons qu'il suffit d'une seule Intelligence capable de le faire pour que toutes soient capables de le faire. La véritable bonne nouvelle, c'est que comme c'est une IA elle est

-reproductible à l'infini

-virtuellement immortelle

 

Le plus grand obstacle à l'avancement humain c'est la perte de capital engendrée à la mort de chaque personne, pas des problèmes de ressources naturelles. Ici, on aurait un capital intellectuel qui n'irait que croissant et n'aurait pas à dealer (ou disons à un niveau infiniment moins contraignant) avec le problème de la rareté du temps, de l'énergie, des interactions sociales ou de la maladie, une créature dont l'essence même serait d'être apprenante.

ça me surprendrait que l'humain puise faire mieux.

 

PS; je réagissait au post de thomas

Link to comment

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
×
×
  • Create New...