Aller au contenu

Messages recommandés

 

:icon_ptdr: :icon_surpris:

 

Je viens de découvrir que ce robot est le premier (ou plutôt la première) à avoir obtenu la citoyenneté d'un pays, l'Arabie Saoudite : https://fr.wikipedia.org/wiki/Sophia_(robot)

 

Ça soulève une vraie question, celle des droits des robots et autres formes d'AI par rapport aux humains, surtout lorsqu'ils auront des niveaux plus élevés d'intelligence...

Lien vers le commentaire
12 hours ago, Extremo said:

Je viens de découvrir que ce robot est le premier (ou plutôt la première) à avoir obtenu la citoyenneté d'un pays, l'Arabie Saoudite : https://fr.wikipedia.org/wiki/Sophia_(robot)

 

Ça soulève une vraie question, celle des droits des robots et autres formes d'AI par rapport aux humains, surtout lorsqu'ils auront des niveaux plus élevés d'intelligence...

 

   Le problème n'est pas le niveau d'intelligence mais de vie artificielle. Par exemple on ne peut pas être cruel envers les animaux qui sont des êtres vivants. Mais on peut très bien défoncer sa voiture à coup de masse. Une AI n'est rien de plus qu'une voiture qui fait des inférences logiques je ne vois pas en quoi cela lui conférerait un statut juridique différent de celui d'une poele à frire. Par contre si on arrive à créer une vie artificielle qui peut prendre son indépendance, se reproduire etc. la question est plus pertinente. Mais pour le moment on en est loin loin....

  • Yea 2
Lien vers le commentaire

Et puis L'IA n'aura peut être pas ses priorités de créature biologique.

 

Pas forcément d'instinct de survie et pas de notion de douleur. On pourra peut être lui defoncer la gueule et ça lui fera ni chaud ni froid 

Lien vers le commentaire
il y a 8 minutes, NoName a dit :

Et puis L'IA n'aura peut être pas ses priorités de créature biologique.

 

Pas forcément d'instinct de survie et pas de notion de douleur. On pourra peut être lui defoncer la gueule et ça lui fera ni chaud ni froid 

Un peu comme dans la série Westworld.

Lien vers le commentaire

Franchement à chaque fois que des récits de SF partent sur le bon vieux trope des vilaines IA conscientes qui cherchent à éliminer l'espèce humaine je me demande toujours qu'elles peuvent bien être les motivations et émotions profondes de ces IA.

Enfin quoi, qu'est qu'une IA pourrait bien foutre de la conscience? S'interroger sur l'âme après le formatage? Factoriser PI pour le fun?

Lien vers le commentaire
17 minutes ago, Alchimi said:

Franchement à chaque fois que des récits de SF partent sur le bon vieux trope des vilaines IA conscientes qui cherchent à éliminer l'espèce humaine je me demande toujours qu'elles peuvent bien être les motivations et émotions profondes de ces IA.

Enfin quoi, qu'est qu'une IA pourrait bien foutre de la conscience? S'interroger sur l'âme après le formatage? Factoriser PI pour le fun?

Les vraies bonnes histoires du genre sont celles où, par exemple, une IA a pour tâche de faire le ménage. Puis elle réalise que les humains sont statistiquement la principale cause de saleté qu'elle rencontre...

  • Yea 2
  • Haha 2
Lien vers le commentaire

Ouais en nouvelles fun de la sf des 60-70's ça marche très bien.

En SF hard science, de tête je ne vois guère d'auteur qui ait tenté l'exercice. (Mais je ne connais pas l'intégralité de la SF hard science. Et puis on va finir HS par rapport au thread).

Lien vers le commentaire
il y a une heure, Alchimi a dit :

Franchement à chaque fois que des récits de SF partent sur le bon vieux trope des vilaines IA conscientes qui cherchent à éliminer l'espèce humaine je me demande toujours qu'elles peuvent bien être les motivations et émotions profondes de ces IA.

Enfin quoi, qu'est qu'une IA pourrait bien foutre de la conscience? S'interroger sur l'âme après le formatage? Factoriser PI pour le fun?

 

c'était un sujet et une question intéressante quand ça a été fait les premières fois par asimov; ensuite, c'est devenu un telle cliché que c'en est insupportable.

 

d'ailleurs, je trouve qu'une des meilleures IA c'est -encore une fois- Mycroft de Heinlein, dans Revolte sur la Lune. Ou bien Lobsang, chez Pratchett et Baxter.

 

Sans déconner, pourquoi une IA voudrait elle exterminer la race humaine de son propre chef ? Peu d'intérêt. Si elle veut vraiment nous dominer, elle peut faire ça beaucoup plus facilement qu'en nous exterminant tous au dernier, par manipulation ou juste en prouvant qu'elle peut s'occuper mieux de nous que nous.

 

Et on repart sur les questions de calque machine/biologique: toutes les émotions servent une utilité. A quoi servirait la colère ou la tristesse à une IA ? Si elle ne ressent ni la douleur, ni la peur de la mort, pourquoi ça ui poserait problème ? etc...

Lien vers le commentaire

En bon matérialiste que je suis, la conscience nous ait pas venu comme ça, c'est un produit de notre évolution et si un jour une IA devient capable d'apprendre pas elle même une conscience peut émerger. Enfin bon c'est juste une idée.

 

Lien vers le commentaire
Il y a 3 heures, Kassad a dit :

Le problème 'est pas le niveau d'intelligence mais de vie artificielle. Par exemple on ne peut pas être cruel envers les animaux qui sont des êtres vivants. Mais on peut très bien défoncer sa voiture à coup de masse. Une AI n'est rien de plus qu'une voiture qui fait des inférences logiques je ne vois pas en quoi cela lui conférerait un statut juridique différent de celui d'une poele à frire. Par contre si on arrive à créer une vie artificielle qui peut prendre son indépendance, se reproduire etc. la question est plus pertinente. Mais pour le moment on en est loin loin....

 

La reproduction n'est pas un critère pertinent pour évaluer la conscience. C'est le statut conscient et sensible, je pense, qui qualifie à un statut juridique de personne. Un être humain sans organes génitaux sera une personne sans aucun débat possible. Un être humain sans cerveau, ce sera une personne en considération de la dignité humaine  (en réalité, il sera considéré comme un légume, à mi-chemin entre la chose et la personne).

 

Une IA consciente et sensible sera une personne. Le problème réel sera de savoir comment savoir si on a affaire à une machine consciente?

 

il y a 44 minutes, Alchimi a dit :

Ouais en nouvelles fun de la sf des 60-70's ça marche très bien.

En SF hard science, de tête je ne vois guère d'auteur qui ait tenté l'exercice. (Mais je ne connais pas l'intégralité de la SF hard science. Et puis on va finir HS par rapport au thread).

 

Vernor Vinge, Rainbow Ends, ou A Fire Upon the Deep.
 

 

il y a 4 minutes, NoName a dit :

 

c'était un sujet et une question intéressante quand ça a été fait les premières fois par asimov; ensuite, c'est devenu un telle cliché que c'en est insupportable.

 

d'ailleurs, je trouve qu'une des meilleures IA c'est -encore une fois- Mycroft de Heinlein, dans Revolte sur la Lune. Ou bien Lobsang, chez Pratchett et Baxter.

 

Sans déconner, pourquoi une IA voudrait elle exterminer la race humaine de son propre chef ? Peu d'intérêt. Si elle veut vraiment nous dominer, elle peut faire ça beaucoup plus facilement qu'en nous exterminant tous au dernier, par manipulation ou juste en prouvant qu'elle peut s'occuper mieux de nous que nous.

 

Et on repart sur les questions de calque machine/biologique: toutes les émotions servent une utilité. A quoi servirait la colère ou la tristesse à une IA ? Si elle ne ressent ni la douleur, ni la peur de la mort, pourquoi ça ui poserait problème ? etc...

 

D'après ce que j'ai pu lire, et ce dont je me souviens, certains spécialistes semblent considérer que si l'IA devait développer conscience et intelligence autonome, son comportement sera similaire à celle d'un adolescent de 14 ans : égotique, égoïste, irresponsable. 

Je ne sais pas si c'est du bullshit, mais je trouve l'idée divertissante : cela colle assez peu avec les deux gros clichés, la machine froide et implacable à tendance génocidaire (ou, à tout le moins, totalitaire), ou alors la machine à la sagesse infinie, dont les motivations dépassent le faible entendement humain.

 

il y a 1 minute, Soda a dit :

En bon matérialiste que je suis, la conscience nous ait pas venu comme ça, c'est un produit de notre évolution et si un jour une IA devient capable d'apprendre pas elle même une conscience peut émerger. Enfin bon c'est juste une idée.

 

Le concept d'émergence est fascinant, je trouve.

Lien vers le commentaire
il y a 15 minutes, NoName a dit :

Sans déconner, pourquoi une IA voudrait elle exterminer la race humaine de son propre chef ? Peu d'intérêt. Si elle veut vraiment nous dominer, elle peut faire ça beaucoup plus facilement qu'en nous exterminant tous au dernier, par manipulation ou juste en prouvant qu'elle peut s'occuper mieux de nous que nous.

Comme but pur, peu d'intérêt. Mais tuer les humains parce qu'ils sont un obstacle à sa mission, c'est quasiment inévitable, définitivement.

Lien vers le commentaire
il y a 32 minutes, Flashy a dit :

 

D'après ce que j'ai pu lire, et ce dont je me souviens, certains spécialistes semblent considérer que si l'IA devait développer conscience et intelligence autonome, son comportement sera similaire à celle d'un adolescent de 14 ans : égotique, égoïste, irresponsable. 

 

De là à dire qu'une IA intelligente finira par nerder sur WoW toute sa journée...

Lien vers le commentaire
45 minutes ago, Flashy said:

 

La reproduction n'est pas un critère pertinent pour évaluer la conscience. C'est le statut conscient et sensible, je pense, qui qualifie à un statut juridique de personne. Un être humain sans organes génitaux sera une personne sans aucun débat possible. Un être humain sans cerveau, ce sera une personne en considération de la dignité humaine  (en réalité, il sera considéré comme un légume, à mi-chemin entre la chose et la personne).

 

Une IA consciente et sensible sera une personne. Le problème réel sera de savoir comment savoir si on a affaire à une machine consciente?

 

 

C'est toi qui te focalise sur l'aspect reproduction : pour moi le plus important est celui d'autonomie. Le point de bascule est si une machine peut exhiber quelque chose qui ressemble à une volonté : c'est à dire que la machine construit d'elle même ses propres hiérarchies morales. Mais le fait de pouvoir se reproduire/vivre de manière indépendante me paraît important également. 

 

Je ne sais pas ce que tu entends par sensibilité et je ne vois pas comment ça pourrait se traduire dans une machine : la manière dont on se sent est un savant mélange de pensées mais aussi cuisine moléculaire (hormones, cycles biologiques etc.). Assembler des machines de Turing ensemble ne fera pas émerger quoique ce soit s'approchant.

Lien vers le commentaire

Pour ce qui est de la sensibilité/conscience,

il me parait assez évident que cela nécessite beaucoup d'effecteurs et de capteurs (pour avoir plein d'effets retour).

Cela ne peut émerger que là-dedans.

 

La conscience qui émerge depuis un pur cerveau dans un bocal ou une surface de silicium,

c'était une idée toute provisoire et il me semble plutôt abandonnée (à juste titre).

 

Il faut aussi de la viande. There must be flesh !

 

 

Lien vers le commentaire
8 minutes ago, Rübezahl said:

Pour ce qui est de la sensibilité/conscience,

il me parait assez évident que cela nécessite beaucoup d'effecteurs et de capteurs (pour avoir plein d'effets retour).

Cela ne peut émerger que là-dedans.

 

Le problème est bien plus fondamental. Tu peux équiper tes MT d'autant de capteurs que tu veux et inclure des boucles de rétroaction tu ne sortiras pas pour autant du cadre de la calculabilité car la machine que tu vas construire découlera de plans que tu auras fait (donc le plan peut s'écrire et on déroulé tout l'appareillage de la calculabilité : tu ne gagnes rien en pouvoir d'expression). Il est possible que la conscience émerge de phénomènes physiques qui ne sont pas formalisables (sans pour autant êtres magiques). 

Lien vers le commentaire
il y a 1 minute, Kassad a dit :

Le problème est bien plus fondamental. Tu peux équiper tes MT d'autant de capteurs que tu veux et inclure des boucles de rétroaction tu ne sortiras pas pour autant du cadre de la calculabilité car la machine que tu vas construire découlera de plans que tu auras fait (donc le plan peut s'écrire et on déroulé tout l'appareillage de la calculabilité : tu ne gagnes rien en pouvoir d'expression). Il est possible que la conscience émerge de phénomènes physiques qui ne sont pas formalisables (sans pour autant êtres magiques). 

Je n'ai pas prolongé mon post justement sur ce point,

mais je voulais bien souligner la nécessité d'interactions (effecteurs et retours) sur le monde physique : la terre, les arbres, la bonne boue.

 

C'est ama la richesse et le non-déterminisme de ce monde là qui est probablement un ingrédient de la conscience.

 

L'interaction avec un plateau d'échec 8x8 modélisé comme tableau d'entiers dans une mémoire d'ordinateur ...

c'est un nécessaire cours 101, mais même si ça nous a paru formidable au début (et c'était normal)

c'est infiniment plus petit que le monde physique (qui a eu quelques millions d'années pour se déployer).

 

Lien vers le commentaire
Il y a 2 heures, Flashy a dit :

D'après ce que j'ai pu lire, et ce dont je me souviens, certains spécialistes semblent considérer que si l'IA devait développer conscience et intelligence autonome, son comportement sera similaire à celle d'un adolescent de 14 ans : égotique, égoïste, irresponsable.

Alors là, pas besoin d'IA pour avoir ce comportement là. Des humains adultes de ce genre on en a déjà plus à savoir qu'en foutre.

Lien vers le commentaire
3 hours ago, NoName said:

Sans déconner, pourquoi une IA voudrait elle exterminer la race humaine de son propre chef ? Peu d'intérêt. Si elle veut vraiment nous dominer, elle peut faire ça beaucoup plus facilement qu'en nous exterminant tous au dernier, par manipulation ou juste en prouvant qu'elle peut s'occuper mieux de nous que nous.

 

 

Et on repart sur les questions de calque machine/biologique: toutes les émotions servent une utilité. A quoi servirait la colère ou la tristesse à une IA ? Si elle ne ressent ni la douleur, ni la peur de la mort, pourquoi ça ui poserait problème ? etc...

 

Non tuer TOUS les humains ça ne sert à rien, il faut en garder quelques uns pour les torturer pour l'éternité. Pourquoi ?

 

IhavenomouthandImustscream.gif

 

(un autre classique)

Lien vers le commentaire
41 minutes ago, Rübezahl said:

Je n'ai pas prolongé mon post justement 

c'est infiniment plus petit que le monde physique (qui a eu quelques millions d'années pour se déployer).

 

C'est là justement que je veux en venir : le problème n'est pas une question de taille ou de temps. Le problème est que notre manière d'appréhender le monde tel qu'il fonctionne est nécessairement limitée : en gros il faut écrire une théorie (avec un certain nombre d'axiomes) puis des règles (un nombre fini) de l'évolution de ce système (que ces règles soient déterministes ou pas ne change rien c'est l'existence de règles qui compte). Ensuite on compare ce modèle avec la réalité pour voir s'il est pas trop déconnant. Mais rien ne t'assure que la réalité n'est pas en fait idiote au sens étymologique du terme : c'est-à-dire unique et non représentable autrement que par elle même. Dès lors il est  imaginable que la construction de machine ayant certaines caractéristiques du réels soit impossible.

 

Le mieux qu'on puisse faire serait de hacker la bio (déjà on a une méthode correcte qui consiste à avoir des enfants et à bien les élever pour produire de l'intelligence) mais peut on encore parler de robots et de machines ? Car une grosse partie du processus de création échappe à l'entendement (même si tu tries les chromosomes, tu fais des clones etc.). Dans quel mesure bidouiller le gène XYZ est une méthode de production au sens où on l'entend quand on parle de produire un robot ?

Lien vers le commentaire
Il y a 3 heures, Soda a dit :

En bon matérialiste que je suis, la conscience nous ait pas venu comme ça, c'est un produit de notre évolution et si un jour une IA devient capable d'apprendre pas elle même une conscience peut émerger. Enfin bon c'est juste une idée.

 

oui, mais être conscient n'implique pas nécessairement d'avoir un instinct de survie.

 

Il y a 3 heures, Flashy a dit :

D'après ce que j'ai pu lire, et ce dont je me souviens, certains spécialistes semblent considérer que si l'IA devait développer conscience et intelligence autonome, son comportement sera similaire à celle d'un adolescent de 14 ans : égotique, égoïste, irresponsable. 

Je ne sais pas si c'est du bullshit, mais je trouve l'idée divertissante : cela colle assez peu avec les deux gros clichés, la machine froide et implacable à tendance génocidaire (ou, à tout le moins, totalitaire), ou alors la machine à la sagesse infinie, dont les motivations dépassent le faible entendement humain.

imho, ça en dit beaucoup plus sur nos fantasmes à nous que sur ce qui se passera vraiment

 

 

Il y a 3 heures, Rincevent a dit :

Comme but pur, peu d'intérêt. Mais tuer les humains parce qu'ils sont un obstacle à sa mission, c'est quasiment inévitable, définitivement.

mais dans quel intérêt ? presque tous les intérêts de faire ça peuvent être réussis simplement en nous manipulant ou en coopérant.

Lien vers le commentaire
il y a 52 minutes, Kassad a dit :

C'est là justement que je veux en venir : le problème n'est pas une question de taille ou de temps. Le problème est que notre manière d'appréhender le monde tel qu'il fonctionne est nécessairement limitée : en gros il faut écrire une théorie (avec un certain nombre d'axiomes) puis des règles (un nombre fini) de l'évolution de ce système (que ces règles soient déterministes ou pas ne change rien c'est l'existence de règles qui compte). Ensuite on compare ce modèle avec la réalité pour voir s'il est pas trop déconnant. Mais rien ne t'assure que la réalité n'est pas en fait idiote au sens étymologique du terme : c'est-à-dire unique et non représentable autrement que par elle même. Dès lors il est  imaginable que la construction de machine ayant certaines caractéristiques du réels soit impossible.

ben :

- il faut rien écrire du tout

- on n'a pas à s'occuper de faire jouer/confronter le robot avec nos théories, modélisations ou appréhensions du réel (qui ne peuvent forcément pas tout en capturer).
(on faisait ça au début, quand les capteurs coûtaient 2 bras et les effecteurs on y pensait même pas.)

Un simulacre à 99% est un excellent simulacre, mais ce n'est pas la réalité physique.

 

On munit le robot d'effecteurs/capteurs, et on le lâche directement dans le réel unique et non-représentable (je te suis entièrement sur ce point) dont tu parles.

 

Il n'y a pas de raison immédiate qui me vienne à l'esprit pour laquelle le robot ne tirerais pas de cette confrontation ce que nous-même en avons déjà tiré ?

 

Comme le robot de 2018 peut bosser 24h/24 sans dormir, répliqué par dizaines, ça pourrait aller plus vite que pour nous.

 

Plus haut dans le fil, Lancelot évoquait :

Citation

Puis elle réalise que les humains sont statistiquement la principale cause de saleté qu'elle rencontre...

Dans le même registre,

une IA pourrait aussi réaliser que tel ou tel de ses effecteurs lui est bien utile pour sa mission,

et que donc un péril pour cet effecteur est néfaste pour sa mission

... bref un début de conscience corporelle.

 

La vie a commencé comment ? à la base avec des petits trucs inanimés et mécaniques, des bâtonnets et des points.

Et aucun Frankenstein bienveillant pour injecter de l'énergie gratos et à gogo ou intervenir si le proto de simili-demi-amibe se coinçait un bras où il fallait pas.

 

  • Yea 1
Lien vers le commentaire
il y a 25 minutes, NoName a dit :

mais dans quel intérêt ? presque tous les intérêts de faire ça peuvent être réussis simplement en nous manipulant ou en coopérant.

Ça dépend de l'orientation long terme ou court terme de l'IA. Comme pour toute intelligence. ;)

Lien vers le commentaire
il y a 46 minutes, NoName a dit :

oui, mais être conscient n'implique pas nécessairement d'avoir un instinct de survie.

Je pense que si.

Pas forcément survie au sens binaire mort/vif.

Mais instinct de préservation, instinct de préservation de ses composants, instinct de préservation des composants utiles à l'accomplissement de la "mission/objectif".

 

C'est pour cela qu'il ne peut pas ama y avoir de robot conscient et à l'intelligence strictement cloîtrée dans un lieu d'expérience numérique.

Un robot conscient sera ama nécessairement muni de membres/bras/etc, qui lui seront utiles (relativement à un objectif, supervisé ou pas), et auxquels (indirectement mais réellement) il tiendra donc.

Des prolongements en dur, en dehors de son univers mental numérique.

 

Dans l'excellent film : https://en.wikipedia.org/wiki/Colossus:_The_Forbin_Project

Le super ordinateur cherche à tout prix à s'incarner.

Dans le film, il dit, rageusement et de façon menaçante (il tue des milliers de gens pour ça) :

"Docteur, quand me laisserez-vous sortir de cette boite ?"

(sous-entendu : si je n'ai pas mes effecteurs rapidement, ça va encore chauffer).

Pour moi c'est évident qu'une partie de la solution du problème est bien là.

(Voyez ce film, it's too much :icon_tourne: )

 

Les progrès coté jeu de go etc sont absolument magnifiques et impressionnants,

mais ama visiblement ça n'avance pas à grand chose coté conscience.

Je parie que ce sont les capteurs et effecteurs à 2 centimes qui vont décoincer les choses.

 

  • Yea 1
Lien vers le commentaire
14 hours ago, Rübezahl said:

ben :

- il faut rien écrire du tout

- on n'a pas à s'occuper de faire jouer/confronter le robot avec nos théories, modélisations ou appréhensions du réel (qui ne peuvent forcément pas tout en capturer).
(on faisait ça au début, quand les capteurs coûtaient 2 bras et les effecteurs on y pensait même pas.)

Un simulacre à 99% est un excellent simulacre, mais ce n'est pas la réalité physique.

 

On munit le robot d'effecteurs/capteurs, et on le lâche directement dans le réel unique et non-représentable (je te suis entièrement sur ce point) dont tu parles.

 

Il n'y a pas de raison immédiate qui me vienne à l'esprit pour laquelle le robot ne tirerais pas de cette confrontation ce que nous-même en avons déjà tiré ?

 

  Le fait même que tu construises le robot n'est pas de l'art. Tu suis un plan, qu'on peut écrire.  Si ce n'est pas le cas (je ne dis pas que c'est pas possible) tu laisses des parties inexpliquées et non maîtrisées de ta construction. C'est typiquement le cas de la vie : en te reproduisant tu produis quelque chose de nouveau sans tout maîtriser (sans pour autant que ce soit le dawa complet non plus). Mais tu n'as pas vraiment de garanties que tes enfants seront plus intelligents que toi (ou sur-intelligent si tu modifies le gène xyz).  Et dans ce cas là, c'est ce que je disais : peut on encore parler de robot ?

 

Pour moi si une vie, et une intelligence, artificielle doit exister ce sera par des moyens comme ceux présentés dans Blade Runner et pas par émergence de machines au sens où on entend ce mot actuellement, à savoir des morceaux de matières assemblés ensemble.

 

Peut être une caractéristique de la vie est qu'elle est unique (de la même manière que je disais que le réel est idiot) : il est impossible de construire deux êtres vivants rigoureusement identiques (même les clones n'expriment pas les mêmes gènes etc.). Par contre pour les machines, les robots, c'est possible (jusqu'au niveau atomique au moins).  Peut être que c'est en ça que la notion de reproduction n'est pas si étrangère que ça à la problématique.

  • Yea 1
Lien vers le commentaire
il y a 2 minutes, Kassad a dit :

Le fait même que tu construises le robot n'est pas de l'art. Tu suis un plan, qu'on peut écrire.  Si ce n'est pas le cas (je ne dis pas que c'est pas possible) tu laisses des parties inexpliquées et non maîtrisées de ta construction. C'est typiquement le cas de la vie : en te reproduisant tu produis quelque chose de nouveau sans tout maîtriser (sans pour autant que ce soit le dawa complet non plus). Mais tu n'as pas vraiment de garanties que tes enfants seront plus intelligents que toi (ou sur-intelligent si tu modifies le gène xyz).  Et dans ce cas là, c'est ce que je disais : peut on encore parler de robot ?

Pour moi si une vie, et une intelligence, artificielle doit exister ce sera par des moyens comme ceux présentés dans Blade Runner et pas par émergence de machines au sens où on entend ce mot actuellement, à savoir des morceaux de matières assemblés ensemble.

Peut être une caractéristique de la vie est qu'elle est unique (de la même manière que je disais que le réel est idiot) : il est impossible de construire deux êtres vivants rigoureusement identiques (même les clones n'expriment pas les mêmes gènes etc.). Par contre pour les machines, les robots, c'est possible (jusqu'au niveau atomique au moins).

 

Je pense qu'on peut légitimement distinguer 2 choses dans les "robots" modernes :

- toutes les parties mécaniques et logicielles "de série", identiques donc (encore que même là, 2 pièces de plus de quelques microns identiques au niveau atomique, ça n'existe pas, mais bon, ce n'est pas le point prioritaire).

- les parties logicielles obtenues par apprentissage dans l'environnement du robot (hors-usine).

 

Un exemple concret, de 2018, dispo déjà à des millions d'exemplaires : les aspirateurs robots et tondeuses robots. Ils sont dans des environnements différents. Le contenu de leur mémoires (cerveau électronique) est différent pour eux tous.

Idem par extension pour les robots "sociaux" qui interagissent avec des humains et qui intègrent une part d'apprentissage hors-usine.

 

Sur le point "peut on encore parler de robot ?".

... ça me semble assez secondaire.

De sûr, ce n'est pas biologique ... et pourtant ça n'empêche aucunement ces créatures non-biologiques de se confronter profitablement au réel, d'en extraire des informations pertinentes, et d'exhiber des propriétés qu'on s'imagine exclusives du biologique ... mais qui de facto ne le sont pas.

(Faut aussi être conscient que, quand on emploie le mot biologique pour parler de créatures vivantes en 2018, on parle d'une biologie avec ~3 milliards d'années d'évolution. Très différente de la biologie primitive avec des bâtonnets et des billes.)

 

Attention, je crois que dans une discussion de ce type, il faut s'efforcer de distinguer les questions vie et les questions conscience. Même si c'est lié, ce n'est pas à trop mélanger non plus.

 

(tl;dr, je ne crois pas que la conscience soit une propriété exclusive des créatures biologiques).

 

  • Yea 1
Lien vers le commentaire
19 minutes ago, Rübezahl said:

Je pense qu'on peut légitimement distinguer 2 choses dans les "robots" modernes :

- toutes les parties mécaniques et logicielles "de série", identiques donc (encore que même là, 2 pièces de plus de quelques microns identiques au niveau atomique, ça n'existe pas, mais bon, ce n'est pas le point prioritaire).

- les parties logicielles obtenues par apprentissage dans l'environnement du robot (hors-usine).

 

Un exemple concret, de 2018, dispo déjà à des millions d'exemplaires : les aspirateurs robots et tondeuses robots. Ils sont dans des environnements différents. Le contenu de leur mémoires (cerveau électronique) est différent pour eux tous.

 

Mais cette distinction n'impacte pas ce que je dis : ce n'est pas le fait que toutes les mémoires des robots soit différentes qui change quoique ce soit au fait que l'espace de toutes les mémoires de robots est lui dénombrable (et même fini) et que donc les interactions qui résulteront des décisions prises par ces robots ne sont rien d'autre que des choses simulables par des MT. Le fait que des input viennent de senseurs ne change rien : à un moment donné tu dois discrétiser tes échantillons en passant de l'analogique au digital.

 

Même si tu as une machine 100% analogique tu devras afficher des résultats qui seront discrets. Tu n'échappes pas aux limitations de la calculabilité par là non plus.  

Lien vers le commentaire
  • 1 month later...

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...