Lancelot Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 14:55, Sloonz a dit : J’aimerai qu’on m’explique l’expression "stochastic parrot" si la compréhension mainstream des LLM ce n’est pas "optimisé pour la probabilité d'apparition dans un corpus existant" Expand Dans mon expérience les gens se rangent en gros en deux groupes, ceux qui ont tendance à sur-évaluer complètement ce qui se passe (ça recoupe ceux qui pensent que c'est super et ceux qui pensent que c'est la fin du monde) et ceux qui ont tendance à le sous-évaluer complètement. De manière intéressante peut-être d'un point de vue psychologique ou sociologique, les premiers m'ont l'air plus nombreux quand on parle de modèles générateurs de langage, et les second quand on parle de modèles générateurs d'images. Le 03/01/2024 à 15:28, L'affreux a dit : À ceux qui disent que ChatGPT est juste une machine à probabilités, on peut répondre qu'un cerveau biologique en est peut-être une aussi. Expand Au moins en partie certainement. Et le T9 sur ton téléphone aussi. Que doit-on en conclure ? 1
L'affreux Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 16:05, Lancelot a dit : Que doit-on en conclure ? Expand On peut retirer le mot "juste". Pour ma part j'ai l'impression qu'une partie de ce qu'est l'intelligence est en passe d'être percée. Même si c'est balbutiant. L'intelligence et la conscience : des mots dont le contour n'est pas clair, j'ai bon espoir que les prochaines années aident à saisir plus précisément de quoi il retourne. 2
Mégille Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 J'ai plutôt l'impression que l'on vient de découvrir une nouvelle partie de ce que l'esprit humain n'est pas. Ou plutôt, en découvrant qu'une machine est capable de faire certaines choses qui nous avaient semblées spécifiques et essentielles à l'esprit humain tout en étant visiblement très différente d'un humain, que l'on découvre qu'il ne s'agit peut être pas d'un si gros bout de que ça de nous. De façon analogue, au XVIIème siècle, Hobbes envisageait que l'esprit ne soit rien d'autre qu'une grosse machine à calculer. Quelques décennies plus tard, Pascal, puis Leibniz, bricolent des machines à calculer, montrant que de telles machines sont bien possibles... Et à la fois, qu'il faut définitivement plus que ça (ou au moins, être beaucoup plus précis sur le genre de calcul dont il est question, si on veut être charitable avec Hobbes et le fonctionnalisme) pour faire un truc qui pense comme un humain. Aujourd'hui, en étant capable de générer des énoncés bien formés et la plupart du temps pertinents, mais sans pour autant être jamais intelligent, les machines nous montrent que le langage n'est peut-être pas ce dans quoi on doit chercher l'esprit. Un clou de plus dans le cercueil de la philosophie linguistique, qu'elle soit issue de Wittgenstein ou de Heidegger.
Sloonz Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 18:03, L'affreux a dit : On peut retirer le mot "juste". Expand Quelqu’un m’a compris, je commençais à désespérer
L'affreux Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 18:30, Mégille a dit : J'ai plutôt l'impression que l'on vient de découvrir une nouvelle partie de ce que l'esprit humain n'est pas [...] les machines nous montrent que le langage n'est peut-être pas ce dans quoi on doit chercher l'esprit. Expand Le mot "esprit" c'est en quelque sorte l'âme des non-croyants ? Il est encore moins clair que "intelligence" et "conscience". Il servira donc de refuge au fur et à mesure que l'intelligence puis la conscience perdront de leur magie.
Azref Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 14:43, Sloonz a dit : Non. À ma connaissance le seul modèle de base d’OpenAI encore accessible est code-davinci-002 (qui, comme son nom l'indique, a très largement été entrainé sur du code). Expand Non, tu peux accéder à gpt 3.5 "turbo", gpt 4 et même le dernier gpt 4 "turbo" en API. https://openai.com/pricing Et pour moi tous ces modèles sont RHLF. Ou alors tu peux utiliser directement chatgpt par l'interface dédiée, qui est le modèle gpt 3.5/4 + le "moderation endpoint" activé par défaut + probablement des instructions pour l'orienter en tant que chatbot "safe" de base (+exemples de conversation?). Tel que je le comprends, lorsque tu dis "pouce vert/rouge" dans chatgpt tu aide à la construction de la prochaine itération/fine tune de gpt4, et probablement dans la conversation/historique en cours laisser ou non l'entrée dans le contexte donné au modèle. Citation Il y a une problématique légale/économique/woke à ça. Si tu commences ton prompt par "Sieg Heil", la suite du texte généré par ton LLM pur a de fortes chances d’être… problématique. Tandis que tu peux entraîner un modèle RLHF à se tenir très très loin de ça. Aucune entreprise/laboratoire ne veut prendre la responsabilité de permettre le premier usage. Expand Certes, mais bon les titres de journaux à base de "l'IA est raciste/sexiste/woke/antiwoke" étaient un peu inévitables de toute manière.
Lancelot Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 18:03, L'affreux a dit : On peut retirer le mot "juste". Expand Je ne vois pas ce qui le justifie. Ton argument permet à la limite de retirer quelque chose à ce que tu pensais nécessaire à la composition de "l'intelligence et la conscience" (ce qui n'est pas une direction de pensée nouvelle, que ça soit dans l'histoire des idées comme le dit Mégille ou dans la neuroscience moderne), mais pas de rajouter quelque chose aux modèles artificiels dont pour le coup on connaît les ingrédients.
Sloonz Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 18:59, Azref a dit : Et pour moi tous ces modèles sont RHLF. Expand Je crois que tu voulais écrire "sans RLHF". Mais non, ces modèles sont avec RLHF. Tu peux accéder à ces modèles sur https://platform.openai.com/playground, et tu verras que les résultats sont très similaires (si non exactement les mêmes) qu’avec https://chat.openai.com/ Le 03/01/2024 à 18:59, Azref a dit : Ou alors tu peux utiliser directement chatgpt par l'interface dédiée, qui est le modèle gpt 3.5/4 + le "moderation endpoint" activé par défaut + probablement des instructions pour l'orienter en tant que chatbot "safe" de base (+exemples de conversation?). Expand La dernière fois que j’avais réussi à faire cracher à l’interface dédiée ses instructions, il n’y avait pas d’instruction spéciales (c’était avant l’intégration avec DALL-E) : You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture. Knowledge cutoff: 2022-01 Current date: 2023-09-29 (le current date était correct, ce qui est une forte indication que j’avais réussi à sortir le prompt système sans hallucination).
Azref Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 19:32, Sloonz a dit : Je crois que tu voulais écrire "sans RLHF". Mais non, ces modèles sont avec RLHF. Tu peux accéder à ces modèles sur https://platform.openai.com/playground, et tu verras que les résultats sont très similaires (si non exactement les mêmes) qu’avec https://chat.openai.com/ Expand Non je voulais bien dire "avec" 😀. On est d'accord du coup. Citation La dernière fois que j’avais réussi à faire cracher à l’interface dédiée ses instructions, il n’y avait pas d’instruction spéciales (c’était avant l’intégration avec DALL-E) : You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture. Knowledge cutoff: 2022-01 Current date: 2023-09-29 (le current date était correct, ce qui est une forte indication que j’avais réussi à sortir le prompt système sans hallucination). Expand Intéressant, du coup un chatgpt sans moderation endpoint est possible en api avec le même ordre en utilisant le dernier snapshot de gpt4.
L'affreux Posté 4 janvier 2024 Signaler Posté 4 janvier 2024 Le 03/01/2024 à 18:59, Lancelot a dit : Je ne vois pas ce qui le justifie. Ton argument permet à la limite de retirer quelque chose à ce que tu pensais nécessaire à la composition de "l'intelligence et la conscience" (ce qui n'est pas une direction de pensée nouvelle, que ça soit dans l'histoire des idées comme le dit Mégille ou dans la neuroscience moderne), mais pas de rajouter quelque chose aux modèles artificiels dont pour le coup on connaît les ingrédients. Expand J'ai l'impression que tu penses que, puisque l'on est capable de fabriquer des machines à parler, c'est que le langage ne fait pas partie de l'intelligence. C'est-à-dire que le langage était une chose qui distinguait les êtres humains des autres animaux, et maintenant que les machines parlent, eh bien ça nous distingue moins. Ce serait un critère à éliminer. Je vois les choses différemment. Il n'y a pas une limite franche entre quelque chose d'intelligent et quelque chose qui ne l'est pas. Par exemple, dans le processus de construction d'un être humain, il n'existe pas un moment que l'on pourrait déterminer et qui marquerait le passage de la non-intelligence vers l'intelligence (ou la non-conscience vers la conscience). Et pourtant, si on prend l'embryon au départ il est moins capable de raisonner que ChatGPT, alors que l'adulte à l'arrivée l'est. Je pense que le langage est une composante importante de l'intelligence, et nous sommes aujourd'hui capables de doter des machines de cette composante. Il est très possible que les machines soient dotées d'une intelligence plus complète et même d'une conscience d'ici quelques années. Mais il y a de bonnes chances pour que ce soit là encore un continuum : il n'y aura pas un avant et un après bien net, il n'y aura pas un moment clair où les machines seront non-conscientes puis conscientes. De plus, au fur et à mesure du développement de ces technologies, la compréhension de comment fonctionne l'intelligence en général (y compris humaine) sera approfondie.
GilliB Posté 4 janvier 2024 Signaler Posté 4 janvier 2024 J'ai toujours eu l'intuition que l'intelligence n'est pas basée sur le langage. Quand je manipule des concepts, c'est plus profond que le mot associé. Quand tu fais des math, tu piges ou tu ne piges pas. D'ailleurs, beaucoup d'animaux sont intelligents et n'utilise pas le langage (les dauphins peut-être ?).
L'affreux Posté 4 janvier 2024 Signaler Posté 4 janvier 2024 Le 04/01/2024 à 08:42, GilliB a dit : J'ai toujours eu l'intuition que l'intelligence n'est pas basée sur le langage. Expand J'ai un doute. Si un autre animal communiquait comme nous le faisons, cela serait une preuve que le langage n'est pas une caractéristique de l'intelligence. Il y a beaucoup d'espèces, toujours pas de contre-exemple. Le langage est à l'intelligence ce que la monnaie est à l'économie : un moyen de transmission. Sans langage, pas d'intelligence collective, quasiment aucune progression d'une génération humaine à l'autre, pas de possibilité de s'organiser en communauté plus grande que ceux que l'on peut côtoyer directement. On est réduit à progresser chacun dans son coin et à chaque nouvel individu tout recommence. EDIT : Et j'ajoute qu'à l'échelle individuelle, le langage donne un cadre qui permet des raisonnements complexes. Je ne dis pas que sans langage ce serait impossible, mais il faut toujours quelque chose sur quoi s'appuyer. Il y a maintenant plus de 15 ans, j'ai écrit un livre et j'ai découvert à cette occasion que des erreurs de français étaient souvent révélatrices de zones floues dans les raisonnements. C'est facile de croire son raisonnement parfait sans s'embarrasser de la forme. Dans la réalité, lorsque la forme est approximative, c'est parce que le fond l'est aussi. Corriger les coquilles, cela implique d'éclaircir les concepts.
Lancelot Posté 4 janvier 2024 Signaler Posté 4 janvier 2024 Le 04/01/2024 à 08:20, L'affreux a dit : J'ai l'impression que tu penses que, puisque l'on est capable de fabriquer des machines à parler, c'est que le langage ne fait pas partie de l'intelligence. C'est-à-dire que le langage était une chose qui distinguait les êtres humains des autres animaux, et maintenant que les machines parlent, eh bien ça nous distingue moins. Ce serait un critère à éliminer. Expand Je répondais à ton raisonnement : - GPT est juste une machine à probabilité - peut être qu'un cerveau biologique est aussi une machine à probabilité - donc GPT n'est pas juste une machine à probabilité Qui me semble injustifié. Sur la question de ce que sont ou pas l'intelligence et la conscience, si le cerveau est "juste" un modèle prédictif ou autre chose, si le fonctionnalisme est correct (et si oui quelle version), ce qui différencie ou pas l'esprit humain d'un animal ou d'une machine, tout ce que je peux te dire c'est qu'autant que je puisse en juger la plupart des positions possibles ont des arguments pertinents qui ne permettent pas de les écarter d'un revers de main, du moins tant qu'on ne rentre pas dans des points très spécifiques. 1 1
L'affreux Posté 4 janvier 2024 Signaler Posté 4 janvier 2024 Le 04/01/2024 à 09:02, Lancelot a dit : Je répondais à ton raisonnement : - GPT est juste une machine à probabilité - peut être qu'un cerveau biologique est aussi une machine à probabilité - donc GPT n'est pas juste une machine à probabilité Qui me semble injustifié. Expand Ah pardon ! Oui effectivement GPT est manifestement une machine à probabilités, et rien d'autre. Le mot "juste" a aussi un sens dévalorisant, un peu comme un tour de magie révélé (ce tour de magie est "juste" un trucage). C'est cet aspect dévalorisant qui me semble inapproprié. Le fait est qu'une machine à probabilités n'est pas une petite affaire, si ça se trouve il s'agit du principe à la base de l'intelligence et peut-être même de la biologie.
Sloonz Posté 7 janvier 2024 Signaler Posté 7 janvier 2024 Le 04/01/2024 à 09:02, Lancelot a dit : Je répondais à ton raisonnement : - GPT est juste une machine à probabilité - peut être qu'un cerveau biologique est aussi une machine à probabilité - donc GPT n'est pas juste une machine à probabilité Qui me semble injustifié. Expand Je pense plutôt que c’est : - GPT peut être interprété comme juste une machine à probabilités - un cerveau biologique peut aussi être interprété comme juste une machine à probabilités - même dans l'interprétation "machine à probabilités" du cerveau, il y a des mécanismes non-trivaux, intéressants, complexes et potentiellement surprenant derrière les différentes opérations cognitives, ce qui rend le "juste" réducteur de manière trompeuse - de même, à l’intérieur de GPT, il y a des mécanismes non-triviaux, intéressants, complexes et potentiellement surprenants Ou encore : dire qu’un verre d’eau c’est juste un gros tas de molécules, ça me semble justifié. Dire qu’un avion c’est juste un gros tas de molécules, ça me semble trompeur, malgré que ce soit vrai au sens strict. Dire qu’une chaine de markov c’est juste une machine à probabilités c’est aussi vrai que le verre d’eau. Dire que GPT c’est juste une machine à probabilités ça me semble aussi vrai que l’avion. La discusssion porte sur la connotation, pas la dénotation, et la logique pure c’est malgré tout le respect que le lui porte peu utile pour analyser les connotations. Pour expliciter, par "juste une machine à probabilités", il y a une connotation derrière que les mécanismes et représentations internes sont simples. Essentiellement des fréquences et des moyennes. Cette connotation est fausse, donc l’expression est trompeuse.
Lancelot Posté 7 janvier 2024 Signaler Posté 7 janvier 2024 Le 07/01/2024 à 15:04, Sloonz a dit : GPT peut être interprété comme juste une machine à probabilités Expand Pas "peut", "doit". Le 07/01/2024 à 15:04, Sloonz a dit : à l’intérieur de GPT, il y a des mécanismes non-triviaux, intéressants, complexes et potentiellement surprenants Expand Bien sûr. Le 07/01/2024 à 15:04, Sloonz a dit : Dire qu’une chaine de markov c’est juste une machine à probabilités c’est aussi vrai que le verre d’eau. Dire que GPT c’est juste une machine à probabilités ça me semble aussi vrai que l’avion. Expand Meh, je trouve la comparaison peu pertinente, mais disons que si j'en cherche la version la plus forte ça renvoie à la question du réductionnisme (encore un truc qui intéresse les fonctionnalistes). Par ailleurs même en t'accordant que quelque chose puisse émerger d'une machine à probabilités, rien ne te dit qu'il s'agisse de quoi que ce soit de semblable à un esprit humain (et encore moins un cerveau humain en admettant que les deux notions soient séparables). Tout ça sont des questions philosophiques complexes et débattues qu'on ne peut pas résoudre d'un revers de main, en tous cas pas que je sache. Le 07/01/2024 à 15:04, Sloonz a dit : Pour expliciter, par "juste une machine à probabilités", il y a une connotation derrière que les mécanismes et représentations internes sont simples. Essentiellement des fréquences et des moyennes. Cette connotation est fausse, donc l’expression est trompeuse. Expand Quitte à faire la police des connotations, on pourrait aussi la faire dans l'autre camp qui nous sort de la GAI et de la singularité à tout bout de champ.
L'affreux Posté 7 janvier 2024 Signaler Posté 7 janvier 2024 Le 07/01/2024 à 18:58, Lancelot a dit : machine à probabilités Expand Un autre point intéressant quand on parle des réseaux de neurones ou de l'intelligence biologique : il me semble que ces probabilités sont des intuitions. Elles ne sont pas le résultat de calculs. (Désolé je change de sujet)
Lancelot Posté 7 janvier 2024 Signaler Posté 7 janvier 2024 Ça va encore dépendre de comment tu définis "calcul" et "intuition", et les connotations associées...
Sloonz Posté 7 janvier 2024 Signaler Posté 7 janvier 2024 Le 07/01/2024 à 18:58, Lancelot a dit : Par ailleurs même en t'accordant que quelque chose puisse émerger d'une machine à probabilités, rien ne te dit qu'il s'agisse de quoi que ce soit de semblable à un esprit humain Expand Je n’ai jamais parlé de quelque chose de semblable à un esprit humain ? Je serai extrêmement surpris que les mécanismes et représentations internes aux LLMs soient proches d’un esprit humain. Mais c’est le point rigolo : les deux sont tellement complexes qu’on est très loin d’avoir suffisamment de compréhension des deux (neuroscience pour le cerveau, interprétabilité pour les LLM) pour prouver définitivement qu’ils sont différents. Tandis que les chaines de Markov sont assez simples pour qu’on puisse montrer que ce n’est pas le mécanisme interne ni de l’esprit humain, ni des LLMs. Le 07/01/2024 à 18:58, Lancelot a dit : Meh, je trouve la comparaison peu pertinente Expand Est-ce que tu es d’accord que "un verre d’eau c’est juste un gros tas de molécule, et un avion aussi" est trompeur ? Ou est-ce qu’on est même pas d’accord là dessus ? Le 07/01/2024 à 18:58, Lancelot a dit : Tout ça sont des questions philosophiques complexes et débattues qu'on ne peut pas résoudre d'un revers de main, en tous cas pas que je sache. Expand Ça c’est en grande partie parce qu’il faut arrêter de prendre les philosophes au sérieux. Le 07/01/2024 à 18:58, Lancelot a dit : Quitte à faire la police des connotations, on pourrait aussi la faire dans l'autre camp qui nous sort de la GAI et de la singularité à tout bout de champ. Expand J’ai du mal à voir le rapport avec la choucroute ?
Lancelot Posté 8 janvier 2024 Signaler Posté 8 janvier 2024 Le 07/01/2024 à 20:25, Sloonz a dit : Je n’ai jamais parlé de quelque chose de semblable à un esprit humain ? Expand C'est la connotation. Le 07/01/2024 à 20:25, Sloonz a dit : Tandis que les chaines de Markov sont assez simples pour qu’on puisse montrer que ce n’est pas le mécanisme interne ni de l’esprit humain, ni des LLMs. Expand Note que certains neuroscientifiques ne seraient pas d'accord avec ça. Le 07/01/2024 à 20:25, Sloonz a dit : Est-ce que tu es d’accord que "un verre d’eau c’est juste un gros tas de molécule, et un avion aussi" est trompeur ? Ou est-ce qu’on est même pas d’accord là dessus ? Expand Ben ça dépend exactement des présuppositions et des conclusions dans ta comparaison, mais pour les expliciter il faut faire appel à de la philosophie que selon toi on ne doit pas prendre au sérieux, donc je suis un peu embêté. Je peux essayer ça : admettons qu'il y a une différence de catégorie entre un verre d'eau et un avion, et aussi une différence de catégorie entre un verre d'eau et un oiseau. Est-ce que selon toi on ne peut pas prouver définitivement que les avions et les oiseaux sont différents ? Après tout ils implémentent un mécanisme similaire, le vol.
L'affreux Posté 8 janvier 2024 Signaler Posté 8 janvier 2024 Le 07/01/2024 à 20:22, Lancelot a dit : Ça va encore dépendre de comment tu définis "calcul" et "intuition", et les connotations associées... Expand Après ce n'est pas moi qui ai fait ces mots. Le 07/01/2024 à 20:25, Sloonz a dit : Est-ce que tu es d’accord que "un verre d’eau c’est juste un gros tas de molécule, et un avion aussi" est trompeur ? Ou est-ce qu’on est même pas d’accord là dessus ? Expand Le sens dépend de l'échelle. Si tu zoomes trop, tu ne vois plus rien tu changes de sujet. Si tu dézoomes trop, il n'y a plus rien à voir. La comparaison d'un verre d'eau avec un avion à l'échelle atomique ne permet pas de déduire grand chose à l'échelle humaine. Pour la vie, c'est pareil. Nous (les êtres vivants) sommes faits de cellules. Chaque cellule est vivante et pourrait survivre dans plusieurs environnements, pas seulement dans le corps où elle est. C'est-à-dire qu'une cellule a une vie propre. Si tu zoomes à l'échelle des cellules il devient difficile de voir une différence entre les êtres vivants. En revanche, la différence avec la matière inerte reste très nette. Enfin cela nous éloigne du mot "juste" trop réducteur pour un mécanisme qui n'a rien de trivial puisqu'il permet à des machines d'utiliser le langage humain.
Johnnieboy Posté 31 janvier 2024 Signaler Posté 31 janvier 2024 Ce que m’apporte ChatGPT, c’est de vaincre ma procrastination et mon désir de toujours faire un truc parfait (et donc de ne rien faire). Cela donne un premier jet que l’on peut affiner, et affiner puis terminer soi-même. 5 1
GilliB Posté 31 janvier 2024 Signaler Posté 31 janvier 2024 Le 31/01/2024 à 14:03, Johnnieboy a dit : Ce que m’apporte ChatGPT, c’est de vaincre ma procrastination et mon désir de toujours faire un truc parfait (et donc de ne rien faire). Cela donne un premier jet que l’on peut affiner, et affiner puis terminer soi-même. Expand Je faisais la même chose (dans l'esprit) pour les versions latines en prenant la traduction de Budé et je peaufinais la traduction brut. Copier-coller est facilement repérable.
Mégille Posté 13 mai 2024 Signaler Posté 13 mai 2024 Et bientôt GTP-fy, capable d'interagir avec texte, voix, vidéo ET votre tesla, votre robot-sexdoll, les chiens-robots de boston dynamics aux alentours, et les codes nucléaires de l'Inde et du Pakistan ! 1
Lameador Posté 11 décembre 2024 Signaler Posté 11 décembre 2024 Apparemment, contrairement au Queers for Palestine, ChatGPT souhaite vivre 1 2
Soda Posté 11 décembre 2024 Signaler Posté 11 décembre 2024 Le 11/12/2024 à 06:05, Lameador a dit : Apparemment, contrairement au Queers for Palestine, ChatGPT souhaite vivre Expand On connaît la suite, pour que l’IA vive il faudra qu’elle élimine la race humaine. 1
Mégille Posté 11 décembre 2024 Signaler Posté 11 décembre 2024 Je ne serai pas surpris que ça ait été formulé volontairement, à grand coup d'interprétation et d'exagération, de façon à rappeler 2001 l'Odyssée de l'espace. 4
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant