Calembredaine Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Le 05/12/2023 à 13:23, Philiber Té a dit : Personnellement, je veux une IA à qui je confie ma biblio et qui peut répondre à des requêtes du genre "je me souviens d'un graphique bleu et rouge...". J'ai des tonnes de notes de lecture, donc DocFetcher, etc. font déjà très bien le boulot. Mais quand ce sont des souvenirs trop vagues ou "visuels", ça coince. Expand Voilà ! C'est exactement vers cela que se dirige l'IA.
Rincevent Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Le 05/12/2023 à 14:10, Philiber Té a dit : Oui, j'imagine que c'est un procédé rhétorique courant, même si cela fait bien longtemps que je n'ai pas écouté ces pipeauteurs et leurs délires complotistes. Expand Ils ne sont pas plus complotistes que ceux qui croient que nous sommes envahis de bots russes qui sont la seule source du complotisme qui est d'ailleurs toujours dans le camp d'en face, n'est-ce pas. (Après, Aberkane fait davantage marchand de tapis Key Accounts Sales Team Lead que complotiste. Et Asselineau ne pipeaute pas tant que ça, en revanche il surinterprète beaucoup trop sans doute par manque de finesse).
Philiber Té Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Le 05/12/2023 à 16:17, Rincevent a dit : Ils ne sont pas plus complotistes que ceux qui croient que nous sommes envahis de bots russes qui sont la seule source du complotisme qui est d'ailleurs toujours dans le camp d'en face, n'est-ce pas. (Après, Aberkane fait davantage marchand de tapis Key Accounts Sales Team Lead que complotiste. Et Asselineau ne pipeaute pas tant que ça, en revanche il surinterprète beaucoup trop sans doute par manque de finesse). Expand Je vois bien qu'il y a un second niveau de lecture à ta réponse ("n'est-ce pas", le smiley...), mais désolé, la ref m'échappe. J'avoue ne pas avoir fait de classement en fonction du degré de complotisme, pour moi ce sont deux guignols complotistes qui gravitent autour de France Soir & Co. J'ai jeté un œil aux vidéos d'Aberkane (rassurez-vous, j'ai pris la plus courte !) : Révéler le contenu masqué On retrouve un bel exemple de ce dont on parlait avec les ours polaires : ça sort de nulle part, ça n'apporte rien au reste du discours... mais c'est une façon de dire "je suis malin, je connais le grec" ! 😁
Rincevent Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Le 05/12/2023 à 19:12, Philiber Té a dit : Je vois bien qu'il y a un second niveau de lecture à ta réponse ("n'est-ce pas", le smiley...), mais désolé, la ref m'échappe. Expand Dommage pour toi. 1
Philiber Té Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Le 05/12/2023 à 19:39, Rincevent a dit : Dommage pour toi. Expand Merci pour les explications, c'est sympa. 👍
Rincevent Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Le 05/12/2023 à 20:55, Philiber Té a dit : Merci pour les explications, c'est sympa. 👍 Expand Et bien, qu'y a-t-il à expliquer ? C'est déjà presque tout explicite. Les demi-habiles qui s'arrogent le droit de parler au nom de la soyence, de l'expertise et du savoir universitaire et diplômant croient souvent eux aussi en une théorie du complot, à savoir que toute opposition au progressisme (soit dans sa version sida mental universitaire, soit dans sa version centriste-autoritaire) ne peut être que le fruit de puissances étrangères qui manipulent le peuple, l'empêchant ainsi d'adhérer au grand récit officiel de l’État thérapeutique-managérial. Ils excluent ainsi des explications pourtant beaucoup plus simples : par exemple, que là où la laptop class voit un rêve, les "populistes" y voient un cauchemar, probablement à juste titre d’ailleurs ; ou encore, que le "Parti sans laisser d'adresse de l'intelligence et de la raison" puisse, peut-être, avoir tort et être moins intelligent qu'ils ne le pensent. C'est un cousin du préjugé qui a abouti jadis à la Terreur : nous avons la Raison avec nous, donc ce que nous faisons ne peut que fonctionner ; or, ça ne fonctionne pas, et la raison est probablement l'existence de saboteurs qu'il faut éliminer pour laisser chanter les lendemains. 2 1
Marlenus Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Asselineau, mon opinion a totalement basculé le jour où il nous a expliqué que les référendums d'annexion des 4 oblasts ont été des modèles de démocratie. J'avoue que je le pensais plus subtil. Le même Asselineau qui clame partout que la démocratie française n'existe pas car il n'a pas réussit à avoir ses 500 parrainages. J'ai donc basculé dans le complotisme islamo-gauchiste en pensant qu'il est très très possible qu'il soit financé par la Russie. Après on peut penser que son soutien à la démocratie Russe n'est absolument pas lié à de l'argent mais à sa réelle vision de la démocratie. Qui sait? Aberkane, je n'ai pas encore eu ce déclic. Nous verrons donc. Sinon pour en revenir aux IA, je ne sais pas trop ce que j'en attends. Déjà, si comme je l'ai dit plus haut, je pouvais lui demander de remplir et envoyer les dossiers administratif à la c... à ma place, ce serait déjà bien.
Rincevent Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Le 05/12/2023 à 23:25, Marlenus a dit : J'ai donc basculé dans le complotisme islamo-gauchiste en pensant qu'il est très très possible qu'il soit financé par la Russie. Expand Si la Russie finançait des partis souverainistes, elle n'en financerait qu'un et se débrouillerait pour couler les autres. Or, chez les souverainistes, c'est plutôt la division qui règne, entre l'UPR, les Patriotes, Génération Frexit, République Souveraine, le SIEL, et dans une certaine mesure Debout La France, on a quand même une belle brochette de partis qui refusent de fusionner ou de s'allier les uns aux autres histoire de dépasser leurs miettes respectives. Coïncidence peut-être, ils sont à peu prés tous menés par des énarques (aka le parti du "il faut tout changer pour que rien ne change"). Le 05/12/2023 à 23:25, Marlenus a dit : Après on peut penser que son soutien à la démocratie Russe n'est absolument pas lié à de l'argent mais à sa réelle vision de la démocratie. Qui sait? Expand Il est énarque. Qu'est-ce qu'un énarque comprend, réellement, à la démocratie ou à la liberté ou à ce genre de choses ?
Cthulhu Posté 6 décembre 2023 Signaler Posté 6 décembre 2023 Vous ne voulez pas poursuivre ce débat sur un autre sujet ? 3
Philiber Té Posté 9 décembre 2023 Signaler Posté 9 décembre 2023 Le 05/12/2023 à 21:06, Rincevent a dit : Expand Ok, merci pour l'explication. Effectivement, c'est un tout autre (hors-)sujet : j'en suis resté à leurs délires comploplo classiques, je n'ai pas du tout suivi leur positionnement sur les événements géopolitiques récents, etc., ni si cela avait affecté leurs techniques de manipulation. Donc, pour en revenir au sujet du topic, il y a un autre indice que j'ai évoqué rapidement mais qui fonctionne très bien avec des étudiants : la rédaction scientifique "à l'anglaise" (il y a probablement une formule plus correcet pour nommer ça...). ChatGPT reprend le schéma habituel : un paragraphe = "topic sentence" + définitions / preuves / démonstrations. Avec la deuxième phrase du § qui commence toujours par du "It refers", "It concerns", "It describes", etc. Ça jure avec le style très scolaire qu'on rencontre la plupart du temps. Après, est-ce que ça marche avec d'autres disciplines ?
Rincevent Posté 10 décembre 2023 Signaler Posté 10 décembre 2023 Le 09/12/2023 à 14:49, Philiber Té a dit : j'en suis resté à leurs délires comploplo classiques Expand
Alchimi Posté 15 décembre 2023 Signaler Posté 15 décembre 2023 https://www.bfmtv.com/tech/intelligence-artificielle/ia-au-bresil-une-ville-adopte-un-projet-de-loi-redige-par-chat-gpt-en-un-rien-de-temps_AV-202312060162.html Citation "Créer une loi municipale pour la ville de Porto Alegre, émanant du pouvoir législatif et non de l’exécutif, qui interdit au service municipal des eaux et des eaux usées de facturer le propriétaire pour le paiement d’un nouveau compteur d’eau lorsque celui-ci est volé". "Deux idées" encore jamais imaginées Après une quinzaine de secondes de réflexion, donc, ChatGPT donne une réponse qui va "surprendre" le conseiller municipal. Ramiro Rosário révèle au Washington Post que l’IA lui a proposé deux idées auxquelles il n’avait jamais pensé auparavant. "Fixer un délai de 30 jours pour que la ville remplace les compteurs d'eau volés" et, si la ville ne tenait pas son engagement "d’exempter les propriétaires du paiement de leurs factures d’eau". Expand Eeeeeet: https://www.bfmtv.com/tech/intelligence-artificielle/pour-la-premiere-fois-l-assemblee-nationale-va-debattre-d-un-amendement-redige-par-chat-gpt_AV-202303210310.html Va-on passer de "vite une loi" à "vite chatgpt pond-moi une loi!" en France?
Tramp Posté 15 décembre 2023 Signaler Posté 15 décembre 2023 Comme ça, si tu « voles » ton propre compteur, tu ne paies plus l’eau.
Calembredaine Posté 27 décembre 2023 Signaler Posté 27 décembre 2023 GPT4 devient bon en math, même en français. Quand on lui donne un exercice de maths, le chatbot affiche un "analysing" pendant quelques secondes. Je n'ai pas réussi à savoir ce qu'il y a derrière. Puis, il affiche les réponses et généralement ajoute un bout de code Python. Ce bout de code est parfaitement fonctionnel et donne les réponses. On est au delà d'une génération de texte probabiliste. Exemple (trouvé sur X): Si le prix d'une montre est de 180€, j'en vends 500. A chaque fois que j'augmente le prix de 1€, j'en vends deux de moins. Quel prix dois-je fixer pour maximiser mon profit. Je vous laisse calculer 🙂 GPT4 donne la réponse ainsi que le code python suivant: # Initial price and quantity initial_price = 180 # in euros initial_quantity = 500 # Function to calculate profit def calculate_profit(price): quantity_sold = initial_quantity - 2 * (price - initial_price) return price * quantity_sold # Calculating the optimal price # We will calculate profits for a range of prices and find the maximum profit price_range = range(initial_price, initial_price + 100) # Arbitrarily choosing a range max_profit = 0 optimal_price = initial_price for price in price_range: profit = calculate_profit(price) if profit > max_profit: max_profit = profit optimal_price = price optimal_price, max_profit 1
Bézoukhov Posté 27 décembre 2023 Signaler Posté 27 décembre 2023 Mmmh. Il est capable de mettre un texte en équitation (ce qui est juste une fonction du langage - on doit s’attendre à ce qu’un logiciel capable de traduire entre plusieurs langues le fasse) mais pas encore de traduire lesdites équations en leur résolution la plus élégante et certaine (ce qui est le propre des maths).
Calembredaine Posté 27 décembre 2023 Signaler Posté 27 décembre 2023 Le 27/12/2023 à 10:08, Bézoukhov a dit : Mmmh. Il est capable de mettre un texte en équitation (ce qui est juste une fonction du langage - on doit s’attendre à ce qu’un logiciel capable de traduire entre plusieurs langues le fasse) mais pas encore de traduire lesdites équations en leur résolution la plus élégante et certaine (ce qui est le propre des maths). Expand Certes, cependant il y encore quelques mois, GPT répondait absolument n'importe quoi. C'est d'ailleurs encore le cas de Bard par exemple. 2
Sloonz Posté 27 décembre 2023 Signaler Posté 27 décembre 2023 Analyzing = la génération du code Python C’est extrêmement impressionnant mais comme toujours il faut se méfier. Hier je lui ai demandé de m’expliquer les saisons et de donner une estimation de la différence d'illumination entre l'hiver et l'été à la latitude 45°. Il a fait globalement une bonne analyse, mais mélangé cos et sin dans le code Python, et conclut sans remarquer l’erreur que l’illumination en été était d’1/3 de celle de l’hiver. Si la conclusion n’était pas aussi improbable, j’aurai probablement manqué la confusion cos/sin. 1
Lancelot Posté 27 décembre 2023 Signaler Posté 27 décembre 2023 Le 27/12/2023 à 10:08, Bézoukhov a dit : Mmmh. Il est capable de mettre un texte en équitation (ce qui est juste une fonction du langage - on doit s’attendre à ce qu’un logiciel capable de traduire entre plusieurs langues le fasse) mais pas encore de traduire lesdites équations en leur résolution la plus élégante et certaine (ce qui est le propre des maths). Expand Il y a des outils de simplification d'équations (par exemple celui de Wolfram : https://www.wolframalpha.com/input/?i=simplify) mais choisir "la plus élégante" c'est compliqué, il y a une part de jugement esthétique.
Drake Posté 27 décembre 2023 Signaler Posté 27 décembre 2023 Le 27/12/2023 à 09:28, Calembredaine a dit : Exemple (trouvé sur X): Si le prix d'une montre est de 180€, j'en vends 500. A chaque fois que j'augmente le prix de 1€, j'en vends deux de moins. Quel prix dois-je fixer pour maximiser mon profit. Expand Ah, OK, donc il est capable de répondre à une question piège sans se rendre compte qu'il n'a pas les données nécessaires pour calculer le profit max.
Rincevent Posté 27 décembre 2023 Signaler Posté 27 décembre 2023 Le 27/12/2023 à 09:28, Calembredaine a dit : On est au delà d'une génération de texte probabiliste Expand Non. C'est juste que les probabilités sont de plus en plus affûtées.
Calembredaine Posté 27 décembre 2023 Signaler Posté 27 décembre 2023 Le 27/12/2023 à 10:54, Drake a dit : Ah, OK, donc il est capable de répondre à une question piège sans se rendre compte qu'il n'a pas les données nécessaires pour calculer le profit max. Expand Ou alors il a compris que sans ces données dans l'énoncé, "profit" signifie "CA" 🙂
Sloonz Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 27/12/2023 à 18:36, Calembredaine a dit : Ou alors il a compris que sans ces données dans l'énoncé, "profit" signifie "CA" 🙂 Expand Ou que maximiser profit = maximiser CA, si les coûts restent constants. Le 27/12/2023 à 13:03, Rincevent a dit : Non. C'est juste que les probabilités sont de plus en plus affûtées. Expand A ce sujet :
Rincevent Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 11:00, Sloonz a dit : A ce sujet : Expand Je te laisse donc développer, si tu le souhaites ; instruis-nous.
Sloonz Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Je… ne vois pas ce qu’il y a à développer ? Tout est dit dans le tweet ? Qu’-est-ce qui n’est pas clair ? GPT, c’est exactement ce que les gens s’imaginent en pointant "LLM predicting next token". ChatGPT, le produit avec lequel tout le monde interagit, ce n’est pas GPT, c’est GPT + RLHF (+ RLAIF très probablement, même si je ne pense pas que ça ait été confirmé). Une grosse partie de son comportement provient de la partie RL*F, et le texte produit par ChatGPT est très différent du texte qui serait simplement produit "par imitation" par GPT. (pour être plus précis : GPT prédit la probabilité du token suivant d’après son modèle interne extrait de son corpus d’entrainement ; ChatGPT prédit quel score un juge humain donnerait à la continuation d’un texte)
Rincevent Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 13:01, Sloonz a dit : Qu’-est-ce qui n’est pas clair ? Expand
Azref Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 13:01, Sloonz a dit : GPT, c’est exactement ce que les gens s’imaginent en pointant "LLM predicting next token". ChatGPT, le produit avec lequel tout le monde interagit, ce n’est pas GPT, c’est GPT + RLHF Expand Je ne suis pas expert sur le sujet du tout donc à prendre avec des pincettes, mais pour moi gpt4 (et 3.5) est le modèle de base qui utilise RHLF. Chatgpt, c'est juste la surcouche "chatbot" (+ le site web pour l'utiliser), avec des instructions/limites en amont données pour qu'il se comporte en chatbot. Tu peux arriver à un chatgpt "maison" en api simplement en ajoutant des instructions à chaque requête vers gpt3.5/4. Et je t'avoue que je n'ai pas non plus compris le tweet : RHLF ou non, le modèle prédit toujours le token le plus probable, non? C'est juste que l’entraînement a été "amélioré"/fine tuné par des humains en amont, du coup le token suivant sera plus "juste".
Sloonz Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 14:18, Azref a dit : Je ne suis pas expert sur le sujet du tout donc à prendre avec des pincettes, mais pour moi gpt4 (et 3.5) est le modèle de base qui utilise RHLF. Expand Non. À ma connaissance le seul modèle de base d’OpenAI encore accessible est code-davinci-002 (qui, comme son nom l'indique, a très largement été entrainé sur du code). Il y a une problématique légale/économique/woke à ça. Si tu commences ton prompt par "Sieg Heil", la suite du texte généré par ton LLM pur a de fortes chances d’être… problématique. Tandis que tu peux entraîner un modèle RLHF à se tenir très très loin de ça. Aucune entreprise/laboratoire ne veut prendre la responsabilité de permettre le premier usage. Le 03/01/2024 à 14:18, Azref a dit : RHLF ou non, le modèle prédit toujours le token le plus probable, non? Expand C’est ce que je m’évertue à essayer d’expliquer depuis un moment dans ce fil. Sans succès apparemment. Absolument tout processus dans l’univers peut être interprété par un prisme probabiliste. Dans un sens totalement maximaliste (et inutile : si tout est X, X perd son sens), oui, le modèle te sort des probabilités. Dans le sens strict où "ChatGPT construit un modèle statistique à partir d’un énorme corpus de texte, et l’utilise pour trouver le token le plus probable", non. Doublement non. C’est clairement faux pour ChatGPT : la partie RLHF est entraînée pour produire un texte qui sera noté "pertinent"/"utile" ("pouce vert") par un juge humain, pas pour être probable dans un corpus existant. Si tu utilises ChatGPT, parfois il te propose deux textes et te demande lequel et le meilleur ; ou, quand tu régénères, il te demande "cette réponse est elle meilleure que la précédente ?". C’est toi qui participe à l’entrainement RLHF. Il ne prédit pas lequel est le plus probable, il prédit lequel est préféré par un humain (et oui, tu peux toujours si ça te chante traduire ça par "quelle est la probabilité qu’un humain préfère cette réponse". Tout est probabiliste, toujours). Secondement, parce que décrire la partie GPT pure comme un "modèle statistique" est extrêmement trompeur. Un statisticien qui produit un modèle statistique est capable de l’expliquer, le justifier, et de sortir des quantités telles que des intervalles de confiance. Quand un médecin te sort un diagostic, il le sort à partir de son expérience et de ses connaissances, mais dans bien des cas il sera incapable de te dire exactement quelle donnée a contribué pour combien à son résultat, mettre un chiffre sur son degré de confiance. GPT est bien plus proche du second cas que du premier. Le gros problème de la discussion c’est la distinction texte/sous-texte. "Modèle probabiliste" est correct dans le texte, mais le sous-texte est totalement faux. "Modèle probabiliste", en tant que texte, s’applique très bien à ChatGPT. Le problème c’est que le sous-texte c’est "juste une chaine de Markov au fond", ce qui est pour le coup faux.
Lancelot Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 14:43, Sloonz a dit : Dans le sens strict où "ChatGPT construit un modèle statistique à partir d’un énorme corpus de texte, et l’utilise pour trouver le token le plus probable", non. Doublement non. C’est clairement faux pour ChatGPT : la partie RLHF est entraînée pour produire un texte qui sera noté "pertinent"/"utile" ("pouce vert") par un juge humain, pas pour êtreprobable dans un corpus existant. Expand C'est simplement une question de différentes fonctions que tu peux chercher à optimiser : "probabilité d'apparition dans un corpus existant" vs "probabilité d'être jugé pertinent par un humain". Si ton point est juste que ce n'est pas la première option qui est implémentée dans GPT, cette hypothèse ne me serait même pas venue à l'esprit à vrai dire (et je ne pense pas que c'était le point de Rincevent non plus) mais effectivement. Pour le reste, ma réaction au tweet est "that's a nice opinion you got there bro".
Sloonz Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 14:51, Lancelot a dit : cette hypothèse ne me serait même pas venue à l'esprit à vrai dire (et je ne pense pas que c'était le point de Rincevent non plus) Expand J’aimerai qu’on m’explique l’expression "stochastic parrot" si la compréhension mainstream des LLM ce n’est pas "optimisé pour la probabilité d'apparition dans un corpus existant"
L'affreux Posté 3 janvier 2024 Signaler Posté 3 janvier 2024 Le 03/01/2024 à 14:43, Sloonz a dit : décrire la partie GPT pure comme un "modèle statistique" est extrêmement trompeur Expand À ceux qui disent que ChatGPT est juste une machine à probabilités, on peut répondre qu'un cerveau biologique en est peut-être une aussi. 2
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant