Jump to content

Recommended Posts

il y a 18 minutes, Marlenus a dit :

J'ai donc basculé dans le complotisme islamo-gauchiste en pensant qu'il est très très possible qu'il soit financé par la Russie.

Si la Russie finançait des partis souverainistes, elle n'en financerait qu'un et se débrouillerait pour couler les autres. Or, chez les souverainistes, c'est plutôt la division qui règne, entre l'UPR, les Patriotes, Génération Frexit, République Souveraine, le SIEL, et dans une certaine mesure Debout La France, on a quand même une belle brochette de partis qui refusent de fusionner ou de s'allier les uns aux autres histoire de dépasser leurs miettes respectives. Coïncidence peut-être, ils sont à peu prés tous menés par des énarques (aka le parti du "il faut tout changer pour que rien ne change").

 

il y a 18 minutes, Marlenus a dit :

Après on peut penser que son soutien à la démocratie Russe n'est absolument pas lié à de l'argent mais à sa réelle vision de la démocratie.

Qui sait?

Il est énarque. Qu'est-ce qu'un énarque comprend, réellement, à la démocratie ou à la liberté ou à ce genre de choses ?

Link to comment
Le 05/12/2023 à 22:06, Rincevent a dit :

 

 

Ok, merci pour l'explication. Effectivement, c'est un tout autre (hors-)sujet : j'en suis resté à leurs délires comploplo classiques, je n'ai pas du tout suivi leur positionnement sur les événements géopolitiques récents, etc., ni si cela avait affecté leurs techniques de manipulation. :jesaispo:

 

Donc, pour en revenir au sujet du topic, il y a un autre indice que j'ai évoqué rapidement mais qui fonctionne très bien avec des étudiants : la rédaction scientifique "à l'anglaise" (il y a probablement une formule plus correcet pour nommer ça...). ChatGPT reprend le schéma habituel : un paragraphe = "topic sentence" + définitions / preuves / démonstrations. Avec la deuxième phrase du § qui commence toujours par du "It refers", "It concerns", "It describes", etc. Ça jure avec le style très scolaire qu'on rencontre la plupart du temps. Après, est-ce que ça marche avec d'autres disciplines ?

Link to comment

https://www.bfmtv.com/tech/intelligence-artificielle/ia-au-bresil-une-ville-adopte-un-projet-de-loi-redige-par-chat-gpt-en-un-rien-de-temps_AV-202312060162.html

 

Citation

"Créer une loi municipale pour la ville de Porto Alegre, émanant du pouvoir législatif et non de l’exécutif, qui interdit au service municipal des eaux et des eaux usées de facturer le propriétaire pour le paiement d’un nouveau compteur d’eau lorsque celui-ci est volé".

"Deux idées" encore jamais imaginées

Après une quinzaine de secondes de réflexion, donc, ChatGPT donne une réponse qui va "surprendre" le conseiller municipal. Ramiro Rosário révèle au Washington Post que l’IA lui a proposé deux idées auxquelles il n’avait jamais pensé auparavant. "Fixer un délai de 30 jours pour que la ville remplace les compteurs d'eau volés" et, si la ville ne tenait pas son engagement "d’exempter les propriétaires du paiement de leurs factures d’eau".

 

Eeeeeet:

https://www.bfmtv.com/tech/intelligence-artificielle/pour-la-premiere-fois-l-assemblee-nationale-va-debattre-d-un-amendement-redige-par-chat-gpt_AV-202303210310.html

 

Va-on passer de "vite une loi" à "vite chatgpt pond-moi une loi!" en France? :D

Link to comment
  • 2 weeks later...

GPT4 devient bon en math, même en français.

Quand on lui donne un exercice de maths, le chatbot affiche un "analysing" pendant quelques secondes. Je n'ai pas réussi à savoir ce qu'il y a derrière.

Puis, il affiche les réponses et généralement ajoute un bout de code Python. Ce bout de code est parfaitement fonctionnel et donne les réponses.

On est au delà d'une génération de texte probabiliste.

 

Exemple (trouvé sur X):

Si le prix d'une montre est de 180€, j'en vends 500. A chaque fois que j'augmente le prix de 1€, j'en vends deux de moins. Quel prix dois-je fixer pour maximiser mon profit.

 

Je vous laisse calculer 🙂

GPT4 donne la réponse ainsi que le code python suivant:

 

# Initial price and quantity
initial_price = 180  # in euros
initial_quantity = 500

# Function to calculate profit
def calculate_profit(price):
    quantity_sold = initial_quantity - 2 * (price - initial_price)
    return price * quantity_sold

# Calculating the optimal price
# We will calculate profits for a range of prices and find the maximum profit
price_range = range(initial_price, initial_price + 100)  # Arbitrarily choosing a range
max_profit = 0
optimal_price = initial_price

for price in price_range:
    profit = calculate_profit(price)
    if profit > max_profit:
        max_profit = profit
        optimal_price = price

optimal_price, max_profit

 

  • Yea 1
Link to comment

Mmmh. Il est capable de mettre un texte en équitation (ce qui est juste une fonction du langage - on doit s’attendre à ce qu’un logiciel capable de traduire entre plusieurs langues le fasse) mais pas encore de traduire lesdites équations en leur résolution la plus élégante et certaine (ce qui est le propre des maths).

Link to comment
il y a 9 minutes, Bézoukhov a dit :

Mmmh. Il est capable de mettre un texte en équitation (ce qui est juste une fonction du langage - on doit s’attendre à ce qu’un logiciel capable de traduire entre plusieurs langues le fasse) mais pas encore de traduire lesdites équations en leur résolution la plus élégante et certaine (ce qui est le propre des maths).

 

Certes, cependant il y encore quelques mois, GPT répondait absolument n'importe quoi. C'est d'ailleurs encore le cas de Bard par exemple.

  • Yea 2
Link to comment

Analyzing = la génération du code Python

 

C’est extrêmement impressionnant mais comme toujours il faut se méfier. Hier je lui ai demandé de m’expliquer les saisons et de donner une estimation de la différence d'illumination entre l'hiver et l'été à la latitude 45°. Il a fait globalement une bonne analyse, mais mélangé cos et sin dans le code Python, et conclut sans remarquer l’erreur que l’illumination en été était d’1/3 de celle de l’hiver. Si la conclusion n’était pas aussi improbable, j’aurai probablement manqué la confusion cos/sin.

  • Yea 1
Link to comment
32 minutes ago, Bézoukhov said:

Mmmh. Il est capable de mettre un texte en équitation (ce qui est juste une fonction du langage - on doit s’attendre à ce qu’un logiciel capable de traduire entre plusieurs langues le fasse) mais pas encore de traduire lesdites équations en leur résolution la plus élégante et certaine (ce qui est le propre des maths).

Il y a des outils de simplification d'équations (par exemple celui de Wolfram : https://www.wolframalpha.com/input/?i=simplify) mais choisir "la plus élégante" c'est compliqué, il y a une part de jugement esthétique.

Link to comment
il y a une heure, Calembredaine a dit :

Exemple (trouvé sur X):

Si le prix d'une montre est de 180€, j'en vends 500. A chaque fois que j'augmente le prix de 1€, j'en vends deux de moins. Quel prix dois-je fixer pour maximiser mon profit.

Ah, OK, donc il est capable de répondre à une question piège sans se rendre compte qu'il n'a pas les données nécessaires pour calculer le profit max.  :soddip:

Link to comment
Il y a 7 heures, Drake a dit :

Ah, OK, donc il est capable de répondre à une question piège sans se rendre compte qu'il n'a pas les données nécessaires pour calculer le profit max.  :soddip:

 

Ou alors il a compris que sans ces données dans l'énoncé, "profit" signifie "CA" 🙂

Link to comment
On 12/27/2023 at 7:36 PM, Calembredaine said:

Ou alors il a compris que sans ces données dans l'énoncé, "profit" signifie "CA" 🙂

 

Ou que maximiser profit = maximiser CA, si les coûts restent constants.

 

On 12/27/2023 at 2:03 PM, Rincevent said:

Non. C'est juste que les probabilités sont de plus en plus affûtées.

 

A ce sujet :

 

Link to comment
Il y a 1 heure, Sloonz a dit :

A ce sujet :

 

Je te laisse donc développer, si tu le souhaites ; instruis-nous.

Link to comment

Je… ne vois pas ce qu’il y a à développer ? Tout est dit dans le tweet ? Qu’-est-ce qui n’est pas clair ?

 

GPT, c’est exactement ce que les gens s’imaginent en pointant "LLM predicting next token". ChatGPT, le produit avec lequel tout le monde interagit, ce  n’est pas GPT, c’est GPT + RLHF (+ RLAIF très probablement, même si je ne pense pas que ça ait été confirmé). Une grosse partie de son comportement provient de la partie RL*F, et le texte produit par ChatGPT est très différent du texte qui serait simplement produit "par imitation" par GPT.

 

(pour être plus précis : GPT prédit la probabilité du token suivant d’après son modèle interne extrait de son corpus d’entrainement ; ChatGPT prédit quel score un juge humain donnerait à la continuation d’un texte)

Link to comment
il y a une heure, Sloonz a dit :

 

GPT, c’est exactement ce que les gens s’imaginent en pointant "LLM predicting next token". ChatGPT, le produit avec lequel tout le monde interagit, ce  n’est pas GPT, c’est GPT + RLHF

Je ne suis pas expert sur le sujet du tout donc à prendre avec des pincettes, mais pour moi gpt4 (et 3.5) est le modèle de base qui utilise RHLF.
Chatgpt, c'est juste la surcouche "chatbot" (+ le site web pour l'utiliser), avec des instructions/limites en amont données pour qu'il se comporte en chatbot. Tu peux arriver à un chatgpt "maison" en api simplement en ajoutant des instructions à chaque requête vers gpt3.5/4.

 

Et je t'avoue que je n'ai pas non plus compris le tweet : RHLF ou non, le modèle prédit toujours le token le plus probable, non?

C'est juste que l’entraînement a été "amélioré"/fine tuné par des humains en amont, du coup le token suivant sera plus "juste".

Link to comment
34 minutes ago, Azref said:

Je ne suis pas expert sur le sujet du tout donc à prendre avec des pincettes, mais pour moi gpt4 (et 3.5) est le modèle de base qui utilise RHLF.

Non. À ma connaissance le seul modèle de base d’OpenAI encore accessible est code-davinci-002 (qui, comme son nom l'indique, a très largement été entrainé sur  du code).

 

Il y a une problématique légale/économique/woke à ça. Si tu commences ton prompt par "Sieg Heil", la suite du texte généré par ton LLM pur a de fortes chances d’être… problématique. Tandis que tu peux entraîner un modèle RLHF à se tenir très très loin de ça. Aucune entreprise/laboratoire ne veut prendre la responsabilité de permettre le premier usage.

 

34 minutes ago, Azref said:

RHLF ou non, le modèle prédit toujours le token le plus probable, non?

C’est ce que je m’évertue à essayer d’expliquer depuis un moment dans ce fil. Sans succès apparemment.

 

Absolument tout processus dans l’univers peut être interprété par un prisme probabiliste. Dans un sens totalement maximaliste (et inutile : si tout est X, X perd son sens), oui, le modèle te sort des probabilités.

 

Dans le sens strict où "ChatGPT construit un modèle statistique à partir d’un énorme corpus de texte, et l’utilise pour trouver le token le plus probable", non. Doublement non. C’est clairement faux pour ChatGPT : la partie RLHF est entraînée pour produire un texte qui sera noté "pertinent"/"utile" ("pouce vert") par un juge humain, pas pour être probable dans un corpus existant. Si tu utilises ChatGPT, parfois il te propose deux textes et te demande lequel et le meilleur ; ou, quand tu régénères, il te demande "cette réponse est elle meilleure que la précédente ?". C’est toi qui participe à l’entrainement RLHF. Il ne prédit pas lequel est le plus probable, il prédit lequel est préféré par un humain (et oui, tu peux toujours si ça te chante traduire ça par "quelle est la probabilité qu’un humain préfère cette réponse". Tout est probabiliste, toujours).

 

Secondement, parce que décrire la partie GPT pure comme un "modèle statistique" est extrêmement trompeur. Un statisticien qui produit un modèle statistique est capable de l’expliquer, le justifier, et de sortir des quantités telles que des intervalles de confiance. Quand un médecin te sort un diagostic, il le sort à partir de son expérience et de ses connaissances, mais dans bien des cas il sera incapable de te dire exactement quelle donnée a contribué pour combien à son résultat, mettre un chiffre sur son degré de confiance. GPT est bien plus proche du second cas que du premier.

 

Le gros problème de la discussion c’est la distinction texte/sous-texte. "Modèle probabiliste" est correct dans le texte, mais le sous-texte est totalement faux. "Modèle probabiliste", en tant que texte, s’applique très bien à ChatGPT. Le problème c’est que le sous-texte c’est "juste une chaine de Markov au fond", ce qui est pour le coup faux.

Link to comment
1 minute ago, Sloonz said:

Dans le sens strict où "ChatGPT construit un modèle statistique à partir d’un énorme corpus de texte, et l’utilise pour trouver le token le plus probable", non. Doublement non. C’est clairement faux pour ChatGPT : la partie RLHF est entraînée pour produire un texte qui sera noté "pertinent"/"utile" ("pouce vert") par un juge humain, pas pour êtreprobable dans un corpus existant.

C'est simplement une question de différentes fonctions que tu peux chercher à optimiser : "probabilité d'apparition dans un corpus existant" vs "probabilité d'être jugé pertinent par un humain". Si ton point est juste que ce n'est pas la première option qui est implémentée dans GPT, cette hypothèse ne me serait même pas venue à l'esprit à vrai dire (et je ne pense pas que c'était le point de Rincevent non plus) mais effectivement.

 

Pour le reste, ma réaction au tweet est "that's a nice opinion you got there bro".

Link to comment
2 minutes ago, Lancelot said:

cette hypothèse ne me serait même pas venue à l'esprit à vrai dire (et je ne pense pas que c'était le point de Rincevent non plus)

 

J’aimerai qu’on m’explique l’expression "stochastic parrot" si la compréhension mainstream des LLM ce n’est pas "optimisé pour la probabilité d'apparition dans un corpus existant"

Link to comment
il y a 55 minutes, Sloonz a dit :

décrire la partie GPT pure comme un "modèle statistique" est extrêmement trompeur

 

À ceux qui disent que ChatGPT est juste une machine à probabilités, on peut répondre qu'un cerveau biologique en est peut-être une aussi.

  • Yea 2
Link to comment
59 minutes ago, Sloonz said:

J’aimerai qu’on m’explique l’expression "stochastic parrot" si la compréhension mainstream des LLM ce n’est pas "optimisé pour la probabilité d'apparition dans un corpus existant"

Dans mon expérience les gens se rangent en gros en deux groupes, ceux qui ont tendance à sur-évaluer complètement ce qui se passe (ça recoupe ceux qui pensent que c'est super et ceux qui pensent que c'est la fin du monde) et ceux qui ont tendance à le sous-évaluer complètement. De manière intéressante peut-être d'un point de vue psychologique ou sociologique, les premiers m'ont l'air plus nombreux quand on parle de modèles générateurs de langage, et les second quand on parle de modèles générateurs d'images.

 

26 minutes ago, L'affreux said:

À ceux qui disent que ChatGPT est juste une machine à probabilités, on peut répondre qu'un cerveau biologique en est peut-être une aussi.

Au moins en partie certainement. Et le T9 sur ton téléphone aussi. Que doit-on en conclure ?

  • Yea 1
Link to comment
Il y a 1 heure, Lancelot a dit :

Que doit-on en conclure ?

 

On peut retirer le mot "juste".

 

Pour ma part j'ai l'impression qu'une partie de ce qu'est l'intelligence est en passe d'être percée. Même si c'est balbutiant. L'intelligence et la conscience : des mots dont le contour n'est pas clair, j'ai bon espoir que les prochaines années aident à saisir plus précisément de quoi il retourne.

  • Yea 2
Link to comment

J'ai plutôt l'impression que l'on vient de découvrir une nouvelle partie de ce que l'esprit humain n'est pas. Ou plutôt, en découvrant qu'une machine est capable de faire certaines choses qui nous avaient semblées spécifiques et essentielles à l'esprit humain tout en étant visiblement très différente d'un humain, que l'on découvre qu'il ne s'agit peut être pas d'un si gros bout de que ça de nous. De façon analogue, au XVIIème siècle, Hobbes envisageait que l'esprit ne soit rien d'autre qu'une grosse machine à calculer. Quelques décennies plus tard, Pascal, puis Leibniz, bricolent des machines à calculer, montrant que de telles machines sont bien possibles... Et à la fois, qu'il faut définitivement plus que ça (ou au moins, être beaucoup plus précis sur le genre de calcul dont il est question, si on veut être charitable avec Hobbes et le fonctionnalisme) pour faire un truc qui pense comme un humain. Aujourd'hui, en étant capable de générer des énoncés bien formés et la plupart du temps pertinents, mais sans pour autant être jamais intelligent, les machines nous montrent que le langage n'est peut-être pas ce dans quoi on doit chercher l'esprit. Un clou de plus dans le cercueil de la philosophie linguistique, qu'elle soit issue de Wittgenstein ou de Heidegger. 

Link to comment
il y a 27 minutes, Mégille a dit :

J'ai plutôt l'impression que l'on vient de découvrir une nouvelle partie de ce que l'esprit humain n'est pas [...] les machines nous montrent que le langage n'est peut-être pas ce dans quoi on doit chercher l'esprit.

 

Le mot "esprit" c'est en quelque sorte l'âme des non-croyants ? Il est encore moins clair que "intelligence" et "conscience". Il servira donc de refuge au fur et à mesure que l'intelligence puis la conscience perdront de leur magie.

Link to comment
Il y a 4 heures, Sloonz a dit :

Non. À ma connaissance le seul modèle de base d’OpenAI encore accessible est code-davinci-002 (qui, comme son nom l'indique, a très largement été entrainé sur  du code).

Non, tu peux accéder à gpt 3.5 "turbo", gpt 4 et même le dernier gpt 4 "turbo" en API.

https://openai.com/pricing

Et pour moi tous ces modèles sont RHLF.

 

Ou alors tu peux utiliser directement chatgpt par l'interface dédiée, qui est le modèle gpt 3.5/4 + le "moderation endpoint" activé par défaut + probablement des instructions pour l'orienter en tant que chatbot "safe" de base (+exemples de conversation?).

 

Tel que je le comprends, lorsque tu dis "pouce vert/rouge" dans chatgpt tu aide à la construction de la prochaine itération/fine tune de gpt4, et probablement dans la conversation/historique en cours laisser ou non l'entrée dans le contexte donné au modèle.

 

Citation

Il y a une problématique légale/économique/woke à ça. Si tu commences ton prompt par "Sieg Heil", la suite du texte généré par ton LLM pur a de fortes chances d’être… problématique. Tandis que tu peux entraîner un modèle RLHF à se tenir très très loin de ça. Aucune entreprise/laboratoire ne veut prendre la responsabilité de permettre le premier usage.

Certes, mais bon les titres de journaux à base de "l'IA est raciste/sexiste/woke/antiwoke" étaient un peu inévitables de toute manière.

Link to comment
57 minutes ago, L'affreux said:

On peut retirer le mot "juste".

Je ne vois pas ce qui le justifie. Ton argument permet à la limite de retirer quelque chose à ce que tu pensais nécessaire à la composition de "l'intelligence et la conscience" (ce qui n'est pas une direction de pensée nouvelle, que ça soit dans l'histoire des idées comme le dit Mégille ou dans la neuroscience moderne), mais pas de rajouter quelque chose aux modèles artificiels dont pour le coup on connaît les ingrédients.

Link to comment

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
×
×
  • Create New...