BirdyNamNam Posté 4 décembre 2023 Signaler Posté 4 décembre 2023 il y a 52 minutes, Lexington a dit : Je ne reviens toujours pas de la capacité de Chat GPT à raconter n'importe quoi, en inventant complètement même des livres 4 des 5 ouvrages n'existent tout simplement pas. mais, il le tire d'où ?
L'affreux Posté 4 décembre 2023 Signaler Posté 4 décembre 2023 Il y a 2 heures, Lexington a dit : Je ne reviens toujours pas de la capacité de Chat GPT à raconter n'importe quoi, en inventant complètement même des livres 4 des 5 ouvrages n'existent tout simplement pas. Mais celui qui existe m'avait intéressé. 🙂 EDIT : je l'ai lu en 2008 haha.
Lancelot Posté 4 décembre 2023 Signaler Posté 4 décembre 2023 2 hours ago, Lexington said: Je ne reviens toujours pas de la capacité de Chat GPT à raconter n'importe quoi Cette incrédulité, ou plutôt la tendance à la crédulité envers ce que raconte avec aplomb Chat GPT comme si c'était un interlocuteur humain, est amusante à mettre en perspective avec les débats d'il y a quelques mois sur DALL-E et sa vraie ou fausse créativité. 2
Lexington Posté 4 décembre 2023 Signaler Posté 4 décembre 2023 Il y a 3 heures, L'affreux a dit : Mais celui qui existe m'avait intéressé. 🙂 EDIT : je l'ai lu en 2008 haha. C'est vrai qu'elle est pile sur tes sujets toi Il y a 3 heures, Lancelot a dit : Cette incrédulité, ou plutôt la tendance à la crédulité envers ce que raconte avec aplomb Chat GPT comme si c'était un interlocuteur humain, est amusante à mettre en perspective avec les débats d'il y a quelques mois sur DALL-E et sa vraie ou fausse créativité. Je n'ai pas la ref, tu as un lien stp ?
Marlenus Posté 4 décembre 2023 Signaler Posté 4 décembre 2023 Tiens, je me demande comment GPT s'en sort pour aider à communiquer avec l'administration. Je me dis que cela pourrait être un très bon outil, si bien paramétré, pour aider ceux qui cherchent comment avoir et remplir le formulaire A38. Le tout c'est qu'il ne soit pas lui même le dit formulaire. ChatGpt, comment avoir ma prime/subvention, etc. et il te sortirais tout bien rempli. 2
Mégille Posté 4 décembre 2023 Signaler Posté 4 décembre 2023 Pas d'intentionnalité, donc pas la moindre notion de vérité. Que ça ait un sens, et pas seulement quelque chose qui y ressemble (autant que la position des étoiles a un sens aux yeux de l'astrologue), est même discutable. C'est une "chambre chinoise" façon Searle. Il y a 7 heures, BirdyNamNam a dit : mais, il le tire d'où ? Ca se contente de mettre un mot après l'autre en mettant à chaque fois le mot le plus probable en fonction des précédents, sans que ce à quoi font référence ces mots n'entrent, ni ne puissent entrer, en compte. 2
BirdyNamNam Posté 4 décembre 2023 Signaler Posté 4 décembre 2023 il y a une heure, Mégille a dit : Pas d'intentionnalité, donc pas la moindre notion de vérité. Que ça ait un sens, et pas seulement quelque chose qui y ressemble (autant que la position des étoiles a un sens aux yeux de l'astrologue), est même discutable. C'est une "chambre chinoise" façon Searle. Ca se contente de mettre un mot après l'autre en mettant à chaque fois le mot le plus probable en fonction des précédents, sans que ce à quoi font référence ces mots n'entrent, ni ne puissent entrer, en compte. Mais, je trouve ca dingue, dans la mesure où ca devient n'importe quoi. Comment peuvent ils laisser faire ca ?
Rincevent Posté 4 décembre 2023 Signaler Posté 4 décembre 2023 il y a une heure, Mégille a dit : Ca se contente de mettre un mot après l'autre en mettant à chaque fois le mot le plus probable en fonction des précédents, sans que ce à quoi font référence ces mots n'entrent, ni ne puissent entrer, en compte. C'est simplement une version (très, très) étendue de cette bonne vieille saisie prédictive que l'on trouve sur les smartphones (elle-même issue de son ancêtre le T9), basée sur le corpus de messages envoyés. Il y a une bonne dizaine d'années, je m'amusais déjà avec un certain Grand Ancien d'ici à appuyer autant de fois que nécessaire sur le prochain mot proposé (ou toujours le même, si le systéme en propose trois en parallèle) jusqu'à aboutir à une boucle. C'est très, très révélateur du genre de conversations qu'on a réellement avec ses interlocuteurs. Edit : en fait, la saisie prédictive est une sorte de test du miroir moderne, et le fait que les gens ne s'y reconnaissent pas est très révélateur. De même, que les gens ne voient pas en ChatGPT l'image du midwit de base des Interwebs et soient impressionnés par son "intelligence" est tout aussi révélateur.
Lancelot Posté 4 décembre 2023 Signaler Posté 4 décembre 2023 4 hours ago, Lexington said: Je n'ai pas la ref, tu as un lien stp ? Je n'ai pas un lien spécifique parce que c'était le grand débat à la mode il y a environ un an (le temps passe trop vite pour mon "quelques mois"), avec les artistes qui se plaignaient de plagiat, les boycotts, l'idée que ça ne pouvait pas être une nouvelle image qui était créée. Je pense qu'il doit y avoir l'écume de tout ça dans le thread sur DALL-E. Ce qui m'amuse c'est que dans le cas des images, les gens se plaignent que l'IA n'est pas vraiment créative alors ça doit être du plagiat, tandis que dans le cas du texte les gens se plaignent parce que l'IA invente trop alors qu'on s'attend à ce qu'elle régurgite des faits comme Google. L'excès de méfiance dans un cas et de confiance dans l'autre viennent tous les deux du fait que c'est difficile de concevoir l'IA comme créant quelque chose de nouveau. 1 hour ago, Mégille said: C'est une "chambre chinoise" façon Searle. Oui. 1
Calembredaine Posté 4 décembre 2023 Signaler Posté 4 décembre 2023 Pour changer de sujet, il y a eu un bond prodigieux passé sous silence fait par GPT 4. C'est sa faculté à aller chercher des données sur le Net. Il y a encore quelques jours, il fallait lui donner un lien qu'il allait scruter. Ça, tout le monde en a parlé. Mais maintenant, il suffit de lui demander de nous parler de telle ou telle chose très récente, il va chercher les (bonnes) infos sur le net et peut les présenter sous la forme que l'on veut. C'est très impressionnant et formidablement utile. Sinon ben j'attends ce que tout le monde attend: pouvoir fournir à GPT toutes les données de mon entreprise (un accès à) afin de pouvoir lui poser n'importe quelle question sur la situation de la boite. Tout le monde en parle, certains prétendent l'avoir testé. J'ai hâte 🙂 1
Philiber Té Posté 4 décembre 2023 Signaler Posté 4 décembre 2023 Il y a 12 heures, Lexington a dit : Je ne reviens toujours pas de la capacité de Chat GPT à raconter n'importe quoi, en inventant complètement même des livres 4 des 5 ouvrages n'existent tout simplement pas. On s'inquiétait un peu de ce que ça allait donner pour certains examens, dossiers, etc., mais il y a parfois tellement d'indices qu'un texte a été rédigé par une IA... et des étudiants qui bafouillent quand on leur demande si un auteur a été ressuscité pour sortir un nouveau livre 10 ans après sa mort ! 3
Daumantas Posté 4 décembre 2023 Signaler Posté 4 décembre 2023 il y a une heure, Philiber Té a dit : On s'inquiétait un peu de ce que ça allait donner pour certains examens, dossiers, etc., mais il y a parfois tellement d'indices qu'un texte a été rédigé par une IA... et des étudiants qui bafouillent quand on leur demande si un auteur a été ressuscité pour sortir un nouveau livre 10 ans après sa mort ! Tout à fait, d'ailleurs quand on commence à utiliser pas mal GPT-4 on reconnaît très vite un texte généré (répétition de mots de liaison, beaucoup de "cependant" "mais", un côté précautionneux à outrance à mettre de la nuance même lorsqu'on demande quelque chose de très concret, par exemple sur des questions du type "Les légumes sont-ils bons pour la santé" on obtiendra quelque chose du type "Oui, consensus scientifique bla bla... Cependant un excès de légumes peut être néfaste bla bla"). Pour paraphraser @Rincevent un semi-habile très très caricatural.
Astral Posté 4 décembre 2023 Signaler Posté 4 décembre 2023 Les parties d’échec jouée avec chat GPT sont très drôle dans le genre. Je n'utilise pas du tout ces IA, et c'est peut être un tord, mais cela me fait quand même penser que les travaux de vérification sont très important lorsque l'on utilise ces outils.
Marlenus Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 12 hours ago, Calembredaine said: Mais maintenant, il suffit de lui demander de nous parler de telle ou telle chose très récente, il va chercher les (bonnes) infos sur le net et peut les présenter sous la forme que l'on veut. C'est très impressionnant et formidablement utile. Les "bonnes" infos? Il va chercher les infos en dehors des MSM? Ok mais où?
cedric.org Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 13 hours ago, Calembredaine said: Pour changer de sujet, il y a eu un bond prodigieux passé sous silence fait par GPT 4. C'est sa faculté à aller chercher des données sur le Net. Il y a encore quelques jours, il fallait lui donner un lien qu'il allait scruter. Ça, tout le monde en a parlé. Mais maintenant, il suffit de lui demander de nous parler de telle ou telle chose très récente, il va chercher les (bonnes) infos sur le net et peut les présenter sous la forme que l'on veut. C'est très impressionnant et formidablement utile. Sinon ben j'attends ce que tout le monde attend: pouvoir fournir à GPT toutes les données de mon entreprise (un accès à) afin de pouvoir lui poser n'importe quelle question sur la situation de la boite. Tout le monde en parle, certains prétendent l'avoir testé. J'ai hâte 🙂 Je le fais sur notion. C'est pas mal mais pas encore assez précis pour être plus utile que le moteur de recherche (beaucoup d'hallucination). 1
Prouic Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 il y a 2 minutes, cedric.org a dit : Sinon ben j'attends ce que tout le monde attend: pouvoir fournir à GPT toutes les données de mon entreprise (un accès à) afin de pouvoir lui poser n'importe quelle question sur la situation de la boite. Tout le monde en parle, certains prétendent l'avoir testé. J'ai hâte 🙂 Es-tu sûr d'être en capacité de traiter la résultante de TOUTES les infos de ton entreprise ? Si c'est le cas pour toi, pense à ... ne pas le donner aux autres.
Lexington Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Il y a 11 heures, Philiber Té a dit : On s'inquiétait un peu de ce que ça allait donner pour certains examens, dossiers, etc., mais il y a parfois tellement d'indices qu'un texte a été rédigé par une IA... et des étudiants qui bafouillent quand on leur demande si un auteur a été ressuscité pour sortir un nouveau livre 10 ans après sa mort ! Assurément. Exemple tristement caricatural sur WL. Des pavés uniformes, se finissant tous par un "en conclusion" ou "en résumé", avec le "il est important de noter" et "il convient de noter". Citation et des étudiants qui bafouillent quand on leur demande si un auteur a été ressuscité pour sortir un nouveau livre 10 ans après sa mort ! Ca me rappelle un jury d'entrainement pour élèves boursiers auquel je participe chaque année. J'avais une candidate qui avait littéralement répondu 3 mots à chaque question du questionnaire de quelques questions qui est là pour permettre d'alimenter l'entretien si besoin. Sauf à la dernière question, avec 5 phrases. Louche. Évidemment tu prends un malin plaisir à la faire parler expressément sur cette question et "sa" réponse. Avec un un blanc gêné, alors qu'elle ne se souvient même pas de ce qu' "elle" a écrit et se noie dans sa réponse.
cedric.org Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Les donnees clients font déjà appel à des modèles à l'état de l'art hébergé chez nous. La knowledge base pour faire ces modèles... Est dans notion. 1 1
Lexington Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Il y a 13 heures, Calembredaine a dit : Sinon ben j'attends ce que tout le monde attend: pouvoir fournir à GPT toutes les données de mon entreprise (un accès à) afin de pouvoir lui poser n'importe quelle question sur la situation de la boite. Tout le monde en parle, certains prétendent l'avoir testé. J'ai hâte 🙂 Il n'y a pas déjà plein de solutions qui existent ? On avait un robot conversationnel (certes peu évolué) qui faisait ça il y a des années déjà, en répondant sur Slack aux questions et en se branchant à de nombreuses bases (Jira/base de connaissance interne/salesforce, Tableau, etc.)
Calembredaine Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 il y a une heure, Marlenus a dit : Les "bonnes" infos? Il va chercher les infos en dehors des MSM? Ok mais où? Je n'en ai pas la moindre idée. Le fait est que les infos sont toujours judicieusement choisies.
Calembredaine Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 il y a 13 minutes, Lexington a dit : Il n'y a pas déjà plein de solutions qui existent ? Avec la puissance de GPT? Je n'ai pas l'impression que cela existe. D'ailleurs, si cela existait il n'y aurait aucune attente particulière.
Marlenus Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 3 minutes ago, Calembredaine said: Je n'en ai pas la moindre idée. Le fait est que les infos sont toujours judicieusement choisies. Il te dit quoi si tu lui demandes si il faut vacciner ton enfant contre le COVID?
Lancelot Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Les copies d'étudiants c'est compliqué je trouve (enfin dans mon expérience en anglais) parce qu'il y a toujours le doute : est-ce que c'est simplement quelqu'un de particulièrement mauvais ? Imaginez le degré d'insulte si en tant qu'étudiant tu fais de ton mieux, et le correcteur te prend pour un bot. 1
Sloonz Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 19 hours ago, Mégille said: pas la moindre notion de vérité Si c'était vrai, https://arxiv.org/abs/2309.15840 serait impossible 18 hours ago, BirdyNamNam said: Comment peuvent ils laisser faire ca ? Personne ne sait comment l’en empếcher, tout simplement. Je soupçonne très fortement qu’une très grosse partie du problème c’est qu’une bonne partie de l’entraînement de ChatGPT c’est la partie RLHF où des humains donnent "pouce vert" et "pouce rouge" aux réponses données par l’IA, et que beaucoup d’humain sont incapables de remarquer quand ils se font bullshiter et mettent pouce vert sur du bullshit plausible, ce qui renforce le problème. Moi-même je dois avouer qu’il m’est arrivé d’avoir "pouce vert" en première lecture rapide pour me rendre compte 10 sec de réflexion plus tard "ha oui mais en fait non". 19 hours ago, Mégille said: C'est une "chambre chinoise" façon Searle. Agiter tel un hochet le concept de la chambre chinoise c’est vraiment la mort de l’intellect, il faut arrêter avec ça. Faudra pas s’étonner ensuite que personne ne respecte les philosophes. Ça et les p-zombies, ce sont les deux exemples les plus éclairants de l’état plus que déplorable de la philosophie. 19 hours ago, Mégille said: Ca se contente de mettre un mot après l'autre en mettant à chaque fois le mot le plus probable en fonction des précédents Excuse moi d’être taquin, mais le fait que tu écrives "ça se contente" suivi de "le mot de plus probable en fonction des précédents" montre que tu es une chambre chinoise qui ne comprend pas grand chose à ce qu’il écrit. Tu devrais être ébahi/terrifié (selon ton inclinaison) d’une machine réellement, effectivement capable de très précisément évaluer cette probabilité. Ce que ça signifie exactement d’avoir une telle capacité. 18 hours ago, Rincevent said: est simplement une version (très, très) étendue de cette bonne vieille saisie prédictive que l'on trouve sur les smartphones (elle-même issue de son ancêtre le T9), basée sur le corpus de messages envoyés "Un avion c’est juste une voiture qui roule très vite et qui a des ailes"
Calembredaine Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Il y a 4 heures, Marlenus a dit : Il te dit quoi si tu lui demandes si il faut vacciner ton enfant contre le COVID? Il donne des généralités, sans même aller sur le web. Je crois que tu surestimes ou que tu te trompes sur ce qu'est l'intelligence artificielle, ou du moins celle de GPT4. En revanche quand je lui demande d'écrire un article sur la voiture électrique MG4, il fouille le web et pond un article impeccable.
Rincevent Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 il y a 15 minutes, Sloonz a dit : "Un avion c’est juste une voiture qui roule très vite et qui a des ailes" Bien sûr que non. La voiture fonctionne en tirant la route derrière elle, ce qui suppose un contact aussi contant que possible avec la route. L'avion fonctionne en pompant l'air de devant en en le rejetant derrière (souvent de manière améliorée) afin que les ailes génèrent une portance. Une voiture a besoin de la route, un avion a besoin de l'air, c'est assez massivement différent pour ne pas permettre de caricaturer ma position sur ChatGPT.
Lancelot Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Ceci étant j'aimerais qu'ils se dépêchent de passer à la prochaine version, parce que "j'ai pété fort" ça va deux minutes.
Philiber Té Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Il y a 3 heures, Lancelot a dit : Les copies d'étudiants c'est compliqué je trouve (enfin dans mon expérience en anglais) parce qu'il y a toujours le doute : est-ce que c'est simplement quelqu'un de particulièrement mauvais ? Imaginez le degré d'insulte si en tant qu'étudiant tu fais de ton mieux, et le correcteur te prend pour un bot. J'admets que pour l'anglais, je pourrais me laisser piéger par la forme, à force de bouffer des articles au style de plus en plus expéditif. Alors qu'en français, comme le notent @Daumantaset @Lexington, il y a des formulations, un rythme, une mécanique, etc. qui trahissent trop souvent l'IA. D'autant que les étudiants ne se contentent pas de piocher deux ou trois phrases sur chatGPT mais copie-colle des paragraphes complets. Un étudiant qui est nul, qui n'a pas compris un cours, te balance un résultat en espérant que ça passe avec de la chance. L'IA te sort des trucs impossibles et enrobe tout ça de termes et de formules tirés au pif dans le champ lexical de ta question. Des exemples récurrents : - la démonstration d'un phénomène en invoquant une loi ou une formule physique, mais en ajoutant des termes à l'équation. Les calculs sont bons, les unités généralement correctes, sauf que ça mélange choux et carottes... - les digressions un peu hors-sujet ou très anecdotiques : ça parle de chaleur interne du globe, ça te glisse une phrase sur l'importance économique de la géothermie en Islande. - les grands noms ou les précurseurs dans un domaine scientifique qui se voient attribuer des découvertes récentes (et posthumes...) - les copier-coller de 4ème de couverture, manque de pot ça ressort très vite sur Google ! Personnellement, je veux une IA à qui je confie ma biblio et qui peut répondre à des requêtes du genre "je me souviens d'un graphique bleu et rouge...". J'ai des tonnes de notes de lecture, donc DocFetcher, etc. font déjà très bien le boulot. Mais quand ce sont des souvenirs trop vagues ou "visuels", ça coince.
Rincevent Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 Il y a 6 heures, Philiber Té a dit : - les digressions un peu hors-sujet ou très anecdotiques : ça parle de chaleur interne du globe, ça te glisse une phrase sur l'importance économique de la géothermie en Islande. Ça ressemble beaucoup à la manière dont Asselineau ou Aberkane impressionnent leurs auditoires respectifs. Ce qu'ils disent sur le fond n'est souvent pas faux (ça ne veut pas dire pour autant que ça soit juste), mais autant j'aime les incises et les précisions qui viennent enrichir le propos, autant les détours délibérés qui montrent juste que tu t'es documenté davantage que le minimum mais qui n'apportent absolument rien à ton propos, ni à son fond, ni à sa forme, et qui n'aide même pas à le recontextualiser, ces détours donc finissent par être insupportables. Et à ce petit jeu, Asselineau est quand même meilleur qu'Aberkane, puisque j'arrive parfois à écouter le premier sans avoir trop de pulsions d'étranglement ni l'impression d'être un examinateur du Grand Oral de Sciences-Pipeau face à un élève atteint d'un complexe d'infériorité massif qu'il cherche à surcompenser à tout prix. 3
Philiber Té Posté 5 décembre 2023 Signaler Posté 5 décembre 2023 il y a 2 minutes, Rincevent a dit : Ça ressemble beaucoup à la manière dont Asselineau ou Aberkane impressionnent leurs auditoires respectifs. Ce qu'ils disent sur le fond n'est souvent pas faux (ça ne veut pas dire pour autant que ça soit juste), mais autant j'aime les incises et les précisions qui viennent enrichir le propos, autant les détours délibérés qui montrent juste que tu t'es documenté davantage que le minimum mais qui n'apportent absolument rien à ton propos, ni à son fond, ni à sa forme, et qui n'aide même pas à le recontextualiser, ces détours donc finissent par être insupportables. Et à ce petit jeu, Asselineau est quand même meilleur qu'Aberkane, puisque j'arrive parfois à écouter le premier sans avoir trop de pulsions d'étrangement ni l'impression d'être un examinateur du Grand Oral de Sciences-Pipeau face à un élève atteint d'un complexe d'infériorité massif qu'il cherche à compenser à tout prix. Oui, j'imagine que c'est un procédé rhétorique courant, même si cela fait bien longtemps que je n'ai pas écouté ces pipeauteurs et leurs délires complotistes. Un truc vague, un énorme raccourci ou une généralisation abusive, etc. camouflés derrière une anecdote incongrue, qui fait sérieuse et sourcée. A l'oral, la diversion est efficace, tu es pris dans le flot du discours et c'est même une mécanique assez classique pour apporter du rythme dans un exposé. Mais à l'écrit, tu es généralement plus concentré, tu reviens deux phrases en arrière et l'auteur est démasqué ! Probablement que l'IA s'inspire de cette mécanique sans arrière-pensée, mais si t'as pas la tchatche ou le charisme d'un conférencier, c'est vite douteux...
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant