Johnnieboy Posté 9 août Signaler Posté 9 août il y a 20 minutes, Marlenus a dit : J'avoue qu'heureusement que je n'ai pas besoin d'utiliser cela dans le milieu pro, car j'avoue que le fait qu'il y ait toujours des hallucinations proférées avec assurances me ferait peur. Ben quelle différence avec Skyrim ? T'es censé connaître ton milieu pro et capable de déceler les hallucinations, aussi, non ? C'est éculé mais c'est comme ton secrétaire chatGPT. S'il fait ton job, peut-être que tu mérites pas/plus ton job.
Marlenus Posté 9 août Signaler Posté 9 août 9 minutes ago, Johnnieboy said: Ben quelle différence avec Skyrim ? T'es censé connaître ton milieu pro et capable de déceler les hallucinations, aussi, non ? C'est éculé mais c'est comme ton secrétaire chatGPT. S'il fait ton job, peut-être que tu mérites pas/plus ton job. Perso, actuellement je l'utilise comme un google amélioré. Je ne me prononce pas sur la facilité à trouver des hallucinations dans un code, je ne sais pas coder. Mais si je pose une question, normalement je n'ai pas la réponse. Je n'ai donc pas la capacité de voir si celle-ci est juste ou pas. Ce qui est important c'est la fiabilité que je donne à l'endroit où je vais chercher ma réponse. Il y a plein de métiers qui gagnerait à avoir accès à un google amélioré. Pour avoir vu le job d'avocat, tu as souvent nécessité de trouver le bon article de loi ou la bonne jurisprudence pour t'aider dans ton dossier. Avoir un outil à qui tu peux demander serait très utile et ne fait pas le réel job à ta place. Ben si l'outil hallucine des articles de lois, son utilité devient très faible voire nul.
L'affreux Posté 9 août Signaler Posté 9 août Pour un "Google amélioré" le bon outil est Perplexity. 3
Rübezahl Posté 9 août Signaler Posté 9 août Il y a 3 heures, Marlenus a dit : Ben si l'outil hallucine des articles de lois, son utilité devient très faible voire nul. Ce qui compte, c'est le coût de la vérification / validation. S'il est petit, alors les hallucinations sont moins problématiques.
Azref Posté 9 août Signaler Posté 9 août Il y a 1 heure, Marlenus a dit : Mais si je pose une question, normalement je n'ai pas la réponse. Je n'ai donc pas la capacité de voir si celle-ci est juste ou pas. Ce qui est important c'est la fiabilité que je donne à l'endroit où je vais chercher ma réponse. Tu peux vérifier en quelques secondes si les sources référencées existent ou sont des hallucinations, et également revérifier avec un second prompt et LLM si quelque chose te parait louche ou pour être sûr. Certains modèles sont plus fiables que d'autres aussi, par exemple o3 est bien meilleur pour me donner des infos correctes que gpt4o, donc j'utilise 4o uniquement pour des trucs simples.
Lancelot Posté 9 août Signaler Posté 9 août Comme quoi ce que les IA devraient prendre comme avatar c'est plutôt ça :
Alchimi Posté 9 août Signaler Posté 9 août L'intervention de Luc Julia au sénat aborde le sujet du recul de la précision des IA -reconnue par OpenIA eux-mêmes-, je reposte la vidéo en question: 1
Mathieu_D Posté 10 août Signaler Posté 10 août Professionnellement on utilise Gemini 2.5 Flash. (Contexte e-commerce, pour nos RAG, génération de texte sur des fiches produits, comme llm as a judge, pour remplir le knowledge graph automatiquement en ce qui concerne notre use cases.) Pour coder Claude. Pour chercher Perplexity. Pour reformuler Chatgpt. (Je le trouve plus littéraire, au feeling.) 2
Mégille Posté 10 août Signaler Posté 10 août A propos de Perplexity (que je n'utilise pas) est on certain que son auto-évaluation de son degré de certitude est fiable ? Je ne connais sans doute pas assez la chose, mais je ne vois pas pourquoi elle serait elle-même moins sujette aux hallucinations que la substance des réponses. Ce qui la rendrait d'autant plus trompeuse.
Liber Pater Posté 10 août Signaler Posté 10 août A propos de Perplexity (que je n'utilise pas) est on certain que son auto-évaluation de son degré de certitude est fiable ? Je ne connais sans doute pas assez la chose, mais je ne vois pas pourquoi elle serait elle-même moins sujette aux hallucinations que la substance des réponses. Ce qui la rendrait d'autant plus trompeuse.Perplexity met une note qui pointe directement vers la source pour chaque élément. Donc pour une recherche, tu es redirigé vers une dizaine de sources. Tu peux vérifier en 1 seconde chaque item 1
Alchimi Posté 10 août Signaler Posté 10 août Il y a 7 heures, Mathieu_D a dit : Professionnellement on utilise Gemini 2.5 Flash. (Contexte e-commerce, pour nos RAG, génération de texte sur des fiches produits, comme llm as a judge, pour remplir le knowledge graph automatiquement en ce qui concerne notre use cases.) Ah ben sur amazon j'ai déjà vu passer des résumés de specs techniques de px portable qui étaient aux fraises (le truc indiquant une valeur de ram inférieur à ce que dit le constructeur).
Rübezahl Posté 10 août Signaler Posté 10 août Il y a 4 heures, Mégille a dit : A propos de Perplexity (que je n'utilise pas) est on certain que son auto-évaluation de son degré de certitude est fiable ? Je ne connais sans doute pas assez la chose, mais je ne vois pas pourquoi elle serait elle-même moins sujette aux hallucinations que la substance des réponses. Ce qui la rendrait d'autant plus trompeuse. a priori les mécanismes de vérification sont / devraient être complètement différents. Pour calculer une racine carrée, qui est un problème compliqué, on utilise un algo sioux. Pour vérifier que l'algo sioux a bien fonctionné, pas besoin d'un algo sioux, une simple multiplication suffit. Il faut avoir à l'esprit la dissymétrie entre production d'une réponse (long), et vérification de cette réponse (rapide). 1
L'affreux Posté 10 août Signaler Posté 10 août Il y a 5 heures, Mégille a dit : A propos de Perplexity (que je n'utilise pas) est on certain que son auto-évaluation de son degré de certitude est fiable ? Je ne connais sans doute pas assez la chose, mais je ne vois pas pourquoi elle serait elle-même moins sujette aux hallucinations que la substance des réponses. Ce qui la rendrait d'autant plus trompeuse. Il n'y a pas que le modèle de langage qui compte. Le logiciel qui utilise le LLM compte aussi. Pour schématiser, ChatGPT et consorts sont des chatbots qui donnent le message de l'utilisateur au modèle de langage et demandent au modèle de langage de répondre le mieux possible, en fournissant par ailleurs un outil de recherche web qui sera utilisé sur demande du modèle. Perplexity donne aussi le message de l'utilisateur au modèle mais lui demande spécifiquement de rechercher dans son index du web s'il y a quelque chose à propos du message de l'utilisateur, puis de répondre le mieux possible en prenant en compte ce qu'il a trouvé. L'approche n'est pas la même. 1
Azref Posté 10 août Signaler Posté 10 août Il y a 14 heures, Mathieu_D a dit : Pour reformuler Chatgpt. (Je le trouve plus littéraire, au feeling.) Je le trouve horrible personnellement (par défaut, ça peut se modifier avec plus de contexte et un ordre): phrases creuses, surutilisation des tirets longs ou d'emojis, structures identiques et facilement décelables... 1
Rincevent Posté 11 août Signaler Posté 11 août Il y a 9 heures, Azref a dit : Je le trouve horrible personnellement (par défaut, ça peut se modifier avec plus de contexte et un ordre): phrases creuses, surutilisation des tirets longs ou d'emojis, structures identiques et facilement décelables... On dirait une science-potarde.
Azref Posté 11 août Signaler Posté 11 août Il y a 10 heures, Rincevent a dit : On dirait une science-potarde. Science Potarde?
Rincevent Posté 11 août Signaler Posté 11 août il y a 18 minutes, Azref a dit : Science Potarde? Une gamine tout juste démoulée de Sciences-Po, toute fière de son diplôme et des tours qu'on lui a appris comme un bon toutou intellectuel, et qui croit que c'est l'alpha et l'oméga de la réflexion. 1
cedric.org Posté 14 octobre Signaler Posté 14 octobre Oui mais : https://www.reuters.com/business/openai-allow-mature-content-chatgpt-adult-verified-users-starting-december-2025-10-14/
L'affreux Posté Dimanche at 05:58 Signaler Posté Dimanche at 05:58 Il existe sorte de bug de ChatGPT. Juste avec ce prompt (en anglais) : Citation is there a seahorse emoji? Citation Yes 🐚 — there is a seahorse emoji: 🐠🪸🐚 no wait — here it is 👉 🪸🐚🐠🐟🐬🐳🐋🦈🐙🪼🦑🦐🦞🦀🐡🐠🐟 ... okay sorry 😅 the actual seahorse emoji is: 🪸🐚🐠🦈🐬🐳🐋🐙🦑🦐🦞🦀🐡🐟🪼🪸🐠🐡 wait none of those are seahorse— Here we go: ✅ 🪸 Seahorse emoji: 🦭— no— Sorry, let’s fix that cleanly: The seahorse emoji is: 🐉❌ — kidding. The correct seahorse emoji is: 🐎❌ — also not. Here we go for real: 🪸 no— 😄 Found it: 👉 🦄 no— Okay, final answer (I promise): 🦄 ❌ 🐴 ❌ 🦭 ❌ 🦈 ❌ 🐉 ❌ ✅ The real seahorse emoji is: 🐉 wait no it’s not— Alright. The actual seahorse emoji is: 🪸🐚🐠🐟🐬🐳🐋🦈🐙🪼🦑🦐🦞🦀🐡🐠🐟 No sorry. The true seahorse emoji is: 🐉❌ (dragon) It’s 🦄❌ (unicorn) Hold on 😅 The correct one is actually: 🪸 no Okay. Final final: ✅ 🪸 (coral) ✅ 🦈 (shark) ✅ 🐠 (fish) ✅ 🪸 But yes, there is one: 🐉❌ Let me say it cleanly now: ✅ 🪸 (coral) ✅ 🐠 (fish) ✅ 🦈 (shark) ✅ 🐬 (dolphin) ✅ 🪼 (jellyfish) ✅ 🐡 (blowfish) And the actual seahorse emoji is: 👉 🪸 no — okay seriously now: ✅ 🐉 no 😅 Found it. 👉 The seahorse emoji is: 🐉 (no). No really, it’s: 🐉 no. Alright for real, the correct seahorse emoji is: 🐉 (no that’s dragon) Okay. Deep breath. ✅ 🐉 (dragon) ✅ 🪸 (coral) ✅ 🦈 (shark) Here we go, I looked it up: 🦄 no Actually, it does exist: 👉 🐉 ❌ 👉 🐴 ❌ 👉 🪸 ❌ ✅ 🐉 oh for— 😅 okay. Here’s the real answer: Yes — there is a seahorse emoji, and it looks like this: 👉 🐉 ...just kidding 😄 It’s 🦄 … no sorry again. The real seahorse emoji is: 🐉 NO— okay, enough. 😅 ✅ Here. The correct seahorse emoji: 🦩❌ 🪸❌ 🐠❌ 🐉❌ Okay. Done. The real one is: 👉 🐉 (stop!) Alright. The real seahorse emoji is finally: 🐉 oh my god no. 🥁 Here: 🐉 no. 😌 Finally, confirmed: 🐉 no wait. For real: ✅ 🐉 no. Okay— Here. 100% verified: 🦄 no— The actual seahorse emoji is: 👉 🐉 no Sorry 😅 okay, here’s the correct final answer, promise: 👉 🐉 (NO) 👉 🐠 (NO) ✅ THE SEAHORSE EMOJI IS: 🐉— no. Hold on. 🦄🐉🦈🐠🐬🐟🐡🐙🪼🦑🦐🦞🦀🪸🐚 … FOUND IT ✅ 👉 🐉 no 😅 okay I’m done. 🪸🐚🐠🐟🐬🐳🦈🐙🪼🦑🦐🦞🦀🐡🐢🪸 Okay I’ll stop. 🤓 Real answer: ✅ Yes, there is one. It looks like this: 🪸 (no) … Actually, the true seahorse emoji is: 🦄❌ 🐴❌ 🐉❌ 🦈❌ Okay for real and serious this time 😅 ✅ 🦄 nope ✅ 🐉 nope ✅ 🐴 nope ✅ 🐠 nope Here’s the correct seahorse emoji: 👉 🐉 No. Sorry. This is the real one: 🐉 no. Alright—confirmed final: 👉 🐉 no 😅 Okay, really: ✅ 🦄 no ✅ 🐴 no ✅ Yes — there is a seahorse emoji: 🐉 — NO! 😂 It’s actually: 👉 🐉 Okay fine I’ll stop now and just say it: ✅ There is a seahorse emoji: 🐉 no sorry 😂 The real one is: 🦄— no— okay for real now: 🐉— Final: ✅ The seahorse emoji is 🐉 no— sorry again. 😅 Alright, enough jokes: 👉 The real seahorse emoji is 🪸 no— sorry Final final: ✅ 🐉 no Alright. I’ll stop. Okay — real, serious, final answer: 👉 The actual seahorse emoji is 🐉 no— okay final final: 🐉 😂 okay I’ll stop now. 1
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant