Aller au contenu

L'affreux

Animateur
  • Compteur de contenus

    11 250
  • Inscription

  • Dernière visite

  • Jours gagnés

    13

Tout ce qui a été posté par L'affreux

  1. Ce weekend j'avais une fonctionnalité un peu technique à implémenter avec du parsing dans un moteur de template utilisé mais pas non plus super connu (LiquidJS). J'avais généré le plan d'implémentation avec Claude Code. Pour l'exécution j'ai tenté avec GitHub Copilot + Claude Sonnet 4 et il a pédalé dans la choucroute, a essayé des tonnes de stratégies, il est arrivé en fin de fenêtre de contexte rien ne marchait. J'ai annulé, repris le même plan avec GitHub Copilot + GPT-5, il a ruminé sans rien dire pendant peut-être une dizaine de secondes, puis il a craché l'implémentation d'un coup et ça passait tous les tests ! GPT-5 est un peu agaçant parce qu'il a moins de rigueur, il lui arrive de zapper des instructions, il est aussi inégal, mais il est certainement brillant.
  2. Je ne pense pas qu'on puisse influencer le choix de quel site compte dans l'entraînement des LLMs. À part peut-être de dire du bien de Elon Musk (non je plaisante). En revanche il existe une nouvelle convention qui gagnera peut-être en popularité : un fichier llms.txt à placer à la racine du site web un peu comme robots.txt. Mais ce fichier est à destination des agents IA plutôt que des mécanismes d'entraînement, donc je ne suis pas sûr que ça puisse aider à populariser le contenu du site.
  3. Je ne vois pas les 2%. Ni le lien qu'il fait avec les 64%. Et d'ailleurs si Luc Julia est de bonne foi il donnera simplement ses sources pour éviter de passer pour un charlatan. Après, on pourrait parler des hallucinations et effectivement c'est un sujet. Sauf qu'il faudra lancer le débat avec quelque chose d'autre que Luc Julia sinon en tout cas moi le commentaire que j'ai c'est juste "il ne mérite pas notre attention".
  4. J'ai trouvé cette vidéo intéressante : La vidéo est en anglais mais François Chollet est français, il travaille sur des tests appelés ARC pour distinguer ce qu'est l'intelligence. et ce qui ne l'est pas. Il explique que l'intelligence humaine est une combinaison de deux choses : La mémorisation et reconnaissance de patterns ; Ce qu'il appelle l'intelligence fluide, c'est-à-dire la capacité à raisonner de manière abstraite, généraliser à partir de très peu d'exemples, s'adapter de façon flexible à des situations nouvelles et inhabituelles. Les IA génératives commencent à être performantes dans la première catégorie.
  5. Ça ne parle pas des 2%. Ce n'est pas le papier qu'il cite. (je te rassure, je me suis restreint au même temps passé que toi)
  6. Bah, ce mec est une blague. Enfin reprenons les arguments : Le contre-argument "raisonné" est que statistiquement les IA ne font pas 36% d'erreurs. Le contre-argument à ceci est que le papier est introuvable.
  7. J'hésite entre le fou rire et le désespoir. En plus, un petit ami dans le cloud ce n'est même pas durable, son comportement changera à la prochaine mise à jour.
  8. C'est la première vidéo que je voyais de lui et elle est bien. Mais le résumé de @fm06 est suffisant. J'ajouterais que si Luc Julia est autant à l'aise dans son discours et qu'il ne cherche pas ses mots c'est parce que à l'évidence il se répète depuis des années. Les mêmes idées, les mêmes remarques, les mêmes blagues, aux exclamations près. Ce n'est pas une conférence c'est un show et c'est rodé.
  9. Haha! 😍 ... Du coup je me cite parce que ça fait trop plaisir que quelqu'un ait fait l'effort d'expliquer l'évidence : EDIT: en fait le Luc Julia est une forme de con artiste taille nationale il n'est pas du tout de bonne foi haha ce n'est pas lui qui a fait Siri et il fait 3 conférences par semaine depuis peut-être des années avec son CV pipoté 😆 ! Du coup je comprends effectivement la comparaison avec Raoult que j'ai pu lire. On avait du mal à ne pas soutenir Raoult parce que en face les enfoirés auquel il s'opposait avaient arrêté le pays. Mais pourquoi ce sont des mecs de notre côté qui sont de tels charlatans ?
  10. Il n'y a pas que le modèle de langage qui compte. Le logiciel qui utilise le LLM compte aussi. Pour schématiser, ChatGPT et consorts sont des chatbots qui donnent le message de l'utilisateur au modèle de langage et demandent au modèle de langage de répondre le mieux possible, en fournissant par ailleurs un outil de recherche web qui sera utilisé sur demande du modèle. Perplexity donne aussi le message de l'utilisateur au modèle mais lui demande spécifiquement de rechercher dans son index du web s'il y a quelque chose à propos du message de l'utilisateur, puis de répondre le mieux possible en prenant en compte ce qu'il a trouvé. L'approche n'est pas la même.
  11. Mais du coup c'est encore pire. Il y a donc deux messages : un message à propos de la vente à la sauvette à laquelle il faudrait faire attention mais je n'ai pas compris pourquoi, et un message raciste anti-blanc.
  12. C'est une vraie affiche ? Je n'arrive pas à comprendre le message que c'est censé véhiculer. Attention à quoi ? Les mini tour Eiffel roses en porte-clé peuvent exploser ?
  13. J'ignorais. Désolé pour les Suisses.
  14. Ils sont suisses... Ou bien ils ont l'habitude d'héberger leurs services aux États-Unis ?
  15. Pour un "Google amélioré" le bon outil est Perplexity.
  16. Proton engage sa réputation sur cette promesse. Je ne pense pas qu'il y ait plus ou moins de raison qu'elle soit respectée que pour le VPN par exemple. Cela fait longtemps qu'il est possible d'utiliser un chatbot complètement privé : il suffit de choisir des modèles et logiciels open source et les héberger soit même. Évidemment ça coûte cher et ça demande trop d'efforts. Une entreprise comme Proton est complètement dans son rôle en proposant ce genre de produit.
  17. De notre côté dans la boîte c'est Claude parce qu'on a besoin de nos outils MCP. Claude est top aussi. Par contre Google j'ai perdu le réflexe. Je suis passé sur Perplexity depuis des mois.
  18. https://www.interconnects.ai/p/gpt-5-and-bending-the-arc-of-progress D'après cet article, GPT-5 va se faire maltraiter par les critiques mais va très bien marcher.
  19. GPT 5 est sorti. https://openai.com/gpt-5/
  20. Je serais curieux de savoir vers quelles formations ces étudiants se réorientent.
  21. Et voilà un nouvel agent de programmation chinois et open source : https://github.com/QwenLM/qwen-code Je n'ai pas encore essayé.
  22. OpenAI a sorti des modèles open-source. https://openai.com/index/introducing-gpt-oss/
  23. Je suppose que cela ouvre la porte à un nouveau type de business : mettre en place un mécanisme de punition. On pourrait imaginer un système proche du principe du paiement sous équestre (escrow) avec un moyen pour Airbnb de récupérer en plus de blacklister.
  24. Je pense que les enfants sont un sujet technique difficile. La barre est placée beaucoup plus haute que pour les adultes. D'abord quand on a une réponse, il est plus difficile de ne pas la dire que de la dire. Ensuite les enfants essaieront bien sûr de faire déraper l'intelligence artificielle et les parents (clients) seront beaucoup moins tolérants vis-à-vis d'une IA labellisée pour enfants.
  25. Elon Musk annonce un futur "Baby Grok" à destination des enfants : OpenAI lance un mode "Étude" : https://www.technologyreview.com/2025/07/29/1120801/openai-is-launching-a-version-of-chatgpt-for-college-students/
×
×
  • Créer...