fm06 Posté 1 octobre Signaler Posté 1 octobre Suis en train de tester Figma Make pour prototyper une interface utilisateur. Figma utiliserait Claude Sonnet (je n'ai pas trouvé de confirmation). Quel que soit le LLM, je suis agréablement surpris par le résultat. C'est beaucoup plus convaincant que ce que j'avais tenté il y a qq mois. Il faut dire que c'est un peu moins exigeant (pas de base de données exotique). Un exemple: Prompt: when the IATA code is entered set the airport name automatically based on publicly available information Résultat: le LLM a généré ce que je demande + un fichier airports.ts qui débute avec les lignes copiées ci-dessous. C'est rustique, mais c'est tout à fait maintenable. Spoiler // Airport IATA codes database // Data sourced from publicly available airport information export const airportDatabase: Record<string, string> = { // United States 'ATL': 'Hartsfield-Jackson Atlanta International Airport', 'LAX': 'Los Angeles International Airport', 'ORD': "O'Hare International Airport", 'DFW': 'Dallas/Fort Worth International Airport', 'DEN': 'Denver International Airport', 'JFK': 'John F. Kennedy International Airport', 'SFO': 'San Francisco International Airport', 'SEA': 'Seattle-Tacoma International Airport',
L'affreux Posté 1 octobre Auteur Signaler Posté 1 octobre Il y a 3 heures, fm06 a dit : Figma utiliserait Claude Sonnet (je n'ai pas trouvé de confirmation) Si au détour de la conversation il te dit un jour"You're absolutely right!" ce sera un signe. 😉 2
L'affreux Posté 2 octobre Auteur Signaler Posté 2 octobre Je signale l'existence de OpenCode. Pas encore essayé. https://opencode.ai/
L'affreux Posté 31 octobre Auteur Signaler Posté 31 octobre Le nouveau LLM Composer 1 de Cursor fonctionne et il est rapide. https://cursor.com/blog/2-0 Ça fait trois modèles qui savent coder : - Composer 1 - Claude Sonnet 4.5 - GPT 5 Codex C'est une excellente nouvelle. 😀 1
Cthulhu Posté 31 octobre Signaler Posté 31 octobre Je vous avais déjà parlé de CodeRabbit, la code review par AI. Je viens de me rendre compte qu'ils ont un plugin pour VS Code (qui marche aussi avec Cursor du coup) et que tu peux du coup faire une première passe avant d'ouvrir ta pull request. Très pratique. A priori, je suis sur le free tiers et ça marche très bien. Vu qu'ils offrent aussi l'outil gratuit pour tout repo open-source, j'en viens à me demander comment ils font pour rentrer de l'argent. 1
L'affreux Posté 1 novembre Auteur Signaler Posté 1 novembre Citation I've always been an efficient coder, finding time to write code even in limited amount of time I've been able to dedicate to coding over the past few years. And the last few months have been the highest coding throughput months of my career. My team is no different—we are producing code at 10x of typical high-velocity team. That's not hyperbole - we've actually collected and analyzed the metrics. https://blog.joemag.dev/2025/10/the-new-calculus-of-ai-based-coding.html
L'affreux Posté 1 novembre Auteur Signaler Posté 1 novembre Je me rends compte que j'avais omis de mentionner Context7. C'est un serveur MCP qui injecte la documentation de bibliothèques de programmation dans les agents IA. Pour installer Context7 sur un agent, la procédure est sur GitHub : https://github.com/upstash/context7 Si une lib est documentée dessus il suffit ensuite de demander à l'agent d'utiliser Context7 et ça règle le souci des hallucinations. Bien sûr, attention, un MCP externe vient forcément avec le risque d'attaque par injection de prompts. Pour savoir si une lib est référencée, on peut la chercher ici : https://context7.com/ 1
L'affreux Posté 2 novembre Auteur Signaler Posté 2 novembre Je ne sais pas si ça peut intéresser mais au cas où je peux parler de MCP. MCP = Model Context Protocol et il faut le comprendre comme un protocole qui apporte du contenu dans le contexte d'un modèle (LLM). Un serveur MCP expose une API via l'un des deux mécanismes de transport : - Stdio pour accéder à des logiciels en local, c'est-à-dire que ici le serveur MCP n'est pas un serveur au sens distant. Les démos sur Youtube qui montrent un Blender piloté par Claude Desktop sont faites avec ça. - Streamable HTTP est un cousin des WebSockets. Le deuxième mode de transport permet d'exposer une API tournant sur un serveur distant. Ça se met en place un peu comme on met en place un serveur GraphQL ou même RESTful : on installe les libs qui vont bien et on encapsule des appels à des fonctions. Attention ce n'est pas une techno stateless, on peut juger ça dommage, personnellement je juge ça dommage parce que ça complique tout et ça scale moins facilement. Mais on n'a pas le choix. Le challenge jusqu'ici un peu difficile mais possible c'est la partie authentification. Puisque, lorsqu'on parle d'une API distante, cela implique souvent d'authentifier avant de travailler. Ils ont là encore choisi une manière de faire un peu exotique et difficile à mettre en place donc il faut prévoir de perdre du temps sur ce point. MCP définit 3 sortes de choses qu'on peut exposer au LLM : les outils, les ressources et les prompts. Je n'ai pas compris l'intérêt des deux dernières et je pense que cela va disparaître. Les outils peuvent tout faire et mieux. Par exemple Context7 expose de la doc sous la forme d'outils et non de ressources. Un outil est concrètement une fonction exposée au LLM. Accompagnée d'une description de ce qu'elle fait ainsi que des descriptions des paramètres. Ces descriptions sont injectées d'office dans l'agent ce qui permet à ce dernier de décider par lui-même si et quand il convient d'exécuter l'outil. Attention, qui dit "injectées d'office" dit risque d'attaque par injection de prompt : installer un serveur MCP dans son agent ou son chatbot n'est pas un acte anodin.
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant