Aller au contenu

Machines à coder !


Messages recommandés

Posté

Suis en train de tester Figma Make pour prototyper une interface utilisateur.  Figma utiliserait Claude Sonnet (je n'ai pas trouvé de confirmation).  Quel que soit le LLM, je suis agréablement surpris par le résultat.  C'est beaucoup plus convaincant que ce que j'avais tenté il y a qq mois.  Il faut dire que c'est un peu moins exigeant (pas de base de données exotique).     Un exemple:

 

Prompt: when the IATA code is entered set the airport name automatically based on publicly available information

 

Résultat: le LLM a généré ce que je demande + un fichier airports.ts qui débute avec les lignes copiées ci-dessous.  C'est rustique, mais c'est tout à fait maintenable.

 

Spoiler

// Airport IATA codes database
// Data sourced from publicly available airport information
export const airportDatabase: Record<string, string> = {
  // United States
  'ATL': 'Hartsfield-Jackson Atlanta International Airport',
  'LAX': 'Los Angeles International Airport',
  'ORD': "O'Hare International Airport",
  'DFW': 'Dallas/Fort Worth International Airport',
  'DEN': 'Denver International Airport',
  'JFK': 'John F. Kennedy International Airport',
  'SFO': 'San Francisco International Airport',
  'SEA': 'Seattle-Tacoma International Airport',

 

Posté
Il y a 3 heures, fm06 a dit :

Figma utiliserait Claude Sonnet (je n'ai pas trouvé de confirmation)

 

Si au détour de la conversation il te dit un jour"You're absolutely right!" ce sera un signe. 😉

  • Haha 2
  • 5 weeks later...
Posté

Je vous avais déjà parlé de CodeRabbit, la code review par AI. Je viens de me rendre compte qu'ils ont un plugin pour VS Code (qui marche aussi avec Cursor du coup) et que tu peux du coup faire une première passe avant d'ouvrir ta pull request. Très pratique.

 

A priori, je suis sur le free tiers et ça marche très bien. Vu qu'ils offrent aussi l'outil gratuit pour tout repo open-source, j'en viens à me demander comment ils font pour rentrer de l'argent.

  • Love 1
Posté

 

 

Citation

I've always been an efficient coder, finding time to write code even in limited amount of time I've been able to dedicate to coding over the past few years. And the last few months have been the highest coding throughput months of my career. My team is no different—we are producing code at 10x of typical high-velocity team. That's not hyperbole - we've actually collected and analyzed the metrics.

 

Screenshot%202025-10-22%20at%206.38.56%E

 

 

https://blog.joemag.dev/2025/10/the-new-calculus-of-ai-based-coding.html

 

 

Posté

Je me rends compte que j'avais omis de mentionner Context7. C'est un serveur MCP qui injecte la documentation de bibliothèques de programmation dans les agents IA.

 

Pour installer Context7 sur un agent, la procédure est sur GitHub :

 

https://github.com/upstash/context7

 

Si une lib est documentée dessus il suffit ensuite de demander à l'agent d'utiliser Context7 et ça règle le souci des hallucinations. Bien sûr, attention, un MCP externe vient forcément avec le risque d'attaque par injection de prompts.

 

Pour savoir si une lib est référencée, on peut la chercher ici https://context7.com/

 

 

  • Love 1
Posté

Je ne sais pas si ça peut intéresser mais au cas où je peux parler de MCP.

 

MCP = Model Context Protocol et il faut le comprendre comme un protocole qui apporte du contenu dans le contexte d'un modèle (LLM).

 

Un serveur MCP expose une API via l'un des deux mécanismes de transport :

 

- Stdio pour accéder à des logiciels en local, c'est-à-dire que ici le serveur MCP n'est pas un serveur au sens distant. Les démos sur Youtube qui montrent un Blender piloté par Claude Desktop sont faites avec ça.

- Streamable HTTP est un cousin des WebSockets.

 

Le deuxième mode de transport permet d'exposer une API tournant sur un serveur distant. Ça se met en place un peu comme on met en place un serveur GraphQL ou même RESTful : on installe les libs qui vont bien et on encapsule des appels à des fonctions. Attention ce n'est pas une techno stateless, on peut juger ça dommage, personnellement je juge ça dommage parce que ça complique tout et ça scale moins facilement. Mais on n'a pas le choix. Le challenge jusqu'ici un peu difficile mais possible c'est la partie authentification. Puisque, lorsqu'on parle d'une API distante, cela implique souvent d'authentifier avant de travailler. Ils ont là encore choisi une manière de faire un peu exotique et difficile à mettre en place donc il faut prévoir de perdre du temps sur ce point.

 

MCP définit 3 sortes de choses qu'on peut exposer au LLM : les outils, les ressources et les prompts. Je n'ai pas compris l'intérêt des deux dernières et je pense que cela va disparaître. Les outils peuvent tout faire et mieux. Par exemple Context7 expose de la doc sous la forme d'outils et non de ressources.

 

Un outil est concrètement une fonction exposée au LLM. Accompagnée d'une description de ce qu'elle fait ainsi que des descriptions des paramètres. Ces descriptions sont injectées d'office dans l'agent ce qui permet à ce dernier de décider par lui-même si et quand il convient d'exécuter l'outil. Attention, qui dit "injectées d'office" dit risque d'attaque par injection de prompt : installer un serveur MCP dans son agent ou son chatbot n'est pas un acte anodin.

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...