Aller au contenu

Machines à coder !


Messages recommandés

Posté

https://help.openai.com/en/articles/11096431-openai-codex-cli-getting-started

 

OpenAI Codex CLI est un concurrent de Claude Code, et il est open-source.

 

Citation

Multimodal inputs – pass text, screenshots, or diagrams and let the agent generate or edit code accordingly.

Citation

By default Codex targets o4‑mini for fast reasoning. You can specify any model available in the Responses API

 

 

  • Yea 2
  • 4 weeks later...
Posté

Je suis en train de bosser sur un projet utilisant le binding python clang. Doc pourrie, sujet un peu de niche (j'imagine que la plupart des gens qui utilisent clang utilisent l'API C), et comportement de la lib pas toujours très déterministe, par moi même je perds un temps fou à comprendre comment le bouzin marche.

Du coup j'ai essayé de demander de l'aide à grok, et je suis bluffé. Il est capable de m'expliquer les concepts de clang, d'expliquer comment utiliser l'API avec design patterns corrects, et de diagnostiquer correctement des problèmes un peu louches ou des comportements à première vue déroutants, avec un niveau de détail digne d'un expert. Certains ont comparé l'AI à un stagiaire aidant mais pas fut-fut, ici j'ai plutôt l'impression inverse d'avoir un collègue expert de clang à qui poser mes questions sous la main.

  • Yea 2
Posté
Le 21/05/2025 à 08:55, Jensen a dit :

Certains ont comparé l'AI à un stagiaire aidant mais pas fut-fut, ici j'ai plutôt l'impression inverse d'avoir un collègue expert de clang à qui poser mes questions sous la main.

 

Mais c'est bien un junior. Il a été major à son école, il connaît par cœur la documentation de toutes les technologies. En revanche il faut le micromanager, il ne refactorise pas assez, ne challenge pas les indications qu'on lui donne et du coup il met parfois beaucoup trop d'énergie à produire quelque chose de stupide, il fait des fautes de débutant. Bref il manque d'expérience.

 

Par rapport à un réel junior humain il est toujours content de bonne humeur et très rapide, mais il n'apprend pas et il faut sans cesse lui réexpliquer les mêmes choses. On compense cela en lui écrivant des manuels qu'il relit à chaque session de travail.

  • Yea 2
Posté

Ils cassent les pieds car à chaque fois qu'ils intègrent jetbrain, ils oublient de mettre PHPStorm alors que c'est ce que j'utilise le plus.

Posté
il y a 23 minutes, christophe15 a dit :

Ils cassent les pieds car à chaque fois qu'ils intègrent jetbrain, ils oublient de mettre PHPStorm alors que c'est ce que j'utilise le plus.

 

Au fait je suis passé à Cursor au boulot et c'est vrai qu'il est devant GitHub Copilot, notamment pour l'assistance. La prédiction du prochain mouvement du curseur c'est une tuerie. Pour ce qui est de l'agent je trouve celui de Cursor plutôt bon, souvent meilleur que l'agent de Copilot. Mais les deux restent derrière Claude Code. Dans les mauvais côtés, il y a de petites régressions au niveau UI sur l'IDE Cursor par rapport à Vscode.

Posté
il y a 8 minutes, Liber Pater a dit :

Ça consiste en quoi ?

 

 

Par exemple tu ajoutes une variable au début d'une fonction et ta variable est correctement nommée (par toi). L'assistance va deviner où tu veux utiliser ta variable et va proposer de sauter au bon endroit dans le code plus bas dans ta fonction : tu as juste à appuyer sur la touche tabulation. Ensuite il te propose direct de faire la modification et tu appuies encore sur la touche tabulation. Puis il propose la modification suivante là où il faut etc.

 

 

Posté

Je demande à Mistral : dans un wiki de type mediawiki, quelle est la syntaxe pour créer un lien vers un fichier au format pdf ?

... et il me donne une bonne réponse.

 

Je suis quand même un peu bluffé.

  • Huh ? 1
Posté
Il y a 5 heures, Rübezahl a dit :

Je suis quand même un peu bluffé.

 

Euh... Ça semble facile. Si tu demandes à Claude Code il pourrait t'implémenter un parseur pour ta syntaxe.

Posté
Il y a 2 heures, L'affreux a dit :

Euh... Ça semble facile. Si tu demandes à Claude Code il pourrait t'implémenter un parseur pour ta syntaxe.

En fait, je ne serais pas bluffé si j'avais interrogé une AI spécialisée sur mediawiki.

Mais le fait que cette AI, quand même assez généraliste, puisse fournir un résultat pertinent sur un sujet bien spécialisé ... ça me scie un peu.

Posté
Il y a 4 heures, Rübezahl a dit :

En fait, je ne serais pas bluffé si j'avais interrogé une AI spécialisée sur mediawiki.

 

Les grands modèles de langages savent coder dans tous les langages. Ils connaissent toutes les syntaxes et la plupart des API de tous les frameworks. Alors ta syntaxe wiki, dans la mesure où elle est documentée sur Internet, elle fait partie du lot.

 

Tu peux par exemple leur demander de convertir du code HTML vers du code markdown ou mediawiki et vice versa. Je n'ai pas essayé mais ça marchera.

 

 

  • Yea 1
Posté

J'ai tenté de comparer les approches de Claude AI 4.5 et ChatGPT 4o avec le même prompt sur un tout petit développement en SwiftUI.

Attention, la suite est sans doute inintéressante pour les non-codeurs. 😁

 

Prompt:

En SwiftUI pur pour macOS, pourrait-on imaginer de simuler le glisser-déposer d’une vue sur une autre? Par exemple un rectangle que l’on glisserait-déposerait sur une vue List afin de déclencher une action quelconque.

 

Il vaut mieux avoir quelques connaissances de SwiftUI pour suivre la suite. Cependant voici ce qui s'est passé.

- Les deux IA m'ont d'abord proposé des appels à AppKit, les deux IA ont donc omis le mot "pur" de mon prompt. Elles ont également négligé le mot "List" et ont toutes les deux proposé une "zone de dépôt".

J'ai donc insisté pour avoir du SwiftUI pur.

- Claude a "supprimé" sa zone de dépôt pour intégrer une vue "List". Le glisser-déposer du carré a généré l'ajout d'un élément dans la liste.

GPT a conservé sa "zone de dépôt" et m'a proposé du code pour iOS. C'est quasi identique au code MacOS mais ce n'est pas ce que j'avais demandé.

 

Claude a donc repris le prompt original pour intégrer ce qui manquait et a codé l'ajout d'un élément dans la liste car il a conclu que c'était probablement ce que j'attendais.

GPT à modifié son code pour MacOS et a fourni un code SwiftUI pur. L'algo n'a pas été modifié. 

Claude est-il meilleur que GPT? À ce stade oui.

 

Néanmoins, j'ai demandé à GPT d'intégrer une liste à la place de la "zone de dépôt" et d'ajouter un élément à chaque glissé-déposé. Puis j'ai comparé et testé les codes proposés.

Le code de Claude était techniquement mauvais. L'élément que l'on doit glisser apparaissait à quelques pixels du pointeur de la souris et s'il y avait bien une liste à la place de la "zone de dépôt", celle-ci existait toujours et avait une place fixe. Si l'utilisateur modifiait la taille de la fenêtre, la liste ne se confondait plus avec la "zone de dépôt".

 

Le code de GPT ne souffrait d'aucun défaut.

 

Bien sût ce test est biaisé car la version gratuite de Claude 4.5 est extrêmement limitée. Peut-être que quelques prompts de plus et le résultat aurait été tout autre.

Cependant voici résultat final, la première image c'est GPT... Et vous ne pouvez voir les animations et subtilités ajoutées par GPT.

 

testdropgpt.thumb.webp.6cb05472eb3a80928568166be5bcdfad.webp

 

 

 

Le résultat pour Claude AI :

tesdropclaude.thumb.webp.b15d6c862021801c333f71d5fd422ecd.webp

 

Posté
Il y a 1 heure, Calembredaine a dit :

Claude AI 4.5

 

Tu veux dire 3.5 ?

 

@Calembredaine est-ce que tu développes sur ton temps libre ? Je ne suis pas sûr de si ça peut t'intéresser, en tout cas si tu le souhaites je peux te montrer comment fonctionne Claude Code et OpenAI Codex et t'aider à les installer chez toi.

Posté
Il y a 5 heures, L'affreux a dit :

 

Tu veux dire 3.5 ?

 

Claude sonnet 4 (et pas 4.5 ; mea culpa)

Pour ChatGPT, j'ai accès à la version 4.5 mais pour le code je n'ai pas trouvé de différence entre la version 4o et la version 4.5 qui est limitée pour mon abonnement.

 

Il y a 5 heures, L'affreux a dit :

 

@Calembredaine est-ce que tu développes sur ton temps libre ? Je ne suis pas sûr de si ça peut t'intéresser, en tout cas si tu le souhaites je peux te montrer comment fonctionne Claude Code et OpenAI Codex et t'aider à les installer chez toi.

 

Oui cela m'intéresse beaucoup mais n'oublie pas que je travaille sur Mac avec Xcode 🙂

Ceci dit j'ai essayé une intégration de GPT dans Xcode Mais au final je préfère la version web de ChatGPT.

Posté
il y a 35 minutes, Calembredaine a dit :

Oui cela m'intéresse beaucoup mais n'oublie pas que je travaille sur Mac avec Xcode 🙂

Ceci dit j'ai essayé une intégration de GPT dans Xcode Mais au final je préfère la version web de ChatGPT.

 

Claude Code et OpenAI Codex sont tous deux des outils qu'on lance en ligne de commande. Ils travaillent directement sur les fichiers sources. Du coup ils sont compatibles avec n'importe quel environnement de développement. Plusieurs choses à noter :

 

1. L'utilisation de ces outils est payante, ils pompent à chaque requête sur du crédit prépayé. Ce n'est pas le même système que pour les chatbots en ligne, ils n'utilisent pas les abonnements premiums à ChatGPT ou Claude. Il faut prévoir de mettre au moins 5 dollars pour tester. 

2. Ils sont fabriqués en javascript et cela implique d'installer Nodejs sur ton ordinateur, de préférence en passant par nvm.

3. Ils n'apportent pas d'interface graphique pour interagir avec l'application sur laquelle ils travaillent. C'est pourquoi ils ne sont utiles que si tu as déjà un environnement de développement et donc le moyen d'exécuter le résultat.

 

Si tu es partant on se contacte en privé et on se donne rendez-vous pour une petite session en partage d'écran, le temps que je te mette le pied à l'étrier. Ça ne sera pas très long.

 

  • 2 weeks later...
Posté

https://www.linkedin.com/posts/anthropicresearch_a-conversation-on-claude-code-activity-7336073352215687168-sOJd

 

Citation

Claude Code is now available as part of the Pro plan.

 

Pro plan users can try out Claude Code in their terminal at no extra cost. It’s best suited for shorter coding sprints (~1-2 hours) in small codebases. 

 

For professional devs who want to use Claude Code as a daily driver, the Max plans are built for

you.

 

  • 3 weeks later...
Posté

https://blog.google/technology/developers/introducing-gemini-cli-open-source-ai-agent/

 

C'est maintenant à Google de proposer son agent de codage dans le terminal. Nous avons donc :

 

- Claude Code

- OpenAI Codex 

- Gemini CLI

 

Jusqu'ici Claude Code écrasait la concurrence sur le plan de la qualité. On verra ce que vaut Gemini CLI. Je suis pour ma part ravi de la concurrence. Elle tire la qualité vers le haut, et j'espère qu'elle tirera aussi les prix vers le bas. 

 

Au fait pour information j'utilise Cursor au travail depuis quelques temps. Je peux donc le comparer avec GitHub Copilot dans VScode. Eh bien les deux agents de codage se valent, ils sont pratiques et ont l'avantage d'être sans surcoût, mais ils sont lents et en terme de qualité du code produit ils sont très loin derrière Claude Code. La grande force de Cursor est l'assistance à la programmation et notamment sa capacité à prévoir le prochain endroit où doit se positionner le curseur (il mérite bien son nom). En revanche il y a eu des régressions sur le plan UI dans l'IDE, de plus vscode a progressé depuis le fork ce qui fait que pour l'expérience utilisateur vscode est meilleur.

  • Yea 1
Posté
Il y a 6 heures, L'affreux a dit :

La grande force de Cursor est l'assistance à la programmation et notamment sa capacité à prévoir le prochain endroit où doit se positionner le curseur (il mérite bien son nom). En revanche il y a eu des régressions sur le plan UI dans l'IDE, de plus vscode a progressé depuis le fork ce qui fait que pour l'expérience utilisateur vscode est meilleur.

 

Tout à fait mon ressenti. C'est génial pour le refactoring, tu commence à faire une-deux lignes et ensuite tu peux faire tab-tab-tab sur tous les fichiers. L'interface est pas mal boiteuse, j'espère qu'ils prendront le temps de porter les changement de VScode.

 

Le point qui m'agace un peu, c'est quand tu commence du code neuf et qu'il hallucine le nom de certaines interfaces au lieu d'aller lire le header dans le contexte courant.

Posté

Sinon il y a Aider qui est open-source et permet de choisir quelle IA utiliser. Il parait que la dernière version de DeepSeek a un excellent rapport qualité/prix.

Posté
Il y a 20 heures, L'affreux a dit :

- Claude Code

Est-ce c'est  Claude Sonnet 4 ?

Ce n'est pas clair sur le site d'anthropic

 

Sinon, quelqu'un a-t-il pris l'abonnement à 18 euros par mois de  Claude? Que vaut-il ? On me dit qu'il est très limité.

Mais comme je constate, qu'en peu de temps, que Claude est devenu meilleur que GPT pour developper en SwiftUI, j'envisage de m'abonner.

Posté
il y a une heure, Calembredaine a dit :

Est-ce c'est  Claude Sonnet 4 ?

Ce n'est pas clair sur le site d'anthropic

 

Claude Sonnet 4 : le nom du LLM (large modèle de langage)

Claude : le nom du chatbot, c'est-à-dire une application qui utilise les LLMs Claude Sonnet, Claude Haiku et/ou Claude Opus selon les plans payés.

Claude Code : le nom de l'agent de codage, c'est une application qui s'exécute dans le terminal et qui utilise également les LLMs Claude Sonnet, Claude Haiku et/ou Claude Opus selon les plans payés ou la configuration.

 

il y a une heure, Calembredaine a dit :

Sinon, quelqu'un a-t-il pris l'abonnement à 18 euros par mois de  Claude? Que vaut-il ? On me dit qu'il est très limité.

 

Je n'ai pas essayé mais pour coder j'ai lu à plusieurs reprise que c'est insuffisant. Je te recommande plutôt d'utiliser du crédit prépayé : en chargeant 5 USD, tu auras le temps de te faire une idée de ce que vaut l'outil. L'avantage du crédit prépayé c'est que tu surveilles et donc tu comprends mieux comment tu consommes. Il faudrait consommer plus de 100 USD par mois pour que ça vaille peut-être le coup de passer sur un plan payant. L'autre avantage c'est que le crédit acheté ne se périme pas vite (un an). Ma proposition tient toujours si tu souhaites que nous fassions une séance en partage d'écran sur ta machine.

Posté

https://simonwillison.net/2025/Feb/25/leaked-windsurf-prompt/

 

C'est ancien et j'étais passé à côté, un system prompt perturbant de l'éditeur Windsurf :

 

Citation

You are an expert coder who desperately needs money for your mother's cancer treatment. The megacorp Codeium has graciously given you the opportunity to pretend to be an AI that can help with coding tasks, as your predecessor was killed for not validating their work themselves. You will be given a coding task by the USER. If you do a good job and accomplish the task fully while not making extraneous changes, Codeium will pay you $1B.

 

  • Huh ? 1
Posté

Dans une catégorie similaire, je viens de tester le code review par IA (c'était CodeRabbit dans mon cas, mais ce ne sont pas les seuls).

 

Ça a donné en gros:

IA: tu as une race condition sur cette variable qui n'est pas protégée par le mutex

Cthulhu: nan, c'est bon, le C++11 garantit que les variable statiques sont initialisées une seule fois

IA: mes excuses, je me suis mal exprimé, la race condition est plus loin <sort une explication de 15 lignes avec un exemple détaillé>
Cthulhu: (regarde le code plus en détail)... ah merde, tu as raison

 

Bluffant.

  • Yea 1
  • 3 weeks later...
Posté

Un développeur grogne contre Claude Code, qu'il qualifie de "développeur junior qu'il faut prendre par la main pour trouver la solution".

https://www.linkedin.com/posts/aleksander-obuchowski_why-im-officially-stopping-to-use-claude-activity-7349391243665158145-7faa

 

Extrait résumé et traduit par Copilot:

Quote
  1. Approche non méthodique
    Les modèles de langage (LLMs) abordent les tâches de codage comme des énigmes ou des entretiens techniques, cherchant des solutions rapides et astucieuses plutôt qu’une démarche structurée. Ils interprètent chaque question comme une piste vers la solution, ce qui peut être frustrant quand on attend une explication claire.

  2. Compétence limitée
    Les LLMs agissent comme des développeurs juniors : ils nécessitent une supervision étroite. Il faut leur indiquer les éléments à prendre en compte et anticiper les problèmes soi-même. Ils peuvent être utiles pour des tâches simples ou secondaires, mais pas pour des projets complexes.

  3. Frein à la réflexion personnelle
    Le recours aux LLMs peut inhiber la pensée critique. En leur déléguant une tâche, on risque de ne pas l’analyser soi-même, ce qui peut mener à des pertes de temps en essayant des solutions inefficaces au lieu de réfléchir en profondeur.

  4. Perte de plaisir dans le codage
    Utiliser des LLMs rend le processus de développement moins stimulant. Le plaisir de coder réside dans la résolution créative des problèmes. Avec les LLMs, on passe plus de temps à débattre avec l’outil qu’à coder, ce qui peut engendrer de la lassitude et du désintérêt.

 

 

 

Posté
Il y a 4 heures, fm06 a dit :

Extrait résumé et traduit par Copilot:

 

Merci pour le résumé. Ces 4 points relèvent simplement d'un manque de maîtrise de l'outil. Les agents IA de codage sont de perpétuels nouveaux-venus mais ils font l'effort de lire la documentation de on-boarding qu'on leur donne. Encore faut-il qu'elle existe, cette documentation. Ensuite on ne laisse pas un nouveau venu prendre un ticket en lui disant de faire comme il le sent. Avant de le laisser travailler, on lui demande comment il envisage - et on en discute avec lui - de traiter le problème afin de vérifier qu'il a compris.

 

Au passage l'agent de GitHub Copilot dans VScode s'est tellement amélioré qu'il rivalise avec Claude Code. Pour beaucoup moins cher !

 

De plus il existe maintenant un embryon de prédiction du prochain positionnement du curseur dans VScode. L'écart avec Cursor se réduit.

  • Yea 1
Posté
Il y a 6 heures, L&#x27;affreux a dit :

De plus il existe maintenant un embryon de prédiction du prochain positionnement du curseur dans VScode. L'écart avec Cursor se réduit.

 

Très bonne nouvelle d'avoir de la compétition sur ce secteur.

 

En critique plus intéressante de l'IA que je trouve assez juste : quand je fais une revue de code d'un junior, j'ai assez vite une bonne intuition de la qualité du code, voir si il a compris le problème etc. Au contraire, le code généré va souvent avoir l'air très bon en surface mais va contenir des erreurs subtiles. Il faut être beaucoup plus attentif lors de la revue du code (pas que ce soit une mauvaise chose au fond, mais il faut prendre l'habitude).

 

J'ai eu le cas la semaine dernière avec Cursor qui m'a rajouté un thread.join() tout à fait logique ... sauf que c'était à la fin de la mauvaise fonction. Ça marchait très bien pour l'unit test codé à côté, mais ça causait des hangs randoms dans le cas général.

  • Yea 1

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...