L'affreux Posté 22 juillet Auteur Signaler Posté 22 juillet Le 15/07/2025 à 19:04, Rübezahl a dit : Je digresse un peu, mais il y a des IAs spécialisées avec lesquelles on peut discuter de mathématiques ? Peut-être Grok 4 ? https://writingmate.ai/blog/grok-4-access-capabilites Citation Outstanding results in academic benchmarks. It excels in ARC AGI 2, a tough reasoning test, and achieves the highest score on the HumanEval coding benchmark. Par contre attention le tableau de comparaison est avec des anciens modèles pour les compétiteurs (au moins pour Claude). De plus je ne suis pas sûr s'il faut Grok Heavy forcément et dans ce cas j'ai l'impression que les abonnements sont chers. 1
fm06 Posté 22 juillet Signaler Posté 22 juillet On 7/15/2025 at 11:05 AM, L'affreux said: Les agents IA de codage sont de perpétuels nouveaux-venus mais ils font l'effort de lire la documentation de on-boarding qu'on leur donne. Encore faut-il qu'elle existe, cette documentation. Ensuite on ne laisse pas un nouveau venu prendre un ticket en lui disant de faire comme il le sent. Avant de le laisser travailler, on lui demande comment il envisage - et on en discute avec lui - de traiter le problème afin de vérifier qu'il a compris. J'aime bien cette analogie. Traiter le LLM comme un "petit nouveau" qui maîtrise parfaitement les langages de programmation, les librairies et les frameworks, mais qui ne connait rien au projet ni au contexte de l'entreprise. (Traduction Google) Quote [...] - Fichiers README - Documents d'architecture - Conventions de code - Modèles de relations publiques - ... Votre LLM mérite le même respect. Commencez à le traiter comme un collègue. Votre nouveau collègue, ça ne coûte que 20 $ par mois et ça ne prend jamais de pause déjeuner. [...] Avec l'augmentation du codage en IA, c'est comme jouer le rôle d'un responsable de l'ingénierie. Et voici pourquoi c'est plus important que jamais… Les modèles d'aujourd'hui réfléchissent en minutes. Ceux de demain réfléchiront pendant une journée entière. Ou même une semaine entière ! Dans 5 ans, les modèles n'auront plus besoin de votre code. Ils auront besoin de votre vision. Imaginez donner des instructions floues à une IA qui disparaît pendant un mois et revient avec 10 millions de lignes de code. Exactement ce que vous avez demandé. Rien à voir avec ce que vous vouliez. Spécifications erronées aujourd'hui = après-midi perdu. Spécifications erronées demain = mois perdu. Une exigence vague ? Une contrainte manquante ? Regardez votre IA brûler une semaine à construire la mauvaise chose à une vitesse surhumaine. Le coût de la clarté est sur le point de devenir exponentiel. Vous ne deviendrez pas un ingénieur contextuel. Vous deviendrez un directeur de l'ingénierie. https://www.linkedin.com/posts/martinseeler_contextengineering-aiengineering-generativeai-activity-7351864559252480001-Chh6?utm_source=share&utm_medium=member_desktop&rcm=ACoAAAAXJuIB-PIx2mG4zIXeT-laVQm7QyZHMtg 1
L'affreux Posté 22 juillet Auteur Signaler Posté 22 juillet Pour info VS Code (avec Copilot) a rattrapé Cursor et même Claude Code.
L'affreux Posté 22 juillet Auteur Signaler Posté 22 juillet Le 15/07/2025 à 19:04, Rübezahl a dit : Je digresse un peu, mais il y a des IAs spécialisées avec lesquelles on peut discuter de mathématiques ? Advanced version of Gemini with Deep Think officially achieves gold-medal standard at the International Mathematical Olympiad Citation The International Mathematical Olympiad (“IMO”) is the world’s most prestigious competition for young mathematicians, and has been held annually since 1959. 1
Sloonz Posté 22 juillet Signaler Posté 22 juillet 10 hours ago, L'affreux said: Advanced version of Gemini with Deep Think officially achieves gold-medal standard at the International Mathematical Olympiad Sur ce sujet : 1
L'affreux Posté 24 juillet Auteur Signaler Posté 24 juillet J'ai trouvé cette étude intéressante. C'est une tentative de quantifier les boosts de productivité des développeurs logiciels selon plusieurs axes : langages communs (Python, Java, TypeScript) vs langages de niches, selon la taille de la base de code existante, la complexité de la tâche à réaliser notamment. Et en fait sur des technos où ça se passe bien mais en situation réelle, c-à-d sur une base de code conséquente, il mesure 10 ou 15% de boost. Pas plus. Au passage j'ai découvert récemment cette chaîne Youtube et c'est une mine d'or.
Liber Pater Posté 24 juillet Signaler Posté 24 juillet J'ai trouvé cette étude intéressante. C'est une tentative de quantifier les boosts de productivité des développeurs logiciels selon plusieurs axes : langages communs (Python, Java, TypeScript) vs langages de niches, selon la taille de la base de code existante, la complexité de la tâche à réaliser notamment. Et en fait sur des technos où ça se passe bien mais en situation réelle, c-à-d sur une base de code conséquente, il mesure 10 ou 15% de boost. Pas plus. Au passage j'ai découvert récemment cette chaîne Youtube et c'est une mine d'or.10-15% c'est quand-même pas rien ! C'est définitivement mesurable, et ça va sans doute progresser un peu
Cthulhu Posté 24 juillet Signaler Posté 24 juillet Pour mon job, j'aurais dit 20-25% au doigt mouillé, mais je suis probablement trop optimiste. Pas encore regardé la vidéo, je mets ça dans ma liste pour plus tard.
fm06 Posté 24 juillet Signaler Posté 24 juillet Mon expérience c’est que c’est très variable. Sur un petit bout de code avec un langage que je maîtrise peu ou pas du tout: un facteur x10. Sur le reste, bof.
L'affreux Posté 24 juillet Auteur Signaler Posté 24 juillet il y a 48 minutes, Liber Pater a dit : 10-15% c'est quand-même pas rien ! C'est définitivement mesurable, et ça va sans doute progresser un peu Je n'en doute pas non plus. Mais, comme le rappelle le conférencier ici dans son introduction, on est très loin des prévisions de Mark Zuckerberg, en début d'année, qui annonçait la suppression de 100 % des mid-level engineers à Meta pour la fin de cette année.
Cthulhu Posté 25 juillet Signaler Posté 25 juillet Il y a 19 heures, L'affreux a dit : la suppression de 100 % des mid-level engineers à Meta pour la fin de cette année. C'est très con comme logique sur le moyen terme, tu fais comment pour remplacer tes ingés senior quand ils partent à la retraite ? Bon, forcément quand tu es Meta et que tu peux filer des package de $100M par an, le poaching est toujours une option... 1
Sloonz Posté 25 juillet Signaler Posté 25 juillet 1 minute ago, Cthulhu said: C'est très con comme logique sur le moyen terme, tu fais comment pour remplacer tes ingés senior quand ils partent à la retraite ? Bon, forcément quand tu es Meta et que tu peux filer des package de $100M par an, le poaching est toujours une option... L’idée c’est que d’ici à ce que ça arrive l’IA sera capable de remplacer tes ingé senior aussi.
Bézoukhov Posté 25 juillet Signaler Posté 25 juillet il y a 8 minutes, Cthulhu a dit : tu peux filer des package de $100M par an C’est pas un mythe ça ? Désolé mais je ne vois pas comment ça peut avoir un quelconque rationnel économique.
Rübezahl Posté 25 juillet Signaler Posté 25 juillet Il y a 2 heures, Bézoukhov a dit : C’est pas un mythe ça ? Désolé mais je ne vois pas comment ça peut avoir un quelconque rationnel économique. a priori c'est vrai, et c'est rationnel si tu penses que le winner takes it all, ce qui a bel et bien souvent été le cas dans cette industrie.
L'affreux Posté 25 juillet Auteur Signaler Posté 25 juillet Avec les technologies actuelles c'est faux. Même pour les mid-level c'est faux. Il y a un gain de productivité, donc si la boîte n'a pas décidé de produire plus ou mieux alors il y a une proportion de travailleurs en trop. Mais un gain de productivité ça n'a rien d'exceptionnel. Ce n'est pas la première fois qu'on invente un nouvel outil et que l'on est plus productif avec. Et la logique du "winner takes all" n'a ni que ni tête. Prendre quoi, tout le marché ? Et si plus personne ne travaille, alors plus personne n'a de salaire, et il n'y a plus de marché. À la place, une guerre civile. Yeaah! Enfin bref n'importe quoi. EDIT Ah pardon oui pour les packages délirants apparemment c'est vrai. Pour des entrepreneurs et des chercheurs je crois, et non pas pour les développeurs.
Cthulhu Posté 25 juillet Signaler Posté 25 juillet Il y a 6 heures, Bézoukhov a dit : C’est pas un mythe ça ? Désolé mais je ne vois pas comment ça peut avoir un quelconque rationnel économique. Des bruits de couloir, mais ce serait vrai. Et même si ça ne concerne que 2-3 personnes, ça parle aussi de packages à plusieurs millions pour les autres chercheurs. Perso, je n'ai pas eu d'offre mais si tu nous lis Zuck...
Rübezahl Posté 27 juillet Signaler Posté 27 juillet Le 25/07/2025 à 17:23, L'affreux a dit : EDIT Ah pardon oui pour les packages délirants apparemment c'est vrai. Pour des entrepreneurs et des chercheurs je crois, et non pas pour les développeurs. J'ai lu que Meta a, pour l'instant, des difficultés à dégoter les cadres intermédiaires. ça m'étonne un peu parce que Meta a quand même Lecun comme directeur scientifique de l'IA, et il doit avoir un bon réseau. Altman prétend qu'il ne compte plus les tentatives de débauches. Sur le WTA, je reposte ce graphique. ça peut certes finir en oligopole, mais le phénomène de concentration est bien visible à l'oeil nu. Et même pour juste rester dans l'oligopole, ça va demander des efforts ama.
Cthulhu Posté 4 août Signaler Posté 4 août Le 24/07/2025 à 11:33, L'affreux a dit : J'ai trouvé cette étude intéressante. C'est une tentative de quantifier les boosts de productivité des développeurs logiciels selon plusieurs axes : langages communs (Python, Java, TypeScript) vs langages de niches, selon la taille de la base de code existante, la complexité de la tâche à réaliser notamment. Et en fait sur des technos où ça se passe bien mais en situation réelle, c-à-d sur une base de code conséquente, il mesure 10 ou 15% de boost. Pas plus. Enfin regardé la vidéo, l'étude est intéressante en effet. Je pense qu'il y a quand même une limite à juger de la productivité d'un ingénieur sur la qualité de ses commits. Les ingés très senior que je connais n'écrivent quasiment pas de code, mais dictent la direction de produits. Et il y a plein d'exemples de commits tout simples qui permettent des gains de perf énormes. Certes dans ces cas l'AI n'aide pas beaucoup. Ça rejoint mes impressions au doigt mouillé sur plusieurs sujets: - L'AI a du mal dès que la code base devient grande - Pas vraiment d'expérience avec des languages exotiques, mais quand on utilise des frameworks mal documentés, on atteint vite les limites de l'outil également - Ça fait gagner beaucoup de temps sur tout ce qui est boilerplate: écriture de tests, scripts etc. Ça ne se traduit pas forcément par un gain de productivité énorme, mais ça rend le job beaucoup plus plaisant. J'imagine que ça va s'améliorer sur le premier point, mais pas sur le deuxième. Sinon en donnée anecdotique, j'ai entendu parler de grosse baisse du nombre d'étudiants en informatique dans les universités US. Je pense que c'est dommage et que ça causera des soucis dans quelques années quand on se rendra compte qu'on ne peut pas faire du full vibe coding.
Rincevent Posté 4 août Signaler Posté 4 août Il y a 3 heures, Cthulhu a dit : Et il y a plein d'exemples de commits tout simples qui permettent des gains de perf énormes. C'est la moitié de mon boulot, ça.
L'affreux Posté 6 août Auteur Signaler Posté 6 août Et voilà un nouvel agent de programmation chinois et open source : https://github.com/QwenLM/qwen-code Je n'ai pas encore essayé.
L'affreux Posté 6 août Auteur Signaler Posté 6 août Le 04/08/2025 à 05:27, Cthulhu a dit : Sinon en donnée anecdotique, j'ai entendu parler de grosse baisse du nombre d'étudiants en informatique dans les universités US. Je pense que c'est dommage et que ça causera des soucis dans quelques années quand on se rendra compte qu'on ne peut pas faire du full vibe coding. Je serais curieux de savoir vers quelles formations ces étudiants se réorientent.
Rübezahl Posté 6 août Signaler Posté 6 août Un paquet va faire prompteur. Former les robots demande déjà plein de personnel. On voit des offres d'emploi pour des gars qui savent manipuler des outils AI genre eg Palantir etc. Les paysans qui étaient sur leurs chevaux ont bien fini par monter sur les tracteurs (même si ça a pris une génération).
Soda Posté 6 août Signaler Posté 6 août https://www.bfmtv.com/tech/apple/pour-200-millions-de-dollars-meta-debauche-l-un-des-ingenieurs-en-chef-d-apple-intelligence_AV-202507100522.html
Cthulhu Posté 6 août Signaler Posté 6 août il y a 5 minutes, Soda a dit : https://www.bfmtv.com/tech/apple/pour-200-millions-de-dollars-meta-debauche-l-un-des-ingenieurs-en-chef-d-apple-intelligence_AV-202507100522.html Citation Un signe qu'Apple n'a pas abandonné le déploiement de l'intelligence artificielle, mais cherche plutôt à prendre une nouvelle orientation stratégique en misant sur des entreprises externes. Tim Cook et les siens commenceraient même à étudier l'idée d'un rachat de Perplexity, connue pour son moteur de recherche IA et son assistant qui s'intègre bien aux iPhone, selon Bloomberg. Car comme l'a rappelé Cook en octobre dernier: "Apple n'a pas besoin d'être la première en matière d'IA, mais la meilleure." Ugh
Calembredaine Posté 13 août Signaler Posté 13 août En développement (SwiftUI), la version 5 de ChatGPT n'amène aucune amélioration. En outre, ce nouveau modèle est très lent.
Rübezahl Posté 13 août Signaler Posté 13 août How Gauntlet AI Turns Beginners into $200K Engineers in 10 Weeks https://www.benaverbook.com/p/how-gauntlet-ai-turns-beginners-into
Calembredaine Posté 18 août Signaler Posté 18 août J'ai testé 'Lumo', le LLM de chez Proton. Les avantages: - Compris dans le forfait Proton, même le moins cher - Confidentialité chère à Proton. Inconvient : J'ai testé bien sûr quelques prompts pour développer des petites méthodes en SwiftUI mais également du code OpenSquad. Résultat : c'est mauvais. Du niveau de GPT 3.5
L'affreux Posté 18 août Auteur Signaler Posté 18 août Ce weekend j'avais une fonctionnalité un peu technique à implémenter avec du parsing dans un moteur de template utilisé mais pas non plus super connu (LiquidJS). J'avais généré le plan d'implémentation avec Claude Code. Pour l'exécution j'ai tenté avec GitHub Copilot + Claude Sonnet 4 et il a pédalé dans la choucroute, a essayé des tonnes de stratégies, il est arrivé en fin de fenêtre de contexte rien ne marchait. J'ai annulé, repris le même plan avec GitHub Copilot + GPT-5, il a ruminé sans rien dire pendant peut-être une vingtaine de secondes, puis il a craché l'implémentation d'un coup et ça passait tous les tests ! GPT-5 est un peu agaçant parce qu'il a moins de rigueur, il lui arrive de zapper des instructions, il est aussi inégal, mais il est certainement brillant.
Cthulhu Posté 28 août Signaler Posté 28 août Un truc qui marche vraiment très bien avec Cursor: la génération de script pour lancer un test ou faire un benchmark. C'est le genre de trucs que je déteste faire et je perds toujours plein de temps sur des petits bugs à la c** pour au final avoir un script boiteux. En comparaison, Cursor te sort un truc propre en moins de 5 minutes qui vérifie bien les corner cases, avec des jolies barres de progression, te sauve le résultat dans le format que tu veux etc 2
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant