Rincevent Posté 16 février Signaler Posté 16 février il y a 14 minutes, L'affreux a dit : Il n'empêche que SQL est un langage bien compris par les agents. Je te dis que le problème n'est pas que la syntaxe soit comprise, mais que le langage signifie tout autre chose qu'une simple application. il y a 15 minutes, L'affreux a dit : La vraie raison qui fait que tu n'utilises pas l'intelligence artificielle, c'est parce que ton employeur te l'interdit. Non. Relis, s'il-te-plait.
Lancelot Posté 16 février Signaler Posté 16 février 1 hour ago, cedric.org said: Sans vouloir être pédant Trop tard Sans déconner, faudra vous rendre compte que ce genre de prosélytisme outrancier est contre productif. Enfin bref JRML : j'ai passé une bonne partie de ma journée avec chatGPT pour éclaircir un point technique qui me trottait dans la tête depuis longtemps. Le résultat est que j'avais déjà l'approche optimale, mais c'est bien de le confirmer et j'ai choppé de la terminologie pour expliquer pourquoi à des matheux. 1
Mathieu_D Posté 16 février Signaler Posté 16 février 6 hours ago, Rincevent said: C'est actuellement très limité pour le SQL. C'est un coin de l'informatique où il faut non seulement pondre du code (le DSL et DML), mais aussi comprendre l'infrastructure (le DDL) sur lequel ce code porte ; et pour autant que je sache l'IA a encore énormément de mal à garder en tête le modèle de données sous-jacent. (Je ne parle même pas de l'optimiser, ça c'est mon boulot et j'ai encore 5 ans d'avance supplémentaires sur les LLM). 5 hours ago, L'affreux said: Ah bon ? Ça m'étonne beaucoup. De mon côté ça fonctionne depuis des mois. On peut en parler sur le thread des machines à coder si tu veux. Tu as essayé avec quels outils ? Attention avec le bon *context engineering* c'est un sauce toute différente. Ce n'est pas pour rien que tout un pan du métier de data eng' va vers l'industrialisation de ce contexte et que les analystes flippent leur race sur leur obsolescence. 1
Rincevent Posté 16 février Signaler Posté 16 février il y a une heure, Mathieu_D a dit : Attention avec le bon *context engineering* c'est un sauce toute différente. Ce n'est pas pour rien que tout un pan du métier de data eng' va vers l'industrialisation de ce contexte et que les analystes flippent leur race sur leur obsolescence. Développe ce que tu entends par là ? Si c'est l'art de garder le bon contenu dans la fenêtre de contexte du LLM, alors je veux bien mais je ne vois toujours pas quel LLM donnerait des résultats pertinents (et de quelle manière) pour un DBA applicatif.
L'affreux Posté 16 février Signaler Posté 16 février Les mecs, parler avec ChatGPT c'est bien mais ça fait 3 ans. Ça ne vous donne littéralement aucune idée de où en est l'état de l'art. Ce qu'il s'est passé en 2025 a été une disruption majeure dans le monde du développement logiciel. Ce début 2026 la bureautique est en train de suivre. Cela dit, même si aujourd'hui en février 2026 les développeurs qui sont restés derrière sont en train de rater le train, dans ma compréhension, ce n'est pas encore le cas pour la plupart des autres métiers. 2025 était vraiment l'année du changement des développeurs. EDIT : D'ailleurs il est possible que ce soit trop réducteur de parler de bureautique pour Cowork. J'ai l'impression qu'il s'agit du logiciel de Claude Code mis dans une interface prête à être branchée avec de très nombreux outils. Il y a 12 heures, Mathieu_D a dit : Attention avec le bon *context engineering* c'est un sauce toute différente. Précisément. 1
L'affreux Posté 16 février Signaler Posté 16 février il y a 16 minutes, Rincevent a dit : Si c'est l'art de garder le bon contenu dans la fenêtre de contexte du LLM, alors je veux bien mais je ne vois toujours pas quel LLM donnerait des résultats pertinents (et de quelle manière) pour un DBA applicatif. Oui ta définition est bonne. Concernant tes interrogations, je ne suis pas DBA applicatif, je n'en ai pas dans mon entourage, donc je n'ai pas de réponse. Pour savoir il faut essayer. Sachant qu'au départ on perd du temps.
Lancelot Posté 16 février Signaler Posté 16 février 43 minutes ago, L'affreux said: Les mecs, parler avec ChatGPT c'est bien mais ça fait 3 ans. Ça ne vous donne littéralement aucune idée de où en est l'état de l'art. C'était ce qui m'a été utile aujourd'hui, ne t'en déplaise. Et au passage je ne suis toujours pas sur le cul de la performance du LLM, beaucoup de micro-management est nécessaire pour en ressortir un truc réellement valable.
Rincevent Posté 16 février Signaler Posté 16 février il y a 37 minutes, L'affreux a dit : Oui ta définition est bonne. Concernant tes interrogations, je ne suis pas DBA applicatif, je n'en ai pas dans mon entourage, donc je n'ai pas de réponse. Pour savoir il faut essayer. Sachant qu'au départ on perd du temps. Et moi je te dis que Brent et d'autres ont essayé, sans vrai succès. Pour l'instant, disons ; mais de fait, le problème est différent de celui du développeur habituel. Sinon j'ai récemment essayé NotebookLM, et ça par contre c'est pas mal satisfaisant pour explorer rapidement une bibliographie / savoir si tel ou tel bouquin mérite d'être vraiment lu. Mais ce n'est pas du tout un travail de DBA. 1
L'affreux Posté 16 février Signaler Posté 16 février il y a 4 minutes, Rincevent a dit : Sinon j'ai récemment NotebookLM, et ça par contre c'est pas mal satisfaisant pour explorer rapidement une bibliographie / savoir si tel ou tel bouquin mérite d'être vraiment lu. C'est aussi assez génial pour essayer de comprendre ce qu'il faut faire quand tout ce qu'on a c'est la spécification gigantesque d'une norme dont on n'a pas envie de comprendre tous les recoins.
Sloonz Posté 17 février Signaler Posté 17 février 22 hours ago, Rincevent said: C'est actuellement très limité pour le SQL. C'est un coin de l'informatique où il faut non seulement pondre du code (le DSL et DML), mais aussi comprendre l'infrastructure (le DDL) sur lequel ce code porte ; et pour autant que je sache l'IA a encore énormément de mal à garder en tête le modèle de données sous-jacent. PARDON ?! pg_dump --schema-only >> AGENTS.md (ou ton équivalent pour ton DBMS favori) et ton Claude Code/Codex a ton DDL constamment en tête immédiatement. C’est pas une excuse, c’est un aveu de "j’ai pas cherché, pas envie de changer ma manière de travailler". Exactement ce que @Cédric disait au fond. 13 hours ago, Rincevent said: Et moi je te dis que Brent et d'autres ont essayé, sans vrai succès. Pour l'instant, disons ; mais de fait, le problème est différent de celui du développeur habituel. Dans le développement "habituel" aussi il y a de très bons développeurs qui ont de mauvais résultats, de mauvais développeurs qui ont de bons résultats, de bons développeurs qui ont de bons résultats, de mauvais développeurs qui ont de mauvais résultats. Je ne pense pas que qui que ce soit se soit penché sur la question du pourquoi (un jour j’aimerai bien me mettre derrière l’épaule d’un bon dev qui n’arrive pas à tirer profit de l’IA pour voir ce qu’il fait, je suis curieux…), mais c'est pas parce que Brent n’y arrive pas que tu ne peux rien y trouver (ou vice versa). Il faut essayer par soi même. Essayer réellement hein. Se bloquer quelque jours, se renseigner sur ce qui est possible, puis faire des expériences le plus varié possible, voir ce qui marche et ce qui marche pas. Accepter que ça puisse demander des changements en profondeur de workflow, de setup, qui sont à tester rapidement à coup de PoCs. Mais j’ai l’impression qu’on est là dans un cas de "nous n’avons rien essayé et nous sommes à court d’idées".
Mathieu_D Posté 17 février Signaler Posté 17 février @Sloonz par rapport à coder une appli faire faire des requêtes sql à un llm ça demande d'apporter plus de contexte sur où sont rangées les choses. (Par exemple, il faut lui dire que le champs YGTFH de la table HJUIOKH correspond aux montants en euros des transactions.) Sans le contexte approprié ça ne va pas marcher. (Mais comme tu le dis, en apportant le contexte, ça marche. C'est juste qu'il faut apporter des centaines et des centaines de contexte de champs comme si tu demandais à un llm de se servir dans des centaines et des centaines de endpoints.)
Rincevent Posté 17 février Signaler Posté 17 février il y a 55 minutes, Sloonz a dit : mais c'est pas parce que Brent n’y arrive pas que tu ne peux rien y trouver (ou vice versa). J'entends bien, mais je ne cite Brent que pour donner un exemple. Je ne crois pas qu'aucun MVP (ou peu importe comment ça a été renommé) un peu connu ait trouvé comment utiliser un LLM efficacement pour du SQL Server. Si tu as un contre-exemple, je suis preneur évidemment. il y a 57 minutes, Sloonz a dit : Il faut essayer par soi même. La nature de mon métier m'empêche de le faire en personne ; c'est pour ça que je fais de la veille et pas davantage. Je suppose que le concept de confidentialité des données ne t'est pas étranger.
Rincevent Posté 17 février Signaler Posté 17 février il y a 2 minutes, Mathieu_D a dit : C'est juste qu'il faut apporter des centaines et des centaines de contexte de champs comme si tu demandais à un llm de se servir dans des centaines et des centaines de endpoints.) Merci. (Là on parle plutôt de milliers, on doit même dépasser allègrement la dizaine de milliers).
Mathieu_D Posté 17 février Signaler Posté 17 février 4 minutes ago, Rincevent said: Merci. (Là on parle plutôt de milliers, on doit même dépasser allègrement la dizaine de milliers). La joie d'écrire des gros yaml
Sloonz Posté 17 février Signaler Posté 17 février 52 minutes ago, Rincevent said: La nature de mon métier m'empêche de le faire en personne ; c'est pour ça que je fais de la veille et pas davantage. Je suppose que le concept de confidentialité des données ne t'est pas étranger. Vous n’avez pas des versions anonymisées de vos BDD ? La confidentialité des données inclus le DDL ? Parce que oui, effectivement, si "j’ai pas le droit de communiquer le DDL à l’IA", ça risque de poser quelques soucis pour faire fonctionner l’IA. Mais on est pas là dans un souci de capacité de l’IA. Un expert humain non plus ne sera pas d’une grande aide avec ces même contraintes. (ceci dit : rien de tout cela ne t’empêche de découvrir sur ton temps libre sur ce qu’il est possible ou pas de faire sur des BDD-jouet, pour ton édification personnelle… et pour potentiellement arriver devant ton boss à "j’arrive à faire X avec l’IA, on peut discuter process, droits, etc pour mettre en place ça chez nous ?") 1
Sloonz Posté 17 février Signaler Posté 17 février 53 minutes ago, Rincevent said: J'entends bien, mais je ne cite Brent que pour donner un exemple. Je ne crois pas qu'aucun MVP (ou peu importe comment ça a été renommé) un peu connu ait trouvé comment utiliser un LLM efficacement pour du SQL Server. Si tu as un contre-exemple, je suis preneur évidemment. Avant Claude Code on pouvait dire "aucun MVP a été trouvé comment utiliser un LLM efficacement sur une large base de code existante". Mon point de vue est justement que "aucun MVP a été trouvé" doit être vu comme une opportunité où "mon point de vue d’expert du métier permet de voir les point de blocage, et d’imaginer les solutions possibles" (du travail d’ingénierie, quoi), pour pouvoir être celui qui fait le Claude Code de ton domaine.
L'affreux Posté 17 février Signaler Posté 17 février il y a 57 minutes, Rincevent a dit : Je suppose que le concept de confidentialité des données ne t'est pas étranger. Nous ne sommes pas en train de discuter sur la manière de donner accès à un agent IA aux données de production.
L'affreux Posté 17 février Signaler Posté 17 février il y a une heure, Rincevent a dit : Merci. (Là on parle plutôt de milliers, on doit même dépasser allègrement la dizaine de milliers). Ah oui c'est épais haha ! Mais ça vaut d'autant plus le coup.
Rincevent Posté 17 février Signaler Posté 17 février il y a 59 minutes, L'affreux a dit : Ah oui c'est épais haha ! Je travaille avec des bases de données sérieuses, pas avec des petits joujoux pour site Web. 2
Soda Posté 17 février Signaler Posté 17 février Bonne vidéo sur Openclaw, ses avantages et dangers. 1
Mathieu_D Posté 17 février Signaler Posté 17 février 1 hour ago, Rincevent said: Je travaille avec des bases de données sérieuses, pas avec des petits joujoux pour site Web. Mmmh tu as combien de milliards de transactions dans tes tables de faits ?
Rincevent Posté 17 février Signaler Posté 17 février Il y a 1 heure, Mathieu_D a dit : Mmmh tu as combien de milliards de transactions dans tes tables de faits ? Des tables de faits ? Mais quel architecte sérieux fait ça ? J'ai (presque...) des schémas de données en forme normale élevée, avec des clés étrangères et de l'intégrité, môssieur ! On cause de dizaines de mégas de code rien qu'avec le DDL et les SP/fonctions. (Non je plaisante on a aussi une solution de dataouarousse, mais je m'en occupe peu. En tous cas, OLAP-à-la-Kimball et OLTP sont aussi deux métiers différents, comme tu le sais.)
Mathieu_D Posté 17 février Signaler Posté 17 février Oui je pensais olap en effet, je n'ai jamais utilisé de llm dans un cadre oltp.
Bézoukhov Posté 17 février Signaler Posté 17 février Le 16/02/2026 à 17:18, cedric.org a dit : J'ai expliqué que j'ai gagné des jours de travail pour me concentrer sur ce qui est important Yep, mais tu comprendras que la « valeur » apportée par la constitution de rapports réglementaires est douteuse. Bien que de manière assez amusante, je m’attends à ce que les LLM fassent baisser à un point la valeur perçue de ces rapports, que personne n’osera en demander. Mais ce qui est intéressant, c’est plutôt de comprendre comment on cree de la vraie valeur avec. Honnêtement, je trouve que les codeurs qui l’utilisent jargonnent beaucoup trop pour que ce soit honnête ; même si mes propres tests me disent qu’il y a des trucs à faire. 1
cedric.org Posté 17 février Signaler Posté 17 février Concrètement ? mon boulot majoritairement technique rend les cas d'utilisations évidents. Cependant, récemment : - J'ai multiplié ma capacité de dévelopment par 3 tout en divisant le temps passé dessus par 2 (beaucoup de petites choses simples mais qui prenaient avant un temps fou à mon équipe sont désormais traitées en quasi-autonomie -> énormément de gain de temps pour creuser l'architecture) - J'ai automatisé une partie des analyses de problème de performance à plusieurs niveaux (des jours de travail à chaque fois. Il a tort une fois sur deux mais il me faut 5 minutes pour le comprendre versus plusieurs heures pour regarder moi-même. Et je pense que c'est parce que j'ai des mauvais prompts.). Le machin est branché à la knowledge base, au code, à slack et à la prod en read-only et donc possède toutes les informations qu'il faut pour comprendre et debug et me proposer des choses. - J'ai automatisé mes revues de codes (ou disons que j'ai mis un robot qui passe avant moi, qui fait des choses vraiment sympathiques la plupart du temps, et quand c'est idiot on rigole un bon coup et on l'ignore). - Celle la va te plaire : j'ai rationalisé avec l'aide de l'IA les revues de performance semestrielles, tout en m'aidant à améliorer mes pratiques (il lui faut de quoi manger -> je mets désormais par écrit l'ensemble des choses dites, positives comme négatives, en points réguliers avec mes collaborateurs). - J'automatise 80% de l'écriture de documentation technique et fonctionnelle à partir de mes échanges Slack, schémas compris. Il pond des choses très bien mais inutiles : mon boulot consiste à en supprimer la moitié et corriger les quelques lignes fausses. - J'ai analysé 8 ans d'augmentation de salaire & co pour me préparer à en demander une. Chose que j'aurais fait à l'arrache seul (donc que je n'aurais pas fait) Et ça, c'est uniquement ce que j'ai fait avec depuis décembre. Et oui, pour le fun, j'ai passé exactement 10 minute à ce CIR pour la première année, avec un sourire en coin, pour un rendu complètement dégueulasse mais très exactement fidèle à ce que j'en pense. Bref, j'ai l'impression d'avoir à côté de moi un PhD complètement autiste. Mais qui me fait gagner un temps fou. Et qui progresse de mois en mois. 4
Rincevent Posté 17 février Signaler Posté 17 février il y a une heure, Mathieu_D a dit : Oui je pensais olap en effet, je n'ai jamais utilisé de llm dans un cadre oltp. Je le répète depuis quelques posts, mais il y a peut-être une vraie raison à ça. Au moins pour le moment.
L'affreux Posté 18 février Signaler Posté 18 février Il y a 7 heures, Rincevent a dit : Je le répète depuis quelques posts, mais il y a peut-être une vraie raison à ça. Au moins pour le moment. Le seul argument qui pousserait à le croire, à savoir qu'un mec super bon en SQL Server a du mal à s'adapter et parle toujours de Google quand il recherche une information sur le Web, ne vaut pas grand chose.
Sloonz Posté 18 février Signaler Posté 18 février 8 hours ago, Rincevent said: Je le répète depuis quelques posts, mais il y a peut-être une vraie raison à ça. Au moins pour le moment. Les raisons que tu cites n’ont rien à voir avec les LLMs en soit, et tout à voir avec il y a du travail (d’ingénierie) à faire, et des questions à se poser (d’orga/management) pour y arriver. Ce qui n’est pas choquant en soit. Il est même tout à fait raisonnable de dire "et c’est pas moi qui ferai ce travail, merci bien". Je réagis juste à l’attitude "j’y peux rien, le sql atteint les limites des llms", qui pour le coup… non. 2
Rincevent Posté 18 février Signaler Posté 18 février il y a 42 minutes, Sloonz a dit : "j’y peux rien, le sql atteint les limites des llms" Ce n'est pas vraiment ce que je dis, tu sais ?
Hugh Posté 18 février Signaler Posté 18 février J'ai lu un article qui m'a ouvert l'esprit sur ce sujet ; j'y réfléchis encore et je sais que je le relirai plus d'une fois. Je vous le recommande vivement. C'est peut-être une évidence flagrante pour tout le monde ici, mais pour moi, ce fut et c'est l'ouverture d'un nouveau monde. C'est la différence entre voir un éclair dans l'orage et avoir l'électricité chez soi, ou encore les Grandes Découvertes, ou... je ne sais même pas comment le décrire. Je vous recommande la lecture : c'est long, mais ça en vaut la peine. C'est en anglais, mais depuis le temps, la qualité des traductions par l'IA a réglé ce problème. Je vais en partager quelques extraits: https://shumer.dev/something-big-is-happening Citation Je ne suis plus nécessaire pour le travail technique concret de mon poste. Je décris ce que je veux construire, en anglais simple, et cela... apparaît, tout simplement. Pas un brouillon que je dois corriger. Le produit fini. Je dis à l'IA ce que je veux, je m'éloigne de mon ordinateur pendant quatre heures, et je reviens pour trouver le travail accompli. Bien fait, mieux que je ne l'aurais fait moi-même, sans aucune correction nécessaire. Il y a quelques mois, je faisais encore des allers-retours avec l'IA, je la guidais, je faisais des retouches. Maintenant, je décris simplement le résultat et je m'en vais. Laissez-moi vous donner un exemple pour que vous compreniez à quoi cela ressemble concrètement. Je dis à l'IA : 'Je veux construire cette application. Voici ce qu'elle doit faire, voici à peu près à quoi elle doit ressembler. Détermine le parcours utilisateur, le design, tout le reste.' Et elle le fait. Elle écrit des dizaines de milliers de lignes de code. Ensuite — et c'est la partie qui aurait été impensable il y a un an — elle ouvre l'application elle-même. Elle clique sur les boutons. Elle teste les fonctionnalités. Elle utilise l'application comme le ferait une personne. Si elle n'aime pas l'aspect ou le ressenti de quelque chose, elle revient en arrière et le modifie, de son propre chef. Elle itère, comme le ferait un développeur, corrigeant et peaufinant jusqu'à ce qu'elle soit satisfaite. C'est seulement une fois qu'elle a décidé que l'application répond à ses propres critères qu'elle revient vers moi et me dit : 'C'est prêt pour vos tests.' Et quand je la teste, elle est généralement parfaite. En 2022, l'IA ne pouvait pas effectuer d'arithmétique de base de manière fiable. Elle vous affirmait avec assurance que $7 \times 8 = 54$. En 2023, elle était capable de réussir l'examen du barreau. En 2024, elle pouvait écrire des logiciels fonctionnels et expliquer des concepts scientifiques de niveau universitaire. Fin 2025, certains des meilleurs ingénieurs au monde déclaraient avoir confié la majeure partie de leur travail de programmation à l'IA. Le 5 février 2026, de nouveaux modèles sont arrivés, faisant paraître tout ce qui les précédait comme appartenant à une autre époque. Si vous n'avez pas essayé l'IA ces derniers mois, ce qui existe aujourd'hui vous serait méconnaissable. C'est un autre monde. 3
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant