Sloonz Posté Mardi at 12:18 Signaler Posté Mardi at 12:18 52 minutes ago, Rincevent said: La nature de mon métier m'empêche de le faire en personne ; c'est pour ça que je fais de la veille et pas davantage. Je suppose que le concept de confidentialité des données ne t'est pas étranger. Vous n’avez pas des versions anonymisées de vos BDD ? La confidentialité des données inclus le DDL ? Parce que oui, effectivement, si "j’ai pas le droit de communiquer le DDL à l’IA", ça risque de poser quelques soucis pour faire fonctionner l’IA. Mais on est pas là dans un souci de capacité de l’IA. Un expert humain non plus ne sera pas d’une grande aide avec ces même contraintes. (ceci dit : rien de tout cela ne t’empêche de découvrir sur ton temps libre sur ce qu’il est possible ou pas de faire sur des BDD-jouet, pour ton édification personnelle… et pour potentiellement arriver devant ton boss à "j’arrive à faire X avec l’IA, on peut discuter process, droits, etc pour mettre en place ça chez nous ?") 1
Sloonz Posté Mardi at 12:24 Signaler Posté Mardi at 12:24 53 minutes ago, Rincevent said: J'entends bien, mais je ne cite Brent que pour donner un exemple. Je ne crois pas qu'aucun MVP (ou peu importe comment ça a été renommé) un peu connu ait trouvé comment utiliser un LLM efficacement pour du SQL Server. Si tu as un contre-exemple, je suis preneur évidemment. Avant Claude Code on pouvait dire "aucun MVP a été trouvé comment utiliser un LLM efficacement sur une large base de code existante". Mon point de vue est justement que "aucun MVP a été trouvé" doit être vu comme une opportunité où "mon point de vue d’expert du métier permet de voir les point de blocage, et d’imaginer les solutions possibles" (du travail d’ingénierie, quoi), pour pouvoir être celui qui fait le Claude Code de ton domaine.
L'affreux Posté Mardi at 12:34 Signaler Posté Mardi at 12:34 il y a 57 minutes, Rincevent a dit : Je suppose que le concept de confidentialité des données ne t'est pas étranger. Nous ne sommes pas en train de discuter sur la manière de donner accès à un agent IA aux données de production.
L'affreux Posté Mardi at 12:36 Signaler Posté Mardi at 12:36 il y a une heure, Rincevent a dit : Merci. (Là on parle plutôt de milliers, on doit même dépasser allègrement la dizaine de milliers). Ah oui c'est épais haha ! Mais ça vaut d'autant plus le coup.
Rincevent Posté Mardi at 13:36 Signaler Posté Mardi at 13:36 il y a 59 minutes, L'affreux a dit : Ah oui c'est épais haha ! Je travaille avec des bases de données sérieuses, pas avec des petits joujoux pour site Web. 2
Soda Posté Mardi at 14:15 Signaler Posté Mardi at 14:15 Bonne vidéo sur Openclaw, ses avantages et dangers. 1
Mathieu_D Posté Mardi at 14:56 Signaler Posté Mardi at 14:56 1 hour ago, Rincevent said: Je travaille avec des bases de données sérieuses, pas avec des petits joujoux pour site Web. Mmmh tu as combien de milliards de transactions dans tes tables de faits ?
Rincevent Posté Mardi at 17:00 Signaler Posté Mardi at 17:00 Il y a 1 heure, Mathieu_D a dit : Mmmh tu as combien de milliards de transactions dans tes tables de faits ? Des tables de faits ? Mais quel architecte sérieux fait ça ? J'ai (presque...) des schémas de données en forme normale élevée, avec des clés étrangères et de l'intégrité, môssieur ! On cause de dizaines de mégas de code rien qu'avec le DDL et les SP/fonctions. (Non je plaisante on a aussi une solution de dataouarousse, mais je m'en occupe peu. En tous cas, OLAP-à-la-Kimball et OLTP sont aussi deux métiers différents, comme tu le sais.)
Mathieu_D Posté Mardi at 21:07 Signaler Posté Mardi at 21:07 Oui je pensais olap en effet, je n'ai jamais utilisé de llm dans un cadre oltp.
Bézoukhov Posté Mardi at 21:37 Signaler Posté Mardi at 21:37 Le 16/02/2026 à 17:18, cedric.org a dit : J'ai expliqué que j'ai gagné des jours de travail pour me concentrer sur ce qui est important Yep, mais tu comprendras que la « valeur » apportée par la constitution de rapports réglementaires est douteuse. Bien que de manière assez amusante, je m’attends à ce que les LLM fassent baisser à un point la valeur perçue de ces rapports, que personne n’osera en demander. Mais ce qui est intéressant, c’est plutôt de comprendre comment on cree de la vraie valeur avec. Honnêtement, je trouve que les codeurs qui l’utilisent jargonnent beaucoup trop pour que ce soit honnête ; même si mes propres tests me disent qu’il y a des trucs à faire. 1
cedric.org Posté Mardi at 22:30 Signaler Posté Mardi at 22:30 Concrètement ? mon boulot majoritairement technique rend les cas d'utilisations évidents. Cependant, récemment : - J'ai multiplié ma capacité de dévelopment par 3 tout en divisant le temps passé dessus par 2 (beaucoup de petites choses simples mais qui prenaient avant un temps fou à mon équipe sont désormais traitées en quasi-autonomie -> énormément de gain de temps pour creuser l'architecture) - J'ai automatisé une partie des analyses de problème de performance à plusieurs niveaux (des jours de travail à chaque fois. Il a tort une fois sur deux mais il me faut 5 minutes pour le comprendre versus plusieurs heures pour regarder moi-même. Et je pense que c'est parce que j'ai des mauvais prompts.). Le machin est branché à la knowledge base, au code, à slack et à la prod en read-only et donc possède toutes les informations qu'il faut pour comprendre et debug et me proposer des choses. - J'ai automatisé mes revues de codes (ou disons que j'ai mis un robot qui passe avant moi, qui fait des choses vraiment sympathiques la plupart du temps, et quand c'est idiot on rigole un bon coup et on l'ignore). - Celle la va te plaire : j'ai rationalisé avec l'aide de l'IA les revues de performance semestrielles, tout en m'aidant à améliorer mes pratiques (il lui faut de quoi manger -> je mets désormais par écrit l'ensemble des choses dites, positives comme négatives, en points réguliers avec mes collaborateurs). - J'automatise 80% de l'écriture de documentation technique et fonctionnelle à partir de mes échanges Slack, schémas compris. Il pond des choses très bien mais inutiles : mon boulot consiste à en supprimer la moitié et corriger les quelques lignes fausses. - J'ai analysé 8 ans d'augmentation de salaire & co pour me préparer à en demander une. Chose que j'aurais fait à l'arrache seul (donc que je n'aurais pas fait) Et ça, c'est uniquement ce que j'ai fait avec depuis décembre. Et oui, pour le fun, j'ai passé exactement 10 minute à ce CIR pour la première année, avec un sourire en coin, pour un rendu complètement dégueulasse mais très exactement fidèle à ce que j'en pense. Bref, j'ai l'impression d'avoir à côté de moi un PhD complètement autiste. Mais qui me fait gagner un temps fou. Et qui progresse de mois en mois. 4
Rincevent Posté Mardi at 22:32 Signaler Posté Mardi at 22:32 il y a une heure, Mathieu_D a dit : Oui je pensais olap en effet, je n'ai jamais utilisé de llm dans un cadre oltp. Je le répète depuis quelques posts, mais il y a peut-être une vraie raison à ça. Au moins pour le moment.
L'affreux Posté Mercredi at 06:25 Signaler Posté Mercredi at 06:25 Il y a 7 heures, Rincevent a dit : Je le répète depuis quelques posts, mais il y a peut-être une vraie raison à ça. Au moins pour le moment. Le seul argument qui pousserait à le croire, à savoir qu'un mec super bon en SQL Server a du mal à s'adapter et parle toujours de Google quand il recherche une information sur le Web, ne vaut pas grand chose.
Sloonz Posté Mercredi at 06:37 Signaler Posté Mercredi at 06:37 8 hours ago, Rincevent said: Je le répète depuis quelques posts, mais il y a peut-être une vraie raison à ça. Au moins pour le moment. Les raisons que tu cites n’ont rien à voir avec les LLMs en soit, et tout à voir avec il y a du travail (d’ingénierie) à faire, et des questions à se poser (d’orga/management) pour y arriver. Ce qui n’est pas choquant en soit. Il est même tout à fait raisonnable de dire "et c’est pas moi qui ferai ce travail, merci bien". Je réagis juste à l’attitude "j’y peux rien, le sql atteint les limites des llms", qui pour le coup… non. 2
Rincevent Posté Mercredi at 07:20 Signaler Posté Mercredi at 07:20 il y a 42 minutes, Sloonz a dit : "j’y peux rien, le sql atteint les limites des llms" Ce n'est pas vraiment ce que je dis, tu sais ?
Hugh Posté Mercredi at 14:08 Signaler Posté Mercredi at 14:08 J'ai lu un article qui m'a ouvert l'esprit sur ce sujet ; j'y réfléchis encore et je sais que je le relirai plus d'une fois. Je vous le recommande vivement. C'est peut-être une évidence flagrante pour tout le monde ici, mais pour moi, ce fut et c'est l'ouverture d'un nouveau monde. C'est la différence entre voir un éclair dans l'orage et avoir l'électricité chez soi, ou encore les Grandes Découvertes, ou... je ne sais même pas comment le décrire. Je vous recommande la lecture : c'est long, mais ça en vaut la peine. C'est en anglais, mais depuis le temps, la qualité des traductions par l'IA a réglé ce problème. Je vais en partager quelques extraits: https://shumer.dev/something-big-is-happening Citation Je ne suis plus nécessaire pour le travail technique concret de mon poste. Je décris ce que je veux construire, en anglais simple, et cela... apparaît, tout simplement. Pas un brouillon que je dois corriger. Le produit fini. Je dis à l'IA ce que je veux, je m'éloigne de mon ordinateur pendant quatre heures, et je reviens pour trouver le travail accompli. Bien fait, mieux que je ne l'aurais fait moi-même, sans aucune correction nécessaire. Il y a quelques mois, je faisais encore des allers-retours avec l'IA, je la guidais, je faisais des retouches. Maintenant, je décris simplement le résultat et je m'en vais. Laissez-moi vous donner un exemple pour que vous compreniez à quoi cela ressemble concrètement. Je dis à l'IA : 'Je veux construire cette application. Voici ce qu'elle doit faire, voici à peu près à quoi elle doit ressembler. Détermine le parcours utilisateur, le design, tout le reste.' Et elle le fait. Elle écrit des dizaines de milliers de lignes de code. Ensuite — et c'est la partie qui aurait été impensable il y a un an — elle ouvre l'application elle-même. Elle clique sur les boutons. Elle teste les fonctionnalités. Elle utilise l'application comme le ferait une personne. Si elle n'aime pas l'aspect ou le ressenti de quelque chose, elle revient en arrière et le modifie, de son propre chef. Elle itère, comme le ferait un développeur, corrigeant et peaufinant jusqu'à ce qu'elle soit satisfaite. C'est seulement une fois qu'elle a décidé que l'application répond à ses propres critères qu'elle revient vers moi et me dit : 'C'est prêt pour vos tests.' Et quand je la teste, elle est généralement parfaite. En 2022, l'IA ne pouvait pas effectuer d'arithmétique de base de manière fiable. Elle vous affirmait avec assurance que $7 \times 8 = 54$. En 2023, elle était capable de réussir l'examen du barreau. En 2024, elle pouvait écrire des logiciels fonctionnels et expliquer des concepts scientifiques de niveau universitaire. Fin 2025, certains des meilleurs ingénieurs au monde déclaraient avoir confié la majeure partie de leur travail de programmation à l'IA. Le 5 février 2026, de nouveaux modèles sont arrivés, faisant paraître tout ce qui les précédait comme appartenant à une autre époque. Si vous n'avez pas essayé l'IA ces derniers mois, ce qui existe aujourd'hui vous serait méconnaissable. C'est un autre monde. 3
Vilfredo Posté Jeudi at 18:10 Signaler Posté Jeudi at 18:10 J’aimerais bien réussir à comprendre une fois pourquoi je vois ça et ensuite je lis des gens qui m’expliquent ça : Citation 3. Humanoid Robots. Deployable dexterity will remain pathetic compared to human hands beyond 2036. Without new types of mechanical systems walking humanoids will remain too unsafe to be in close proximity to real humans. https://rodneybrooks.com/blog/ comment cette vidéo (et plein d’autres) ne montre-t-elle pas “deployable dexterity” en action? je m’intéresse beaucoup aux robots humanoïdes parce que, sans travailler dessus, je travaille dans un labo avec des gens qui travaillent là-dessus, et je ne comprends pas comment ces deux trucs peuvent être simultanément vrais! Quelqu’un pour éclairer ma lanterne?
Adrian Posté Jeudi at 18:45 Signaler Posté Jeudi at 18:45 Les robots humanoides sont générés par IA non (humain remplacé par des robots via IA) ? Jamais vu un robot faire du parkour comme ça.
Lancelot Posté Jeudi at 18:48 Signaler Posté Jeudi at 18:48 38 minutes ago, Vilfredo said: Quelqu’un pour éclairer ma lanterne? Probablement un cas de
fm06 Posté Jeudi at 19:04 Signaler Posté Jeudi at 19:04 Quelqu’un pour éclairer ma lanterne?Un robot tueur n’a pas besoin d’être humanoïde.La dextérité pour détecter des cibles et les éliminer est une chose. La dextérité pour se déplacer et agir en toute sécurité aux côtés d’êtres humains en est une autre.
Mégille Posté Jeudi at 20:56 Signaler Posté Jeudi at 20:56 La vidéo chinoise est quand même faite de plusieurs plans très courts. Faut voir si c'est aussi impressionnant sur au moins une minute d'affilée, et sans montage. On dirait que le robot ne sait pas recharger son arme lui-même. Je ne comprends pas très bien non plus à quoi sert l'aspirateur Dyson au dessus. Est si utile que ça d'avoir une "tête" ? Ca ressemble à un point faible inutile, surtout si des fonctions essentielles y sont situées. Je pense que ce sont des machines d'apparat, un peu comme des soldats en costume colorés qui feraient des pirouettes.
Vilfredo Posté Jeudi at 21:17 Signaler Posté Jeudi at 21:17 il y a 20 minutes, Mégille a dit : La vidéo chinoise est quand même faite de plusieurs plans très courts. Faut voir si c'est aussi impressionnant sur au moins une minute d'affilée, et sans montage. On dirait que le robot ne sait pas recharger son arme lui-même. Je ne comprends pas très bien non plus à quoi sert l'aspirateur Dyson au dessus. Est si utile que ça d'avoir une "tête" ? Ca ressemble à un point faible inutile, surtout si des fonctions essentielles y sont situées. Je pense que ce sont des machines d'apparat, un peu comme des soldats en costume colorés qui feraient des pirouettes. Il y a 2 heures, fm06 a dit : Un robot tueur n’a pas besoin d’être humanoïde. La dextérité pour détecter des cibles et les éliminer est une chose. La dextérité pour se déplacer et agir en toute sécurité aux côtés d’êtres humains en est une autre. Good points, merci
Vilfredo Posté il y a 17 heures Signaler Posté il y a 17 heures Il y a 23 heures, fm06 a dit : La dextérité pour se déplacer et agir en toute sécurité aux côtés d’êtres humains en est une autre. Le 19/02/2026 à 19:45, Adrian a dit : Les robots humanoides sont générés par IA non (humain remplacé par des robots via IA) ? Jamais vu un robot faire du parkour comme ça. What about https://x.com/IlirAliu_/status/2024560405335495052?s=20 1
fm06 Posté il y a 17 heures Signaler Posté il y a 17 heures Ce robot évolue très bien sur un parcours d’obstacles fixes. Est-il suffisamment sûr pour se balader au milieu d’un groupe d’êtres humains qui se déplacent? Quels seraient les effets d’une collision?
Vilfredo Posté il y a 16 heures Signaler Posté il y a 16 heures il y a une heure, fm06 a dit : Ce robot évolue très bien sur un parcours d’obstacles fixes. Est-il suffisamment sûr pour se balader au milieu d’un groupe d’êtres humains qui se déplacent? Quels seraient les effets d’une collision? Je n'y connais pas grand-chose mais si je prends ce que le mec dit au pied de la lettre, apparemment il improvise son parcours. Je ne dis pas qu'il peut manger deux hot dogs tout en tenant un latte en pleine discussion avec sa voisine et tout en surveillant son chien qu'il promène à travers les zones les plus bondées de Time Square, je dis juste que ça a l'air plus avancé qu'on peut penser
L'affreux Posté il y a 5 heures Signaler Posté il y a 5 heures Le 18/02/2026 à 15:08, Hugh a dit : Je vais en partager quelques extraits: https://shumer.dev/something-big-is-happening C'est un autre monde. Du coup je n'ai pas lu l'article, mais les extraits me paraissent exagérés. Citation Ensuite — et c'est la partie qui aurait été impensable il y a un an — elle ouvre l'application elle-même. Elle clique sur les boutons. Elle teste les fonctionnalités. Elle utilise l'application comme le ferait une personne. Si elle n'aime pas l'aspect ou le ressenti de quelque chose, elle revient en arrière et le modifie, de son propre chef. Je pense qu'il parle de Antigravity car c'est l'outil dont l'intégration avec Chrome est la plus poussé. Mais c'est simplement faux de laisser croire que l'outil utilise l'application comme le ferait une personne. Cela ressemble plus à un humain qui prendrait un screenshot, choisirait une seconde plus tard où cliquer, cliquerait, attendrait 2 secondes, reprendrait un screenshot etc. Bonjour la fluidité. C'est énorme et ça m'a complètement bluffé mais écrire "comme le ferait une personne" est un mensonge. Par ailleurs cet IDE m'a paru difficile à utiliser sur des projets existants. Antigravity ressemble à une voiture à conduite autonome à une époque où la conduite autonome n'est pas si aboutie que cela. On ne va pas partout avec. Citation En 2022, l'IA ne pouvait pas effectuer d'arithmétique de base de manière fiable. Elle vous affirmait avec assurance que $7 \times 8 = 54$. En 2023, elle était capable de réussir l'examen du barreau. En 2024, elle pouvait écrire des logiciels fonctionnels et expliquer des concepts scientifiques de niveau universitaire. Fin 2025, certains des meilleurs ingénieurs au monde déclaraient avoir confié la majeure partie de leur travail de programmation à l'IA. Ici l'auteur "cherry-picke" pour faire croire que les problèmes du début ont été réglés. À ma connaissance de nombreux détails s'améliorent mais rien de fondamental n'a changé. Il y a un an, Sam Altman et Elon Musk prétendaient que leurs LLM avaient des "niveaux PhD" alors qu'ils se trompaient sur 1.9 > 1.11. Ces déclarations étaient stupides à l'époque, elles le seraient toujours aujourd'hui. Mon métier est la programmation et je confie effectivement "la majeure partie de mon travail de programmation à l'IA". Ce point est vrai, notre métier a changé en 2025, il continue à changer à une vitesse ahurissante et nous ignorons jusqu'où cela ira. En revanche l'affirmation du début : Citation Je ne suis plus nécessaire pour le travail technique concret de mon poste ... est fausse.
Sloonz Posté il y a 4 heures Signaler Posté il y a 4 heures 25 minutes ago, L'affreux said: alors qu'ils se trompaient sur 1.9 > 1.11. Je serai pas surpris qu’ils se trompent toujours. (et ils ne se trompaient pas sur 1.9 > 1.11 mais 1.9 - 1.11) On sait pourquoi ils faisaient (font ?) ça, c’est l’équivalent d’une illusion d’optique pour les LLMs. Les LLMs utilisent un ensemble d’heuristiques pour répondre à des problèmes simples d’arithmétique, dont l’heuristique "quel nombre est le plus grand", qui active l’heuristique "quelle version d’un logiciel est plus récente que l’autre" quand les chiffres ressemblent à des versions de logiciel. Oups. Ton PhD humain a également des tonnes "d’illusions d’optique", y compris au niveau non-visuel. Ça n’est pas clairement indicatif du reste des capacités en situation "normale".
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant