-
Compteur de contenus
11 405 -
Inscription
-
Dernière visite
-
Jours gagnés
14
Messages postés par L'affreux
-
-
Il y a 14 heures, Adrian a dit :
Maintenant j'ai un doute sur si c'est réel.
-
J'ai détaché ici le sujet de Anthropic vs le DoW :
-
La communication de Anthropic :
CitationWe have not yet received direct communication from the Department of War or the White House on the status of our negotiations.
[…]
Designating Anthropic as a supply chain risk would be an unprecedented action—one historically reserved for US adversaries, never before publicly applied to an American company.
[…]
Secretary Hegseth has implied this designation would restrict anyone who does business with the military from doing business with Anthropic. The Secretary does not have the statutory authority to back up this statement. Legally, a supply chain risk designation under 10 USC 3252 can only extend to the use of Claude as part of Department of War contracts—it cannot affect how contractors use Claude to serve other customers.Source : https://www.anthropic.com/news/statement-comments-secretary-war
Traduction :
CitationNous n'avons pas encore reçu de communication directe du ministère de la Guerre ou de la Maison Blanche concernant l'état d'avancement de nos négociations.
[…]
Désigner Anthropic comme un risque pour la chaîne d'approvisionnement serait une mesure sans précédent, historiquement réservée aux adversaires des États-Unis et jamais appliquée publiquement à une entreprise américaine.
[…]
Le secrétaire Hegseth a laissé entendre que cette désignation empêcherait toute personne faisant affaire avec l'armée de traiter avec Anthropic. Le secrétaire n'a pas l'autorité légale pour étayer cette déclaration. Légalement, une désignation de risque pour la chaîne d'approvisionnement en vertu de l'article 10 USC 3252 ne peut s'étendre qu'à l'utilisation de Claude dans le cadre des contrats du ministère de la Guerre ; elle ne peut affecter la manière dont les entrepreneurs utilisent Claude pour servir d'autres clients.
-
Le 28/02/2026 à 09:47, Sloonz a dit :
Ce qui signifie essentiellement (si ce n’est pas du bluff) que Nvidia et Amazon vont devoir choisir entre fournir ses services à l’armée ou à Anthropic. Il va sans dire que Anthropic ne peut survivre sans ces deux fournisseurs.
Je suis tenté de détacher ton post pour créer un nouveau sujet. [EDIT : C'est fait.] Si ces conséquences venaient à être confirmées, la chute d'Anthropic serait un choc majeur dans le monde de l'IA. Et une perte bien difficile à remplacer. Si le gouvernement américain se permet de fermer une boutique de cette manière, cela risque de donner envie d'aller voir chez les Chinois.
OpenAI a accepté les termes du DoW.
-
1
-
-
L'interview du créateur de OpenClaw par Lex Fridman.
Il parle notamment de mecs dans les crypto-monnaies et les malwares qui l'ont harassé, et de la difficulté qu'il a eu à changer le nom de son projet.
-
Je viens de détacher un sujet dédié à OpenClaw.
-
Il y a 10 heures, Azref a dit :
Il y a moyen de forcer même après le résumé du contexte précédent de toujours maintenir les instructions SYSTEM/USER pour éviter ce genre de choses.
Oui mais ce n'est pas fait. C'est pourquoi je parlais d'un problème d'ingénierie. Ce serait effectivement possible de faire cela avec les technologies dont on dispose. Mais nos outils ne le font pas. Et quand je parle de nos outils je parle de ce que je connais bien : Claude Code, GitHub Copilot, Cursor. Vu ce qui est arrivé à la dame, j'ai supposé qu'il en va de même pour OpenClaw.
-
il y a une heure, Liber Pater a dit :
Pour le néophyte, en quoi consiste le compactage ?
C'est simplement un résumé.
Il y a une taille maximum à une discussion avec un LLM, en nombre de tokens (les tokens sont des sous-parties de mots). Cette taille maximum dépend du LLM. Une fois qu'elle est atteinte, on ne peut plus rien ajouter et donc la session est perdue. La solution qui a été imaginée est de s'arrêter avant la limite : vers peut-être 80 % de la capacité, le logiciel donne automatiquement l'ordre au LLM de faire un résumé de tout ce qui est dans la session (et donc le reste de la session sert à cela). Ce résumé est ensuite réinjecté dans une session neuve. Pour l'utilisateur c'est plus ou moins transparent. Mais bien sûr de nombreuses informations sont perdues par ce processus.
-
2
-
-
Il y a 2 heures, Azref a dit :
mais si elle parle d'un mac mini je ne pense pas qu'il s'agisse du modèle le plus performant
C'est OpenClaw je pense. Le Mac Mini ne sert pas forcément à faire tourner le LLM en local. C'est plutôt une machine mise à disposition du robot.
-
Il y a 2 heures, Azref a dit :
C'est une erreur de débutant, normalement ce genre d'instructions doivent toujours être dans le contexte actif du modèle.
C'est surtout un problème d'ingénierie qui n'est pas résolu aujourd'hui. Et c'est vrai que ça nous ferait du bien si les outils avaient une option pour s'arrêter, éventuellement gérer d'une manière plus maîtrisée, au lieu de compacter automatiquement. Le compactage est opaque et aléatoire.
-
Je n'ai toujours pas compris pourquoi les USA veulent changer le gouvernement d'Iran. Quelles sont les hypothèses ?
-
il y a 5 minutes, Lancelot a dit :
MS Copilot, basé sur du GPT 5. C'est l'outil approuvé pour usage interne par mon université.
Ah OK. Si un jour ils approuvent aussi GitHub Copilot (c'est un outil différent mais GitHub appartient à Microsoft) et proposent de te payer un abonnement n'hésite pas.
-
Il y a 2 heures, Lancelot a dit :
Donc une meilleure stratégie de prompt ressemble plutôt à "écris une fonction en Python qui génère une liste de nombre avec tel ensemble de contraintes, une autre fonction qui diagnostique que les contraintes sont respectées, puis applique ces deux fonctions et donne-moi le résultat".
Si tu as régulièrement besoin de ce genre de scripts, ça vaut le coup de les réunir au même endroit parce que c'est plus efficace de partir d'exemples existants et d'expliquer à l'agent que tu veux "un peu la même chose que ce truc-là mais avec telle modification".
Aussi je ne sais pas quel outil tu utilises ? Pour ce genre de besoin, l'idéal c'est un agent de programmation plutôt qu'un simple chatbot.
-
Je ne vois pas une issue heureuse possible à ceci.
Que le régime iranien se fasse écraser ou résiste, nous aurons comme conséquences : l'islam radical va progresser, la circulation des armes va augmenter.
-
Le 18/02/2026 à 15:08, Hugh a dit :
Je vais en partager quelques extraits: https://shumer.dev/something-big-is-happening
C'est un autre monde.
Du coup je n'ai pas lu l'article, mais les extraits me paraissent exagérés.
CitationEnsuite — et c'est la partie qui aurait été impensable il y a un an — elle ouvre l'application elle-même. Elle clique sur les boutons. Elle teste les fonctionnalités. Elle utilise l'application comme le ferait une personne. Si elle n'aime pas l'aspect ou le ressenti de quelque chose, elle revient en arrière et le modifie, de son propre chef.
Je pense qu'il parle de Antigravity car c'est l'outil dont l'intégration avec Chrome est la plus poussé. Mais c'est simplement faux de laisser croire que l'outil utilise l'application comme le ferait une personne. Cela ressemble plus à un humain qui prendrait un screenshot, choisirait une seconde plus tard où cliquer, cliquerait, attendrait 2 secondes, reprendrait un screenshot etc. Bonjour la fluidité.
C'est énorme et ça m'a complètement bluffé mais écrire "comme le ferait une personne" est un mensonge.
Par ailleurs cet IDE m'a paru difficile à utiliser sur des projets existants. Antigravity ressemble à une voiture à conduite autonome à une époque où la conduite autonome n'est pas si aboutie que cela. On ne va pas partout avec.
CitationEn 2022, l'IA ne pouvait pas effectuer d'arithmétique de base de manière fiable. Elle vous affirmait avec assurance que $7 \times 8 = 54$. En 2023, elle était capable de réussir l'examen du barreau. En 2024, elle pouvait écrire des logiciels fonctionnels et expliquer des concepts scientifiques de niveau universitaire. Fin 2025, certains des meilleurs ingénieurs au monde déclaraient avoir confié la majeure partie de leur travail de programmation à l'IA.
Ici l'auteur "cherry-picke" pour faire croire que les problèmes du début ont été réglés. À ma connaissance de nombreux détails s'améliorent mais rien de fondamental n'a changé. Il y a un an, Sam Altman et Elon Musk prétendaient que leurs LLM avaient des "niveaux PhD" alors qu'ils se trompaient sur 1.9 > 1.11. Ces déclarations étaient stupides à l'époque, elles le seraient toujours aujourd'hui.
Mon métier est la programmation et je confie effectivement "la majeure partie de mon travail de programmation à l'IA". Ce point est vrai, notre métier a changé en 2025, il continue à changer à une vitesse ahurissante et nous ignorons jusqu'où cela ira. En revanche l'affirmation du début :
CitationJe ne suis plus nécessaire pour le travail technique concret de mon poste
... est fausse.
-
1
-
-
Un autre exemple ici :
À 1:12:24.
-
Il y a 7 heures, Rincevent a dit :
Je le répète depuis quelques posts, mais il y a peut-être une vraie raison à ça. Au moins pour le moment.
Le seul argument qui pousserait à le croire, à savoir qu'un mec super bon en SQL Server a du mal à s'adapter et parle toujours de Google quand il recherche une information sur le Web, ne vaut pas grand chose.
-
il y a une heure, Rincevent a dit :
Merci. (Là on parle plutôt de milliers, on doit même dépasser allègrement la dizaine de milliers).
Ah oui c'est épais haha !
Mais ça vaut d'autant plus le coup.
-
il y a 57 minutes, Rincevent a dit :
Je suppose que le concept de confidentialité des données ne t'est pas étranger.
Nous ne sommes pas en train de discuter sur la manière de donner accès à un agent IA aux données de production.
-
il y a 4 minutes, Rincevent a dit :
Sinon j'ai récemment NotebookLM, et ça par contre c'est pas mal satisfaisant pour explorer rapidement une bibliographie / savoir si tel ou tel bouquin mérite d'être vraiment lu.
C'est aussi assez génial pour essayer de comprendre ce qu'il faut faire quand tout ce qu'on a c'est la spécification gigantesque d'une norme dont on n'a pas envie de comprendre tous les recoins.
-
il y a 16 minutes, Rincevent a dit :
Si c'est l'art de garder le bon contenu dans la fenêtre de contexte du LLM, alors je veux bien mais je ne vois toujours pas quel LLM donnerait des résultats pertinents (et de quelle manière) pour un DBA applicatif.
Oui ta définition est bonne.
Concernant tes interrogations, je ne suis pas DBA applicatif, je n'en ai pas dans mon entourage, donc je n'ai pas de réponse. Pour savoir il faut essayer. Sachant qu'au départ on perd du temps.
-
Les mecs, parler avec ChatGPT c'est bien mais ça fait 3 ans. Ça ne vous donne littéralement aucune idée de où en est l'état de l'art.
Ce qu'il s'est passé en 2025 a été une disruption majeure dans le monde du développement logiciel. Ce début 2026 la bureautique est en train de suivre.
Cela dit, même si aujourd'hui en février 2026 les développeurs qui sont restés derrière sont en train de rater le train, dans ma compréhension, ce n'est pas encore le cas pour la plupart des autres métiers. 2025 était vraiment l'année du changement des développeurs.
EDIT : D'ailleurs il est possible que ce soit trop réducteur de parler de bureautique pour Cowork. J'ai l'impression qu'il s'agit du logiciel de Claude Code mis dans une interface prête à être branchée avec de très nombreux outils.
Il y a 12 heures, Mathieu_D a dit :Attention avec le bon *context engineering* c'est un sauce toute différente.
Précisément.
-
1
-
-
Il n'empêche que SQL est un langage bien compris par les agents. La vraie raison qui fait que tu n'utilises pas l'intelligence artificielle, c'est parce que ton employeur te l'interdit.
-
il y a 25 minutes, Rincevent a dit :
Je n'ai pas pu essayer personnellement parce que ma boîte n'aime pas cette idée, en tous cas a priori (les données personnelles de santé, c'est sensible) mais les MVP habituels (du genre de Brent Ozar) ne sont clairement pas satisfaits, ou pas encore.
J'avoue ne pas savoir ce qu'est Brent Ozar. Je n'ai pas non plus le droit, dans ma boîte, de donner accès aux données à un agent IA. En revanche le DDL je peux (on ne parle pas d'un ChatGPT perso, mais plutôt d'un Cursor payé par la boîte) et donc j'ai de l'aide sur les requêtes SQL.

Iran - Longue vie au Shah ?
dans Europe et international
Posté
What?