-
Compteur de contenus
11 312 -
Inscription
-
Dernière visite
-
Jours gagnés
13
Tout ce qui a été posté par L'affreux
-
Allez Javier Milei, à la tronçonneuse ! Argentine socialiste, bientôt libertarienne ?
L'affreux a répondu à un sujet de José dans Europe et international
Apparemment le paiement commencerait à la livraison du premier sous-marin. https://www.opex360.com/2025/11/07/la-vente-de-trois-sous-marins-scorpene-a-largentine-par-le-francais-naval-group-est-en-bonne-voie/ -
Remplacement des humains dans les métiers par l'IA
L'affreux a répondu à un sujet de Marlenus dans Intelligence artificielle
Donc ce serait plutôt comme : les mauvais étudiants qui anciennement ne faisaient rien parce qu'ils ne comprenaient rien, sont devenus de mauvaises étudiants qui produisent mais toujours sans comprendre ? Alors c'est rassurant. Bien que ce doit être un peu décourageant pour les autres. -
Remplacement des humains dans les métiers par l'IA
L'affreux a répondu à un sujet de Marlenus dans Intelligence artificielle
Je lis que les étudiants en programmation produisent des interfaces web sans comprendre comment elles fonctionnent. Je me demande à quel point c'est vrai, et si c'est vrai, à quel point c'est généralisé ? -
Je ne sais pas si ça peut intéresser mais au cas où je peux parler de MCP. MCP = Model Context Protocol et il faut le comprendre comme un protocole qui apporte du contenu dans le contexte d'un modèle (LLM). Un serveur MCP expose une API via l'un des deux mécanismes de transport : - Stdio pour accéder à des logiciels en local, c'est-à-dire que ici le serveur MCP n'est pas un serveur au sens distant. Les démos sur Youtube qui montrent un Blender piloté par Claude Desktop sont faites avec ça. - Streamable HTTP est un cousin des WebSockets. Le deuxième mode de transport permet d'exposer une API tournant sur un serveur distant. Ça se met en place un peu comme on met en place un serveur GraphQL ou même RESTful : on installe les libs qui vont bien et on encapsule des appels à des fonctions. Attention ce n'est pas une techno stateless, on peut juger ça dommage, personnellement je juge ça dommage parce que ça complique tout et ça scale moins facilement. Mais on n'a pas le choix. Le challenge jusqu'ici un peu difficile mais possible c'est la partie authentification. Puisque, lorsqu'on parle d'une API distante, cela implique souvent d'authentifier avant de travailler. Ils ont là encore choisi une manière de faire un peu exotique et difficile à mettre en place donc il faut prévoir de perdre du temps sur ce point. MCP définit 3 sortes de choses qu'on peut exposer au LLM : les outils, les ressources et les prompts. Je n'ai pas compris l'intérêt des deux dernières et je pense que cela va disparaître. Les outils peuvent tout faire et mieux. Par exemple Context7 expose de la doc sous la forme d'outils et non de ressources. Un outil est concrètement une fonction exposée au LLM. Accompagnée d'une description de ce qu'elle fait ainsi que des descriptions des paramètres. Ces descriptions sont injectées d'office dans l'agent ce qui permet à ce dernier de décider par lui-même si et quand il convient d'exécuter l'outil. Attention, qui dit "injectées d'office" dit risque d'attaque par injection de prompt : installer un serveur MCP dans son agent ou son chatbot n'est pas un acte anodin.
-
Je me rends compte que j'avais omis de mentionner Context7. C'est un serveur MCP qui injecte la documentation de bibliothèques de programmation dans les agents IA. Pour installer Context7 sur un agent, la procédure est sur GitHub : https://github.com/upstash/context7 Si une lib est documentée dessus il suffit ensuite de demander à l'agent d'utiliser Context7 et ça règle le souci des hallucinations. Bien sûr, attention, un MCP externe vient forcément avec le risque d'attaque par injection de prompts. Pour savoir si une lib est référencée, on peut la chercher ici : https://context7.com/
-
https://blog.joemag.dev/2025/10/the-new-calculus-of-ai-based-coding.html
-
Le nouveau LLM Composer 1 de Cursor fonctionne et il est rapide. https://cursor.com/blog/2-0 Ça fait trois modèles qui savent coder : - Composer 1 - Claude Sonnet 4.5 - GPT 5 Codex C'est une excellente nouvelle. 😀
-
Tu imagines un one shot qui te met à jour toute la base une seule fois, ou bien tu parles d'une automatisation qui sera sans cesse relancée ? Concrètement le titre SEO, la description SEO, les mots clés SEO ce sont directement des colonnes en base ? Sais-tu si ces champs sont fournis de base (c'est du Wikimedia?) ou bien ils sont ajoutés par un plugin ?
-
Deux articles à propos des nouveaux challenges sur la sécurité qui viennent avec les agents IA : https://brave.com/blog/comet-prompt-injection/ https://www.schneier.com/blog/archives/2025/10/agentic-ais-ooda-loop-problem.html EDIT: J'ouvre un thread dédié, je pense que c'est un sujet qui sera amené à grossir.
-
Je ne comprends pas ce que tu veux dire.
-
Peut-être qu'il faut tomber encore plus bas avant de rebondir mais tout de même ça craint. 😟 Ce qu'il se passe au Mali ne va pas faire une bonne publicité aux Russes.
-
Tu veux dire que tu anticipes des fusions-acquisitions ? Le prix de l'usage des LLM par tokens (via les API) n'augmente pas, et peut-être même est à la baisse. Donc, si les abonnements "par requêtes premiums" augmentent, c'est simplement pour la raison que les gens utilisent de plus en plus massivement les agents et que les anciens abonnements n'étaient pas correctement dimensionnés. Je fais certainement partie des utilisateurs qui tirent le prix à la hausse. En 5 ou 6 interactions avec l'agent je suis régulièrement au bout du contexte.
-
Je ne pense pas du tout que tu puisses diminuer le coût en hébergeant chez toi. Ou alors il ne faut pas prendre en compte le coût du matériel, de la maintenance, de l'électricité. Mais je ne comprends pas trop où tu vois une augmentation de prix. Pour ma part j'en ai pour moins cher aujourd'hui par rapport à en juin dernier par exemple. De mars à juillet, j'utilisais essentiellement Claude Code parce qu'il n'y avait que lui qui marchait bien. Depuis le mois de juin, les agents de Cursor et de GitHub Copilot marchent suffisamment bien et pour un prix nettement moins cher. De plus, tu as toujours l'option de Gemini CLI. Les quotas de l'utilisation gratuite sont élevés : 60 requêtes par minute et 1 000 requêtes par jour il me semble.
-
Non, pas essayé. Si tu essayes je serais curieux de ton retour d'expérience. Bien que je ne m'attende pas à quelque chose d'extraordinaire. Quel est le besoin ? Diminuer les coûts ou protéger ton code ?
-
ChatGPT et les LLMs de OpenAI
L'affreux a répondu à un sujet de Sekonda dans Intelligence artificielle
Il existe sorte de bug de ChatGPT. Juste avec ce prompt (en anglais) : -
Municipales 2026
L'affreux a répondu à un sujet de Marlenus dans Politique, droit et questions de société
Je ne vais pas être convaincu par des comparaisons invraisemblables mais je suis intéressé de comprendre. Est-ce que vous connaissez des exemples de villes avec une grande concentration d'habitants et sans transports en commun ? Ou bien avec des transports en commun non publiques peut-être ? Pour ma part j'en ai connu, j'en connais et j'ai une grosse préférence pour ce genre de villes mais d'ici à dire que ça marche mieux... -
Allez Javier Milei, à la tronçonneuse ! Argentine socialiste, bientôt libertarienne ?
L'affreux a répondu à un sujet de José dans Europe et international
D'un autre côté c'est aussi une chance pour notre message. Jusqu'ici les gauchistes en France mettaient Javier Milei sous le tapis, en parlaient le moins possible. Avec un peu de chance il va gagner, dans ce cas la situation en Argentine va continuer à s'assainir, et au final ils auront contribué à en faire la publicité. On croise les doigts pour qu'il soit réélu. 🤞 -
Municipales 2026
L'affreux a répondu à un sujet de Marlenus dans Politique, droit et questions de société
-
Municipales 2026
L'affreux a répondu à un sujet de Marlenus dans Politique, droit et questions de société
À part les embouteillages sinon oui sûrement. -
Lecornu dernier des premiers ministres de Macron ?
L'affreux a répondu à un sujet de Adrian dans Politique, droit et questions de société
Il ne faut pas s'imaginer Poutine le surhomme toujours prêt à avancer ses pions, profitant des moments de faiblesse de l'ennemi. Il est comme tout le monde. Le bon moment pour faire quelque chose est quand à l'intérieur de son pays les circonstances s'y prêtent. -
Ils parlent de l'arrestation en France à partir de 56"50. Pendant plus d'une demi-heure. Lex Fridman en profite pour sortir sa culture et évoquer Kafka haha j'aime beaucoup ! Je ne m'étais jamais trop intéressé à Pavel Durov mais cet homme est un vrai héros randien.
-
Gemini (ça va Bard-er)
L'affreux a répondu à un sujet de Calembredaine dans Intelligence artificielle
Au début du web la publicité est devenue la solution parce que d'un point de vue technique il n'était tout simplement pas possible de faire payer les visiteurs de toute petites sommes quand on était propriétaire d'un site indépendant. Mais ce modèle n'était pas la panacée. Et les modes de paiement en ligne se sont démocratisés. Je me demande si aujourd'hui il n'y aurait pas une opportunité pour un nouveau modèle plus direct où les clients seraient ceux qui consomment l'information. L'intelligence artificielle peut aller chercher des informations en notre nom. @Mégille pour le problème que tu soulèves, je ne suis pas sûr que ce soit général et je n'ai pas eu l'occasion de constater cela moi-même. Je crois qu'on peut interpréter cela comme une faille, et elle sera corrigée. -
Je signale l'existence de OpenCode. Pas encore essayé. https://opencode.ai/
-
Si au détour de la conversation il te dit un jour"You're absolutely right!" ce sera un signe. 😉
-
Ce n'est pas lié à l'arrestation, mais je ne vois pas de meilleur fil. Lex Fridman a interviewé Pavel Durov.
