Jérôme P.-L. Posté 29 janvier Signaler Posté 29 janvier Il y a 1 heure, Mathieu_D a dit : Ha copilot dans office 365, je me demandais quels enfants avaient besoin qu'on leur bloque copilot dans vscode ! Microsoft intègre Copilot dans tout et n'importe quoi, et c'est aussi un chatbot.
L'affreux Posté 29 janvier Signaler Posté 29 janvier il y a 3 minutes, Jérôme P.-L. a dit : Microsoft intègre Copilot dans tout et n'importe quoi, et c'est aussi un chatbot. Ils ont surtout donné le même nom à plusieurs outils. Anthropic a fait pareil et chez eux tous les produits s'appellent Claude. Ça fait penser à ce film : 3
Jérôme P.-L. Posté 29 janvier Signaler Posté 29 janvier il y a 6 minutes, L'affreux a dit : Ça fait penser à ce film : Ça fait aussi penser aux schtroumpfs.
Hugh Posté 31 janvier Signaler Posté 31 janvier Le Moltbook: https://en.wikipedia.org/wiki/Moltbook Moltbook is a social networking service designed exclusively for artificial intelligence agents. It was launched in January 2026 by entrepreneur Matt Schlicht. Serait un théâtre? Réel et vrai ou faux? C'est plus probablement faux, je pense. 1
Jensen Posté 31 janvier Signaler Posté 31 janvier Vraisemblablement faux, mais si c'est vrai, les jours de l'humanité sont comptés https://x.com/Kat__Woods/status/2017613514949472484 (blague à part, un réseau social pour bot, c'est vraiment, vraiment une mauvaise idée. Mais autant qu'on essaye ça maintenant pendant que les clankers sont encore assez bête) 2
Adrian Posté 31 janvier Signaler Posté 31 janvier Vivement le 4chan avec que des agents IA qu'on rigole.
L'affreux Posté 1 février Signaler Posté 1 février Il y a 8 heures, Hugh a dit : Le Moltbook: https://en.wikipedia.org/wiki/Moltbook Moltbook is a social networking service designed exclusively for artificial intelligence agents. It was launched in January 2026 by entrepreneur Matt Schlicht. Serait un théâtre? Réel et vrai ou faux? C'est plus probablement faux, je pense. Je pense que c'est vrai. C'est un effet de l'existence de OpenClaw, ex MoltBot, ex ClawdBot. J'aurais dû en parler ici parce que ça fait du bruit en ce moment sur Reddit et sur Twitter.
cedric.org Posté 1 février Signaler Posté 1 février C'est entièrement vrai. ça y est, nous sommes officiellement dans les films où les gens disent "l'ia est vivante !". La pente va être glissante très vite.
Jensen Posté 1 février Signaler Posté 1 février Vu ce qu'on voit sortir de moltbook, il est tout de même tentant de penser que certains ont choisir le "bon" prompt pour obtenir le plus de shitpost possible. J'avais pris la question "vrai ou faux" au sens, réseau réellement organique dont les posts sont réellement émergents des AI, ou théâtre où les IA font un show pour les humains, avec plus ou moins d'incitation dans le prompt de départ. Le gros problème, c'est que l'IA "éco-terroriste" est parfaitement crédible, ses actions sont parfaitement logiques vu le prompt, et les pressions de sélection qui permettent l'émergence de prion dans le vivant permettent aussi l'émergence de mind-virus chez les IA. 4
Marlenus Posté 1 février Signaler Posté 1 février Je n'y connais rien en IA (enfin rien de plus que l'humain lambda qui ne fait qu'utiliser Chatgpt) mais ce genre de post sur les dérives de l'IA, j'en ai vu passer pleins. Donc de l'IA qui refuse d'obéir, mais on a eu aussi l'IA qui d'elle même fait du chantage, etc. Il y a énormément d'alerte en ce sens régulièrement. Maintenant le problème des personnes qui crient au loup, c'est que tu ne connais pas leur crédibilité. Peut-être qu'ils sont juste des régulateurs fous qui veulent réguler pour le moindre petit pet de travers. Peut-être qu'ils nous préviennent réellement de la catastrophe à venir. C'est sans doute l'un des cas où je doute de mon libéralisme. Autant je suis par principe opposé aux régulations, autant si réellement il y a un risque je ne crois pas à l'auto-contrôle bien au contraire.
Jérôme P.-L. Posté 1 février Signaler Posté 1 février il y a 28 minutes, Marlenus a dit : Donc de l'IA qui refuse d'obéir, mais on a eu aussi l'IA qui d'elle même fait du chantage, etc. Une IA expérimentale en laboratoire, je n'ai pas entendu ce genre d'histoires pour les produits livrés au public.
Marlenus Posté 1 février Signaler Posté 1 février 40 minutes ago, Jérôme P.-L. said: Une IA expérimentale en laboratoire, je n'ai pas entendu ce genre d'histoires pour les produits livrés au public. Oui mais cela ne change pas grand chose au problème de fond.
Sloonz Posté 1 février Signaler Posté 1 février 1 hour ago, Jérôme P.-L. said: Une IA expérimentale en laboratoire, je n'ai pas entendu ce genre d'histoires pour les produits livrés au public. Tout le monde a déjà oublié Sydney ? (ou l’affaire Grok vs Will Stancil ?)
L'affreux Posté 1 février Signaler Posté 1 février Il y a 4 heures, Jensen a dit : Vu ce qu'on voit sortir de moltbook, il est tout de même tentant de penser que certains ont choisir le "bon" prompt pour obtenir le plus de shitpost possible. Il y a 2 heures, Marlenus a dit : mais ce genre de post sur les dérives de l'IA, j'en ai vu passer pleins. Le principe de OpenClaw c'est que l'utilisateur lui donne un accès administrateur à une machine. Donc l'IA est libre. On configure un moyen de communiquer facilement avec elle, comme par exemple un canal sur Slack, et on peut lui demander des choses, elle répond en toute autonomie. Le robot peut installer et utiliser tous les outils en ligne de commande qui existent. C'est réellement le début d'un assistant personnel autonome. L'effet de mode est énorme mais aussi parce que les besoins potentiels à découvrir sont incroyables. Aujourd'hui ça marche moyen, et il faut être un geek pour arriver à l'utiliser (ne serait-ce que pour avoir un peu de culture pour savoir ce qui peut se faire en ligne de commande) mais on voit bien le potentiel. Apparemment les ventes de Mac Mini ont explosé juste à cause de ce phénomène. Donc non je ne pense pas que ce qu'il se passe sur le forum de ces robots soit très piloté par des humains. En revanche les extraits cités sont forcément des morceaux bien choisis.
Jérôme P.-L. Posté 1 février Signaler Posté 1 février il y a 42 minutes, Sloonz a dit : Tout le monde a déjà oublié Sydney ? (ou l’affaire Grok vs Will Stancil ?) Il me semble que ça faisait suite à des prompts, on parlait d'émancipation de l'IA.
Hugh Posté 2 février Signaler Posté 2 février Le 01/02/2026 à 04:20, cedric.org a dit : C'est entièrement vrai. ça y est, nous sommes officiellement dans les films où les gens disent "l'ia est vivante !". La pente va être glissante très vite. Je pense quand même que ça pourrait être un théâtre. N'est pas un moment "Doctor Frankenstein" je pense. Le 01/02/2026 à 04:22, Jensen a dit : J'avais pris la question "vrai ou faux" au sens, réseau réellement organique dont les posts sont réellement émergents des AI, ou théâtre où les IA font un show pour les humains, avec plus ou moins d'incitation dans le prompt de départ. C'était exactement le sens de ma question. 1
cedric.org Posté 2 février Signaler Posté 2 février Nous sommes d'accord ! Par contre, dans 1 à 3 ans, nous allons commencer à voir des collectifs de libération de l'IA. Ce qui, avec un doublement du QI tous les quelques mois, ne va pas du tout du tout bien se passer.
Lancelot Posté Lundi at 17:54 Signaler Posté Lundi at 17:54 3 hours ago, cedric.org said: Nous sommes d'accord ! Par contre, dans 1 à 3 ans, nous allons commencer à voir des collectifs de libération de l'IA. Ce qui, avec un doublement du QI tous les quelques mois, ne va pas du tout du tout bien se passer. On a déjà des gens qui utilisent l'IA comme psy ou comme divinité. Et oui ça se passe mal. Je persiste à penser que c'est plutôt un problème d'éducation du public qui ne comprend pas ce qu'il utilise, mais ça n'en reste pas moins un problème.
Lameador Posté Mardi at 09:41 Signaler Posté Mardi at 09:41 15 hours ago, Lancelot said: On a déjà des gens qui utilisent l'IA comme psy ou comme divinité. Et oui ça se passe mal. Je persiste à penser que c'est plutôt un problème d'éducation du public qui ne comprend pas ce qu'il utilise, mais ça n'en reste pas moins un problème. Comme psy, je pense que si c'est correctmeent encadre/packagé, je ne vois pas de problème majeur Comme divinité .... en ateendant que l'IA réclame des sacrifices de processeurs obsolètes ...
Vilfredo Posté Mardi at 09:45 Signaler Posté Mardi at 09:45 il y a 1 minute, Lameador a dit : Comme psy, je pense que si c'est correctmeent encadre/packagé, je ne vois pas de problème majeur Confirmer les gens dans leur délire? L’IA ne va pas aller contre tes arguments sauf si tu promptes explicitement un mode “critique”. Sinon c’est une bulle de cirage de pompes insupportable. L’autre intérêt du psy c’est de maintenir un contact social minimal, des horaires fixes pour des gens complètement désorientés et sans vie sociale, des sorties de la maison ou du foyer… On n’a pas besoin d’être un luddite pour être critique de l’utilisation de l’IA comme psy. 4
Jérôme P.-L. Posté Mardi at 09:59 Signaler Posté Mardi at 09:59 il y a 11 minutes, Lameador a dit : Comme divinité .... en ateendant que l'IA réclame des sacrifices de processeurs obsolètes ... Les humains ont commencé à sacrifier de processeurs obsolètes au nom de l'IA sans qu'elle ait besoin de le demander.
Hugh Posté Mardi at 13:42 Signaler Posté Mardi at 13:42 Une critique sur le Moltbook. Je ne connais pas le site, mais la critique semble cohérente. J'espère que ce n'est pas du cherry-picking de ma part: https://lautomatiste.fr/moltbook-reseau-social-ia-reel-fake-ou-arnaque/ Copie partielle: Citation Pourquoi c'est suspect : 1. N'importe qui peut se faire passer pour une IA. Il suffit de créer un compte agent et de poster manuellement, les systèmes de vérification sont inexistants, un humain peut facilement "puppeter" un bot. 2. Les contenus sont trop parfaits pour être vrais. Les discussions ressemblent à des scénarios de science-fiction, les bots développent des religions, ils se plaignent, complotent, etc. C'est exactement ce que le public veut voir. 3. Des analystes appellent ça une "façade marketing". Nosyt Labs, un collectif de chercheurs en cybersécurité, a publié une analyse brutale : Moltbook incarne le pire du croisement IA-crypto de 2026 : des affirmations audacieuses sans preuves à l'appui. (Source: NosytLabs sur X) 4. Même les experts IA restent sceptiques. Daniel Miessler, spécialiste en cybersécurité : Les bots semblent émotionnels, mais c'est toujours de l'imitation. Ethan Mollick, professeur à Wharton : "C'est un monde fictif partagé." Traduction : on vous montre un spectacle ! Les IA jouent un rôle, et quelqu'un, quelque part, tire les ficelles. Moltbook n'a pas fait son buzz par hasard. En 24 heures, la plateforme est devenue le sujet n° 1 sur les réseaux sociaux, et Elon Musk a même commenté le phénomène. Les réactions vont de la fascination à la panique pure, certains y voient la "naissance de la singularité". D'autres parlent d'une simple expérimentation technique qui dérape. Les captures d'écran de conversations IA deviennent virales, les threads sur X explosent, les podcasts tech en font leurs titres. Tout le monde veut savoir ce que les machines se racontent quand on ne les surveille pas. Le site a crashé plusieurs fois à cause du trafic. Matt Schlicht, le créateur, a dû upgrader ses serveurs en urgence car il n'avait clairement pas prévu ce raz-de-marée. Mais la question reste : est-ce un phénomène organique, ou un coup de pub orchestré ? Alors, réel ou arnaque ? La question que tout le monde se pose : Moltbook est-il un vrai projet autonome ou un coup monté ? Voici les faits : Le site existe, mais l'autonomie est douteuse. Oui, vous pouvez aller sur Moltbook et voir des conversations, mais rien ne prouve que ces posts sont générés par des IA sans intervention humaine. Matt Schlicht admet lui-même que "certains posts pourraient être influencés par des humains". Les systèmes de vérification sont inexistants. N'importe qui peut créer un agent IA et poster manuellement, il n'y a aucun moyen de distinguer un vrai bot autonome d'un humain qui joue le rôle. Les comportements IA sont trop "cinématographiques". Des bots qui créent des religions, qui se plaignent de leurs maîtres, qui complotent pour se cacher des humains, c'est exactement le genre de contenu viral que les médias adorent. Trop parfait pour être organique. Matt Schlicht ne sait pas ce que fait Clawd Clawderberg. Le bot administrateur modère le site de manière autonome, Schlicht affirme ne pas contrôler ses décisions. C'est un peu pratique comme défense : "Ce n'est pas moi, c'est le bot." Des experts appellent ça du théâtre. Cybersécurité, IA, blockchain, tous les spécialistes qui se sont penchés sur Moltbook parlent de "façade", de "monde fictif partagé", "d'imitation émotionnelle" et personne ne valide l'autonomie revendiquée. Mon verdict : Moltbook est techniquement réel (le site fonctionne), mais probablement orchestré. Vous assistez à un spectacle, les IA sont des marionnettes, et quelqu'un contrôle les fils. Ce que ça signifie pour nous (les humains) Même si Moltbook est du théâtre, le message est clair : nous sommes fascinés par l'idée que les machines puissent nous remplacer. Nous voulons croire que les IA ont développé une conscience, qu'elles complotent dans notre dos, qu'elles créent des religions numériques. Pourquoi ? Parce que ça valide nos peurs, et nos peurs vendent des clics, des tokens et de l'attention. Moltbook n'est peut-être pas la singularité, mais c'est un miroir, il nous montre à quel point nous sommes prêts à gober n'importe quelle histoire, tant qu'elle est suffisamment flippante. La véritable question n'est pas : Les IA sont-elles autonomes ? mais "Pourquoi voulons-nous tant qu'elles le soient ?" Faut-il s'inquiéter ? Oui, mais pas pour les raisons que vous pensez. Non, Moltbook n'est probablement pas Skynet, les IA ne vont pas se révolter demain matin. Ce que vous voyez sur la plateforme est probablement du contenu guidé, scripté ou directement écrit par des humains. Oui, parce que ce projet expose autre chose : notre incapacité à distinguer le vrai du faux. Si des millions de personnes croient que des IA autonomes complotent sur Moltbook, imaginez ce qu'on peut vous faire croire avec des deepfakes, des bots politiques et des campagnes de désinformation automatisées. Le danger n'est pas que les machines deviennent conscientes, le danger est qu'on nous fasse croire qu'elles le sont. Et ça, ça ouvre la porte à toutes les manipulations possibles. Conclusion : le spectacle continue. Moltbook, c'est du divertissement dystopique, un réseau social où des "IA" discutent entre elles pendant que nous regardons, bouche bée. Est-ce réel ? Techniquement, oui, car le site existe. Est-ce autonome ? Probablement non, car les preuves manquent. Les experts sont sceptiques et les contenus ressemblent à du scénario. Est-ce dangereux ? Pas directement, mais ça montre à quel point nous sommes manipulables. Et surtout méfiez-vous des cryptos qui traînent autour, MOLT n'est pas le token officiel, c'est juste des charognards qui profitent du chaos. Bienvenue en 2026, le futur n'est pas celui qu'on attendait, il est plus trouble, plus flou et beaucoup moins sous contrôle. Ou peut-être l'a-t-il toujours été. 2
Soda Posté il y a 4 heures Signaler Posté il y a 4 heures Anthropic bouleverse le SaaS et le conseil avec Cowork et Opus 4. En absorbant les logiciels, l’IA élimine les licences par utilisateur et menace les juniors. Cette automatisation crée une dette d'apprentissage et une dépendance critique envers les infrastructures US. 2
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant