Jérôme P.-L. Posté 29 janvier Signaler Posté 29 janvier Il y a 1 heure, Mathieu_D a dit : Ha copilot dans office 365, je me demandais quels enfants avaient besoin qu'on leur bloque copilot dans vscode ! Microsoft intègre Copilot dans tout et n'importe quoi, et c'est aussi un chatbot.
L'affreux Posté 29 janvier Signaler Posté 29 janvier il y a 3 minutes, Jérôme P.-L. a dit : Microsoft intègre Copilot dans tout et n'importe quoi, et c'est aussi un chatbot. Ils ont surtout donné le même nom à plusieurs outils. Anthropic a fait pareil et chez eux tous les produits s'appellent Claude. Ça fait penser à ce film : 3
Jérôme P.-L. Posté 29 janvier Signaler Posté 29 janvier il y a 6 minutes, L'affreux a dit : Ça fait penser à ce film : Ça fait aussi penser aux schtroumpfs.
Lameador Posté 3 février Signaler Posté 3 février 15 hours ago, Lancelot said: On a déjà des gens qui utilisent l'IA comme psy ou comme divinité. Et oui ça se passe mal. Je persiste à penser que c'est plutôt un problème d'éducation du public qui ne comprend pas ce qu'il utilise, mais ça n'en reste pas moins un problème. Comme psy, je pense que si c'est correctmeent encadre/packagé, je ne vois pas de problème majeur Comme divinité .... en ateendant que l'IA réclame des sacrifices de processeurs obsolètes ...
Vilfredo Posté 3 février Signaler Posté 3 février il y a 1 minute, Lameador a dit : Comme psy, je pense que si c'est correctmeent encadre/packagé, je ne vois pas de problème majeur Confirmer les gens dans leur délire? L’IA ne va pas aller contre tes arguments sauf si tu promptes explicitement un mode “critique”. Sinon c’est une bulle de cirage de pompes insupportable. L’autre intérêt du psy c’est de maintenir un contact social minimal, des horaires fixes pour des gens complètement désorientés et sans vie sociale, des sorties de la maison ou du foyer… On n’a pas besoin d’être un luddite pour être critique de l’utilisation de l’IA comme psy. 4
Jérôme P.-L. Posté 3 février Signaler Posté 3 février il y a 11 minutes, Lameador a dit : Comme divinité .... en ateendant que l'IA réclame des sacrifices de processeurs obsolètes ... Les humains ont commencé à sacrifier de processeurs obsolètes au nom de l'IA sans qu'elle ait besoin de le demander.
Soda Posté 8 février Signaler Posté 8 février Anthropic bouleverse le SaaS et le conseil avec Cowork et Opus 4. En absorbant les logiciels, l’IA élimine les licences par utilisateur et menace les juniors. Cette automatisation crée une dette d'apprentissage et une dépendance critique envers les infrastructures US. 2
Jérôme P.-L. Posté 14 février Signaler Posté 14 février Citation 37% des professionnels interrogés déclarent avoir connaissance de pertes financières subies par leurs clients à la suite de conseils produits par des IA génératives. Ces pertes prennent différentes formes, notamment des erreurs déclaratives, des trop-perçus ou des pénalités. Par ailleurs, 31% estiment que les conseils générés par ces outils peuvent représenter un danger pour la santé financière des entreprises lorsqu'ils sont utilisés sans validation par un professionnel qualifié. Ces chiffres traduisent un risque concret. L'utilisation d'une IA généraliste pour des décisions structurantes peut entraîner des corrections coûteuses et fragiliser la situation financière d'une entreprise. […] 60% des experts-comptables consacrent jusqu'à 3 heures par mois à corriger des erreurs liées à l'utilisation de l'IA par leurs clients. 31% déclarent y passer entre 4 et 10 heures mensuelles lorsque les erreurs sont plus complexes ou plus nombreuses. Ce temps mobilisé pour la rectification réduit la disponibilité pour des missions à plus forte valeur ajoutée. Il transforme l'usage non maîtrisé de l'IA en facteur de désorganisation et en source de travail correctif.
Soda Posté 14 février Signaler Posté 14 février il y a 43 minutes, Jérôme P.-L. a dit : Est-ce que c'est parce que les gens ne savent pas faire des bon prompts ou le problème est plus profond ?
Liber Pater Posté 14 février Signaler Posté 14 février 37% des professionnels interrogés déclarent avoir connaissance de pertes financières subies par leurs clients à la suite de conseils produits par des IA génératives. Ces pertes prennent différentes formes, notamment des erreurs déclaratives, des trop-perçus ou des pénalités. Par ailleurs, 31% estiment que les conseils générés par ces outils peuvent représenter un danger pour la santé financière des entreprises lorsqu'ils sont utilisés sans validation par un professionnel qualifié. Ces chiffres traduisent un risque concret. L'utilisation d'une IA généraliste pour des décisions structurantes peut entraîner des corrections coûteuses et fragiliser la situation financière d'une entreprise. […] 60% des experts-comptables consacrent jusqu'à 3 heures par mois à corriger des erreurs liées à l'utilisation de l'IA par leurs clients. 31% déclarent y passer entre 4 et 10 heures mensuelles lorsque les erreurs sont plus complexes ou plus nombreuses. Ce temps mobilisé pour la rectification réduit la disponibilité pour des missions à plus forte valeur ajoutée. Il transforme l'usage non maîtrisé de l'IA en facteur de désorganisation et en source de travail correctif. Remplace IA par junior et tu comprendras où est le problème. Il est dans la non vérification des conseils prodigués aux clients 3
Soda Posté 14 février Signaler Posté 14 février il y a 17 minutes, Liber Pater a dit : Remplace IA par junior et tu comprendras où est le problème. Il est dans la non vérification des conseils prodigués aux clients Oui d'accord je vois.
Liber Pater Posté 14 février Signaler Posté 14 février J'ajoute qu'on parle ici du temps perdu à corriger les erreurs (et il est certain) mais on ne voit pas le temps "gagné" à produire ce qui est revu
Jensen Posté 15 février Signaler Posté 15 février "Les alternatives aux comptables sont dangereuses" - un comptable C'est surtout une réaction de panique (pas forcément sans fondement). 2
Azref Posté 15 février Signaler Posté 15 février Panique ou pas, j’espère qu'ils poussent dans leur profession en interne à comprendre comment ça fonctionne et s'en servir, plutôt que de juste faire peur dessus ou de faire semblant que ça n'existe pas.
L'affreux Posté 15 février Signaler Posté 15 février Les métiers qui consistent à faire correspondre un nombre fini (même géant) de patterns à des situations infiniment variées, seront remplacés par les intelligences artificielles. Bien sûr cela ne se fait pas tout seul, il faut pas mal d'huile de coude au départ pour fabriquer des outils qui marchent. Donc ça prendra un peu de temps. Mais les technologies actuelles permettent de couvrir entièrement ce genre de besoin, donc ça sera fait. Parmi les métiers les plus exposés, je verrais bien pour ma part : médecin, avocat, trader. Si vous en voyez d'autres, je suis intéressé. Peut-être aussi le mien (développeur) mais je pense au fond qu'il est plus complexe que les autres et qu'il manque encore un ressort technologique pour réussir à nous remplacer : à cause de la partie construction/création qui est différente de la pure recherche de solution des autres métiers ci-dessus. Le développement logiciel est en tout cas la profession sur laquelle les acteurs de l'intelligence artificielle consacrent le plus d'efforts, à cause de l'effet récursif de chaque avancée puisque ces compagnies sont elles-mêmes des fabricants de logiciels. Et on arrive à faire des outils qui fabriquent des logiciels from scratch, mais on n'arrive pas à faire des outils qui construisent ensuite itérativement sur ce premier jet de manière autonome. 2
Jensen Posté 15 février Signaler Posté 15 février 19 minutes ago, L'affreux said: médecin, avocat Ces métiers ont un gros côté responsabilité, donc au contraire je ne les vois pas être complètement remplacés demain. Par contre, oui je m'attends à ce que leur pratique soient bouleversée et à ce qu'ils se transforment plus en reviewer/caution de l'IA que praticien direct. Pour les médecins, il en manque, et ils passent un certain temps incompressible avec les patients, donc j'imagine que leur sécurité de l'emploi est assurée. Les avocats, par contre, sauf grosse augmentation de la consommation due à l'augmentation de l'offre, je m'attends à ce que le nombre de professionnels nécessaire s'effondre. Mais leurs assistants avant eux. 1
L'affreux Posté 15 février Signaler Posté 15 février Il y a 3 heures, Jensen a dit : Ces métiers ont un gros côté responsabilité Tous les métiers ont un aspect responsabilité. Des outils spécialisés existent et sont en train d'être construits. Cela ne sera pas instantané mais ils vont devenir de plus en plus fiables. À un moment les professionnels s'apercevront qu'ils n'apportent plus rien d'autre que leur apparence humaine et leur empathie. C'est-à-dire que l'insulte "perroquets stochastiques" aura changé de cible. Pour les médecins, on peut espérer une issue heureuse : dans laquelle ils trouveraient à nouveau du temps pour s'occuper des patients, y compris en se déplaçant à leurs domiciles et en couvrant les actuels déserts médicaux. Mais les avocats sont cuits. Parce qu'on déteste tous aller au tribunal et si les choses peuvent s'automatiser et s'accélérer c'est ce qui arrivera. Idem pour les traders. Ils partiront avant que les chauffeurs de taxi ne soient remplacés par des voitures autonomes.
Liber Pater Posté 15 février Signaler Posté 15 février "Les alternatives aux comptables sont dangereuses" - un comptable C'est surtout une réaction de panique (pas forcément sans fondement).J'avais la même intuition, et il y a sans doute un peu de ça. Mais on ne peut nier que des conseils farfelus aient pu être donnés à des clients 2
Marlenus Posté 15 février Signaler Posté 15 février Certains pensent que tous les métiers peuvent être remplacé par l'IA et/ou la robotisation. C'est juste une question de temps. Et j'avoue que sur les aspects techniques je n'ai pas trop d'arguments contre. C'est plus sur l'acceptabilité que je pense que cela peut freiner un peu. A quel moment la société va accepter une justice à la SOS Bonheur (pour prendre l'exemple de la justice vu que l'on parle d'avocat)? D'être soigné en hôpital totalement par des robots et des IA vu que visiblement même l'empathie peut être remplacé par de l'IA (voir le fait que certains utilisent l'IA comme psy ou SOS Amitié). On peut même imaginer des partenaires de vie 100% robotique, on peut déjà avoir des petites amies virtuelles avec vidéo, photos, etc. Tu mets ça dans un humanoïde avec de bonnes textures, une IA adaptée et tu as ta femme de ménage, ta partenaire sexuelle, ta confidente, etc. Je ne pense pas voir cela de mon vivant, mais à terme, je ne vois rien qui empêche cet avenir (à part la pénurie des ressources, mais cela aussi cela se gère). A moins que les luddistes l'emportent. Mais j'en doute, même si ils peuvent être nombreux, l'homme luddiste aura de trop nombreux problèmes par rapport à l'homme aidé par l'IA.
Astral Posté 15 février Signaler Posté 15 février Alors j'avoue avoir lu le tweet de la manière suivante : bien sur on défends notre business, mais surtout les IA ne sont pas prêtes pour nous remplacer sans vérification des résultats par une personnes expérimenté. La tendance des IA a affirmer des infos avec certitude même en cas d'erreur n'aide pas. On observe ça dans beaucoup de domaine : ici comptabilité, mais aussi justice (avec les tentatives de remplacement d'avocat et l'invention des références), conseil fiscal ou financier, ... Je crois que mon test perso pour savoir si les IA génératives sont pretes pour ces utilisations est de vérifier si elles savent jouer aux échecs sans tricher ou inventer des règles/pièces. Quand on aura ce type d'IA, je commencerais à envisager de les utiliser dans des domaines plus sensible. Mais on y arrivera, c'est certain.
Azref Posté 15 février Signaler Posté 15 février il y a une heure, Marlenus a dit : D'être soigné en hôpital totalement par des robots et des IA vu que visiblement même l'empathie peut être remplacé par de l'IA (voir le fait que certains utilisent l'IA comme psy ou SOS Amitié). Ca pas vraiment sur le court terme mais par contre un médecin dont la productivité est démultipliée car une partie du boulot d'analyse a déjà été fait, et il n'a plus qu'à appliquer un tampon de validation à ce que l'IA indique comme étant les tests à faire, les médicaments à prescrire, les opérations etc. Le zéro intervention humaine je n'y crois pas, mais les spécialistes qui y gagnent du temps et en expertise, oui. Sur le long terme aucune idée, sinon je serai milliardaire. 1
L'affreux Posté 15 février Signaler Posté 15 février Il y a 5 heures, Astral a dit : les IA ne sont pas prêtes pour nous remplacer sans vérification des résultats par une personnes expérimenté. Ce sont deux choses différentes : pouvoir tout déléguer à un chatbot, c'est-à-dire que le chatbot est une AGI. Nous n'avons pas d'AGI aujourd'hui. Les technologies que nous avons permettent d'implémenter des outils spécialisés qui gèrent des tâches, lesquelles jusqu'à aujourd'hui sont faites par des humains. Certains métiers deviennent partiellement automatisables. Mais on ne parle pas de chatbots généralistes.
Lancelot Posté 15 février Signaler Posté 15 février "Tous les métiers sont facilement remplaçables par l'IA (sauf le mien faut pas déconner)." Je pense que la plupart des métiers peuvent bénéficier de l'IA dans une certaine mesure, et qu'à terme ils vont évoluer pour prendre ça en compte. Je pense au métier de caissier et comment il a évolué avec les caisses automatiques pour devenir le gars qui débloque la machine quand ça coince. La volonté de trop anticiper le mouvement peut donner des résultats un peu ridicules cependant. Un exemple personnel : je suis en train d'écrire un manuscript avec des collègues, et soudain l'un d'entre eux ajoute un paragraphe "nous déclarons avoir utilisé l'IA générative pour nous aider à la rédaction". Je commente quelque chose comme "euh non pas à ce que je sache". S'ensuit une discussion où on me dit en gros "alors oui c'est simplement un encouragement pour le cas où décide de l'utiliser, il ne faut pas en avoir honte ou le cacher". Je veux bien mais pourquoi mentir en ajoutant ce paragraphe qui n'a pas lieu d'être, ça relève du culte du cargo parce qu'ils l'ont vu dans d'autres articles et qu'ils ne veulent pas avoir l'air à la traîne. J'ai également demandé dans la même conversation "mais du coup vous feriez comment, concrètement, pour que l'IA vous aide à la rédaction ?" et on m'a répondu "écrire chaque paragraphe dans chatGPT en demandant d'améliorer", ce qui me semble poser des problèmes évidents de confidentialité (mon article n'a pas à être disponible dans les serveurs d'OpenAI avant d'être publié). 3
Marlenus Posté 15 février Signaler Posté 15 février 2 hours ago, Astral said: Alors j'avoue avoir lu le tweet de la manière suivante : bien sur on défends notre business, mais surtout les IA ne sont pas prêtes pour nous remplacer sans vérification des résultats par une personnes expérimenté. La tendance des IA a affirmer des infos avec certitude même en cas d'erreur n'aide pas. On observe ça dans beaucoup de domaine : ici comptabilité, mais aussi justice (avec les tentatives de remplacement d'avocat et l'invention des références), conseil fiscal ou financier, ... Je crois que mon test perso pour savoir si les IA génératives sont pretes pour ces utilisations est de vérifier si elles savent jouer aux échecs sans tricher ou inventer des règles/pièces. Quand on aura ce type d'IA, je commencerais à envisager de les utiliser dans des domaines plus sensible. Mais on y arrivera, c'est certain. Actuellement, j'ai l'impression qu'une des limitations de l'IA type chatgpt c'est de ne pas pouvoir répondre "Je ne sais pas". Et cela induit pas mal de biais.
Rincevent Posté 15 février Signaler Posté 15 février il y a 9 minutes, Marlenus a dit : Actuellement, j'ai l'impression qu'une des limitations de l'IA type chatgpt c'est de ne pas pouvoir répondre "Je ne sais pas". Et cela induit pas mal de biais. On croirait un Sciences-potard.
Azref Posté 15 février Signaler Posté 15 février Il y a 1 heure, Lancelot a dit : J'ai également demandé dans la même conversation "mais du coup vous feriez comment, concrètement, pour que l'IA vous aide à la rédaction ?" et on m'a répondu "écrire chaque paragraphe dans chatGPT en demandant d'améliorer", ce qui me semble poser des problèmes évidents de confidentialité (mon article n'a pas à être disponible dans les serveurs d'OpenAI avant d'être publié). Mais, du coup — et c’est là que tout se joue — l’usage de l’IA serait donc, en somme, *indétectable* sans ce paragraphe?
Lancelot Posté 15 février Signaler Posté 15 février Ça dépend de la quantité d'effort consacrée à cacher vs détecter cet usage. Les LLM ont un style d'écriture qu'on finit par reconnaître un peu instinctivement sur la forme, et une manière de traiter les sujets également reconnaissable sur le fond. On peut aussi entraîner d'autres modèles à signaler la prose IA. D'un autre côté il y a des manières plus subtiles d'intégrer l'IA qui impliquent un effort de réécriture par l'auteur et qui rendent le tout plus flou, du moins par quelqu'un qui n'est pas très familier avec le style de cet auteur et qui pourrait donc constater un changement. En pratique par exemple si tu as 50 copies d'étudiants à corriger et que l'un d'entre eux utilise chatGPT de manière un peu subtile, ça peut rapidement devenir indétectable. Et là se pose une question intéressante: à un moment donné, si tu retravailles tellement ce que te donne l'IA qu'elle n'a sur le produit final pas vraiment plus d'influence que, disons, un correcteur orthographique, est-il réellement si vital de le signaler ? 2
Azref Posté 15 février Signaler Posté 15 février Ah mais je suis d'accord, j'avais juste écrit comme si j'avais utilisé chatgpt pour la (mauvaise) blague! Les modèles les moins chers (chatgpt gratuit, copilot, gemini flash), sont très faciles à détecter en tout cas.
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant