cedric.org Posté 20 novembre 2025 Signaler Posté 20 novembre 2025 L'IA rend même Ocasio-Cortez libérale. incroyable. Vivement qu'elle revienne au pouvoir afin qu'elle puisse oublier tout ce qu'elle vient de dire. 1
Largo Winch Posté 7 décembre 2025 Signaler Posté 7 décembre 2025 Ça, c'est assez flippant, je trouve. Je me vois déjà avec de telles lunettes en cours. Plus besoin de mémoriser le nom de mes 200 étudiants. Instantanément, j'aurai leur nom, leurs notes, leur classement, leur taux d'absence, mais j'aurai aussi accès à leurs loisirs, leurs vies sociales, la situation de leurs parents, etc. Chouette ! 1
GilliB Posté 7 décembre 2025 Signaler Posté 7 décembre 2025 J'attends encore les lunettes qui déshabillent... PS c'est flippant aussi.
Liber Pater Posté 7 décembre 2025 Signaler Posté 7 décembre 2025 Je me demande si ça ne va pas polariser encore plus la société occidentale. D'un côté ceux qui voient le problème et qui mettront de moins en moins de photos sur internet, voire plus du tout. De l'autre les adeptes de Tiktok et Instagram qui vont s'enfoncer davantage dans la brèche. Avec ce genre de technologie accessible à n'importe qui, je vois de moins en moins de juste milieu.De mon côté les seules photos de moi sur internet doivent être des photos facebook d'il y a 10 ans au moins, et mon profil LinkedIn (également whatsapp et Airbnb il me semble, mais je pense que l'accès est moins direct, à vérifier..). Est-ce que mes photos qui datent permettraient de me reconnaître ? Un autre point à vérifier
Largo Winch Posté 7 décembre 2025 Signaler Posté 7 décembre 2025 22 minutes ago, GilliB said: J'attends encore les lunettes qui déshabillent... Je n'y avais même pas pensé... mais avec de telles lunettes en cours je pourrais aussi avoir accès instantanément aux photos les plus hots de mes jolies étudiantes... Enseigner va devenir impossible. 2
Mathieu_D Posté 7 décembre 2025 Signaler Posté 7 décembre 2025 Faudra encore un peu de temps et de progrès pour les deepfake en temps réel !
Mégille Posté 7 décembre 2025 Signaler Posté 7 décembre 2025 Je pense que les étudiants regarderont des deepfakes de leur prof avant la réciproque. Si ça se généralise des deux cotés, le moment où les uns et les autres s'apercevront que l'autre coté le fait aussi sera gênant.
Alchimi Posté 9 décembre 2025 Signaler Posté 9 décembre 2025 Le 07/12/2025 à 13:10, Largo Winch a dit : Ça, c'est assez flippant, je trouve. Je me vois déjà avec de telles lunettes en cours. Plus besoin de mémoriser le nom de mes 200 étudiants. Instantanément, j'aurai leur nom, leurs notes, leur classement, leur taux d'absence, mais j'aurai aussi accès à leurs loisirs, leurs vies sociales, la situation de leurs parents, etc. Chouette ! Ah oui mais je crois que j'avais partagé une vidéo du même genre à NY faite par des étudiants qui montraient la même chose, tu identifie à peu près n'importe qui dans la rue avec ce truc là. Minority Report est là. Le 07/12/2025 à 13:39, Liber Pater a dit : De mon côté les seules photos de moi sur internet doivent être des photos facebook d'il y a 10 ans au moins, et mon profil LinkedIn (également whatsapp et Airbnb il me semble, mais je pense que l'accès est moins direct, à vérifier..). Est-ce que mes photos qui datent permettraient de me reconnaître ? Oui.
Cthulhu Posté 12 décembre 2025 Signaler Posté 12 décembre 2025 Une histoire courte générée par Claude. Je ne pensais pas qu'on était à ce niveau qualitatif déjà. Bluffant. https://x.com/magnushambleton/status/1995459217407217698 1
fm06 Posté 12 décembre 2025 Signaler Posté 12 décembre 2025 Très belle histoire. Chaque paragraphe donne envie de crier « end the fed »! 1
Jérôme P.-L. Posté 29 janvier Signaler Posté 29 janvier Les outils de contrôle parental permettent de bloquer ces IA. Par défaut, Microsoft Family Safety bloque Copilot pour les moins de 13 ans, les parents peuvent ajouter leur propre liste de domaines Internet et d'applications locales à bloquer. IA, réseaux sociaux, même solution.
Mathieu_D Posté 29 janvier Signaler Posté 29 janvier Ha copilot dans office 365, je me demandais quels enfants avaient besoin qu'on leur bloque copilot dans vscode !
Azref Posté 29 janvier Signaler Posté 29 janvier Evidemment, une fois les vannes ouvertes, chacun va pousser sa demande d'interdiction de tel ou tel truc avec obligation d'identification pour tout le monde.
Lancelot Posté 29 janvier Signaler Posté 29 janvier 23 ans. Est-il réellement souhaitable de pousser au contrôle parental jusqu'à 23 ans ? Ou est-ce qu'on ne serait pas en présence d'une solution qui cherche un problème ? 2
Marlenus Posté 29 janvier Signaler Posté 29 janvier Cela me fait penser au débat selon laquelle la majorité ne serait plus avec l'âge mais avec une feuille d'imposition séparée de celle des parents.
Jérôme P.-L. Posté 29 janvier Signaler Posté 29 janvier il y a 26 minutes, Lancelot a dit : 23 ans. Est-il réellement souhaitable de pousser au contrôle parental jusqu'à 23 ans ? Ou est-ce qu'on ne serait pas en présence d'une solution qui cherche un problème ? 13 ans
Marlenus Posté 29 janvier Signaler Posté 29 janvier 3 minutes ago, Jérôme P.-L. said: 13 ans Il parle de la personne qui souhaite que l'on contrôle Chatgpt. Elle donne comme fait divers, le suicide d'une femme de 23ans. 1
Jérôme P.-L. Posté 29 janvier Signaler Posté 29 janvier il y a 55 minutes, Azref a dit : Evidemment, une fois les vannes ouvertes, chacun va pousser sa demande d'interdiction de tel ou tel truc avec obligation d'identification pour tout le monde. C'est une question de contrôle, si l'obligation d'identification consolide leur pouvoir, ils vont la mettre en place, si elle a l'effet inverse, il y a moins de risques qu'ils le fassent. Pour l'IA, ils seront beaucoup plus réluctants à le faire que pour les réseaux sociaux. Dans tout les cas, les parents n'ont pas besoin de l'État pour interdire l'IA et les réseaux sociaux à leurs enfants.
Jérôme P.-L. Posté 29 janvier Signaler Posté 29 janvier Il y a 1 heure, Mathieu_D a dit : Ha copilot dans office 365, je me demandais quels enfants avaient besoin qu'on leur bloque copilot dans vscode ! Microsoft intègre Copilot dans tout et n'importe quoi, et c'est aussi un chatbot.
L'affreux Posté 29 janvier Signaler Posté 29 janvier il y a 3 minutes, Jérôme P.-L. a dit : Microsoft intègre Copilot dans tout et n'importe quoi, et c'est aussi un chatbot. Ils ont surtout donné le même nom à plusieurs outils. Anthropic a fait pareil et chez eux tous les produits s'appellent Claude. Ça fait penser à ce film : 3
Jérôme P.-L. Posté 29 janvier Signaler Posté 29 janvier il y a 6 minutes, L'affreux a dit : Ça fait penser à ce film : Ça fait aussi penser aux schtroumpfs.
Lameador Posté 3 février Signaler Posté 3 février 15 hours ago, Lancelot said: On a déjà des gens qui utilisent l'IA comme psy ou comme divinité. Et oui ça se passe mal. Je persiste à penser que c'est plutôt un problème d'éducation du public qui ne comprend pas ce qu'il utilise, mais ça n'en reste pas moins un problème. Comme psy, je pense que si c'est correctmeent encadre/packagé, je ne vois pas de problème majeur Comme divinité .... en ateendant que l'IA réclame des sacrifices de processeurs obsolètes ...
Jérôme P.-L. Posté 3 février Signaler Posté 3 février il y a 11 minutes, Lameador a dit : Comme divinité .... en ateendant que l'IA réclame des sacrifices de processeurs obsolètes ... Les humains ont commencé à sacrifier de processeurs obsolètes au nom de l'IA sans qu'elle ait besoin de le demander.
Soda Posté 8 février Signaler Posté 8 février Anthropic bouleverse le SaaS et le conseil avec Cowork et Opus 4. En absorbant les logiciels, l’IA élimine les licences par utilisateur et menace les juniors. Cette automatisation crée une dette d'apprentissage et une dépendance critique envers les infrastructures US. 2
Jérôme P.-L. Posté 14 février Signaler Posté 14 février Citation 37% des professionnels interrogés déclarent avoir connaissance de pertes financières subies par leurs clients à la suite de conseils produits par des IA génératives. Ces pertes prennent différentes formes, notamment des erreurs déclaratives, des trop-perçus ou des pénalités. Par ailleurs, 31% estiment que les conseils générés par ces outils peuvent représenter un danger pour la santé financière des entreprises lorsqu'ils sont utilisés sans validation par un professionnel qualifié. Ces chiffres traduisent un risque concret. L'utilisation d'une IA généraliste pour des décisions structurantes peut entraîner des corrections coûteuses et fragiliser la situation financière d'une entreprise. […] 60% des experts-comptables consacrent jusqu'à 3 heures par mois à corriger des erreurs liées à l'utilisation de l'IA par leurs clients. 31% déclarent y passer entre 4 et 10 heures mensuelles lorsque les erreurs sont plus complexes ou plus nombreuses. Ce temps mobilisé pour la rectification réduit la disponibilité pour des missions à plus forte valeur ajoutée. Il transforme l'usage non maîtrisé de l'IA en facteur de désorganisation et en source de travail correctif.
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant