Cthulhu Posté 10 juillet Signaler Posté 10 juillet Perplexity sort son propre navigateur. Basé sur Chromium avec ad-blocker intégré, je passerais peut-être dessus si ça marche bien. 2
Alchimi Posté 18 juillet Signaler Posté 18 juillet Quelques tirs. Et une info intéressante d'après le bonhomme: statistiquement il y a (environ) 36% d'erreurs dans les réponses d'IA. Et les IA ayant de plus en plus affaire à du contenu généré par IA, leurs erreurs s'auto-entretiendrait, et le pourcentage d'erreur aurait augmenté, il cite un papier d'Open IA (si je ne me trompe pas) qui aurait communiqué sur le fait qu'ils se prennent 2% d'erreurs en plus. J'essaye de vous retrouver le timecode de cette intervention. A partir de 28:00. Et 32:10 très spécifiquement sur le papier d'open ia. 1
L'affreux Posté 18 juillet Signaler Posté 18 juillet il y a 31 minutes, Alchimi a dit : Quelques tirs. Il est marrant Luc Julia, ses blagues sont chouettes. Sur la forme il a raison et sur le fond le message qu'il fait passer, avec sa volonté de démystifier, est juste faux. Mais s'il réussit à ralentir les législateurs il aura fait une bonne action.
Alchimi Posté 18 juillet Signaler Posté 18 juillet il y a 39 minutes, L'affreux a dit : sur le fond le message qu'il fait passer, avec sa volonté de démystifier, est juste faux. Mais encore?
L'affreux Posté 19 juillet Signaler Posté 19 juillet Par exemple Luc Julia a raison d'expliquer que les IA sont des outils, mais il préfère dire "ne sont que des outils". Il a raison d'expliquer qu'elles sont de la famille des machines à statistiques, mais il explique ça comme si ça rendrait ces outils quelconques alors que si ça se trouve les intelligences biologiques sont également des machines à statistiques. Il refuse de considérer qu'elles sont une révolution, sans considérer que les révolutions ont toujours leurs racines dans ce qui s'est passé avant (la lettre "r" ne change pas le sens du mot, juste son intensité). Il s'avance beaucoup sur la conduite autonome de niveau 5 qui, selon lui, "n'existera jamais". Que sait-il des futures technologies ? Par exemple quand j'écoute Yann Le Cun, je comprends que si l'on pousse jusqu'au bout les technologies de conduite autonome actuelles, nous n'atteindrons effectivement pas ces fameuses voitures sans volant. Et c'est pourquoi Yann Le Cun travaille sur un autre type de technologie qui n'aurait pas ces limites. En résumé il raconte beaucoup de choses vraies avec humour dans le but de faire croire une idée fausse : que les intelligences artificielles ne seraient pas une rupture majeure mais plutôt une prolongation quelconque donc maîtrisée de la trajectoire de ces dernières décennies. 1
Rübezahl Posté 19 juillet Signaler Posté 19 juillet Il y a 2 heures, L'affreux a dit : alors que si ça se trouve les intelligences biologiques sont également des machines à statistiques. C'est bien le cas. Les synapses et neurones biologiques sont pleinement sensibles et renforcés par la répétition des signaux qui les traversent.
L'affreux Posté 19 juillet Signaler Posté 19 juillet Finalement les interventions de Luc Julia sur l'intelligence artificielle valent celles d'Elon Musk, lequel, dans l'excès opposé, compare Grok 4 à des PhD : ce sont des mecs qui en imposent tellement qu'ils ne rencontrent pas de contradiction et parfois la conséquence c'est qu'ils racontent n'importe quoi. Leurs idées se feraient démonter dans n'importe quel débat avec des gens un minimum documentés, mais ils continuent de les croire parce qu'ils sont entourés de gens n'ayant pas leur stature.
fm06 Posté 19 juillet Signaler Posté 19 juillet Très belle audition, merci de l'avoir partagée. Julia a vraiment un talent pédagogique exceptionnel. 1
fm06 Posté 19 juillet Signaler Posté 19 juillet 2 hours ago, Rübezahl said: C'est bien le cas. Les synapses et neurones biologiques sont pleinement sensibles et renforcés par la répétition des signaux qui les traversent. Attention à la tentation de l'anthropomorphisme. Les réseaux de neurones logiciels sont effectivement inspirés de la structure du système nerveux. L'apprentissage d'un modèle IA est inspirée aussi du fonctionnement des synapses (la "plasticité") du système nerveux. Mais cela s'arrête là. Les LLM ne sont pas des cerveaux artificiels. Ils sont construits avec des architectures qui n'ont rien à voir avec le peu qu'on comprend du fonctionnement cérébral.
Mégille Posté 19 juillet Signaler Posté 19 juillet On peut tout de même raisonnablement s'attendre à ce que nos cerveaux ressemblent plus à des machines statistiques qu'aux algorithmes rudimentaires imaginés par les premiers modèles behavioristes et cognitivistes. Si, même derrière nos activités mentales les plus rigoureuses et exactes, il n'y avait pas un fonctionnement probabiliste (je parle ici de ce que fait le cerveau, pas de ce que sont intrinsèquement les objets abstraits considérés) alors comment expliquer qu'en math nous soyons si souvent pilotés (ou induit en erreur) par une "intuition" plus ou moins exacte, et que nous nous trompions parfois dans l'application de méthode que pourtant nous connaissons ? 1
Alchimi Posté 19 juillet Signaler Posté 19 juillet Il y a 5 heures, L'affreux a dit : a) Par exemple Luc Julia a raison d'expliquer que les IA sont des outils, mais il préfère dire "ne sont que des outils". b) Il a raison d'expliquer qu'elles sont de la famille des machines à statistiques, mais il explique ça comme si ça rendrait ces outils quelconques alors que si ça se trouve les intelligences biologiques sont également des machines à statistiques. c) Il refuse de considérer qu'elles sont une révolution, sans considérer que les révolutions ont toujours leurs racines dans ce qui s'est passé avant (la lettre "r" ne change pas le sens du mot, juste son intensité). d) Il s'avance beaucoup sur la conduite autonome de niveau 5 qui, selon lui, "n'existera jamais". Que sait-il des futures technologies ? Par exemple quand j'écoute Yann Le Cun, je comprends que si l'on pousse jusqu'au bout les technologies de conduite autonome actuelles, nous n'atteindrons effectivement pas ces fameuses voitures sans volant. Et c'est pourquoi Yann Le Cun travaille sur un autre type de technologie qui n'aurait pas ces limites. En résumé il raconte beaucoup de choses vraies avec humour dans le but de faire croire une idée fausse : que les intelligences artificielles ne seraient pas une rupture majeure mais plutôt une prolongation quelconque donc maîtrisée de la trajectoire de ces dernières décennies. a) Ce ne sont bien que des outils. (Après je veux bien voir les arguments soutenant le fait que ça sort de la définition d'un outil, si y'en a). b) Le si ça se trouve on y met un peu tout. Julia fait justement remarquer qu'on ne sais pas encore trop comment le cerveau marche, c'est aller un peu vite en besogne que d'estimer que le cerveau marche comme ça, et que donc on peut y faire un "tu quoque" et intégrer un quelconque modèle. c) Il infirme et dans la même phrase utilise bien le mot révolution et précise le pourquoi de sa contradiction (en parlant spécifiquement de l'évolution de l'interaction possible si je me souviens bien, faut refouiller la vidéo, j’essaierais de retrouver le TC) d) Il répète bien qu'il ne voie pas dans le futur, mais ses arguments tiennent la route pun intended et pour l'instant force est de constater que cela fait dix ans que le niveau 5 est pour dans 5 ans. (Laquelle de nouvelle tech tiens? Vraie question en dehors de la discussion sur Julia). Ce n'est pas un résumé que je partage sur le propos de Julia: Il remet du factuel et évacue les fantasmes dans le sujet, et pose très pertinemment un reality-check sur la table: les IA se plantent, ont un niveau de pertinence mesurable, niveau qui peut descendre, tel l'exemple relevé par le discret papier d'open ia même. Ce que je trouve du reste très notable voir presque inquiétant (et pour les geeks: me rappelant doucement certains thèmes de l'univers de Dune ou de 40k) Les modèles d'ia peuvent donc se dégrader. Open ia qu'on ne peut pas trop taxer de pas vouloir vendre sa camelote a justement du bout des lèvres reconnu le truc. Quand au jugement de valeur sur la rupture ou non, prolongation ou non, bien qu'on sorte un peu de la pertinence du propos, on est bien dans une prolongation (tout ceci n'est pas arrivé par miracle sorti de nul part en 2022). Et Julia ne nie certainement pas la puissance de l'outil, au contraire il fait remarquer dès le départ que sur des sujets bien précis ils sont meilleurs que nous, mais fait remarquer qu'il ne faut pas y voir une absolue panacée du tout. Je trouve Julia plutôt très factuel, raisonné et pertinent dans son propos. On sort des discours grandiloquents/apocalyptiques qu'on entend h24 sur le sujet chez le vulgum et la com marketing de certains.
Rincevent Posté 19 juillet Signaler Posté 19 juillet Il y a 3 heures, fm06 a dit : Les réseaux de neurones logiciels sont effectivement inspirés de la structure du système nerveux. En fait ils sont inspirés de la structure du système nerveux telle qu'on la comprenait il y a quelques décennies de ça (il y a des neurones, et les trucs autour n'ont pas de vraie importance). Aujourd'hui, on a tendance à moins négliger le rôle des cellules gliales de toutes sortes, qui selon toute probabilité modulent l'action des neurones (ne serait-ce qu'en les alimentant et en nettoyant leurs déchets de manière sans doute un peu sélective).
L'affreux Posté 19 juillet Signaler Posté 19 juillet Il y a 1 heure, Alchimi a dit : (Laquelle de nouvelle tech tiens? Vraie question en dehors de la discussion sur Julia). Sur le sujet je n'ai comme tout le monde que le constat que les promesses ne sont pas tenues. Plus les remarques de Yann Le Cun : il explique régulièrement que les grands modèles de langage (LLM, la technologie de chatbot depuis ChatGPT) ne sont pas suffisants pour par exemple piloter des robots ou conduire les voitures car ils n'ont pas de compréhension du monde physique ni une capacité suffisante de planifier. Il travaille sur quelque chose nommé JEPA, qui n'est pas à ma connaissance destiné aux voitures, mais qui permet à l'IA de raisonner sur une représentation abstraite du monde. Après Yann Le Cun est un chercheur et c'est peut-être plus un projet de recherche qu'un projet industriel. Donc la technologie n'existe pas et je ne pense pas que quelqu'un de raisonnable pourrait prédire une date pour la conduite autonome de niveau 5. Mais l'annoncer comme impossible, c'est aussi trop tôt, le problème a été identifié et il y a des gens sérieux qui travaillent sur des fondations qui rendront peut-être cela possible. Le progrès a la forme d'un escalier et on ne peut pas prédire le moment où l'on passera la prochaine marche. Ça ne veut pas dire qu'elle serait nécessairement éloignée. EDIT: Pour ma part, je peux m'avancer et prédire au contraire que les voitures autonomes de niveau 5 existeront. Les intelligences biologiques humaines en sont capables alors pourquoi ce serait impossible de créer des intelligences artificielles qui en seraient capables aussi ? À moins que l'on se heurte à un mur du style "un être supérieur a créé nos âmes et nous ne pouvons pas en recréer nous-mêmes" ? Mais alors, si nous sommes inférieurs, il y a toutes les chances pour que nous n'ayons jamais les moyens de le prouver. Et au final, on peut parier sur l'existence future des voitures autonomes de niveau 5 sans se mouiller, car soit cela aura lieu, soit on ne pourra jamais prouver que ça n'aura pas lieu. 1
L'affreux Posté 19 juillet Signaler Posté 19 juillet il y a une heure, Alchimi a dit : a) Ce ne sont bien que des outils. (Après je veux bien voir les arguments soutenant le fait que ça sort de la définition d'un outil, si y'en a). Les IA sont des outils. C'est un fait, je ne le conteste pas. Par exemple les êtres humains sont des mammifères. Si tu trouves un professeur qui explique que les êtres humains ne sont que des mammifères, c'est bien qu'il veut y mettre une valeur rabaissante ou quelque chose.
Alchimi Posté 19 juillet Signaler Posté 19 juillet il y a 6 minutes, L'affreux a dit : Si tu trouves un professeur qui explique que les êtres humains ne sont que des mammifères, c'est bien qu'il veut y mettre une valeur rabaissante ou quelque chose. Absolument pas d'accord, on peut faire remarquer que nous ne sommes que des mammifères sans jugement de valeur. Limiter la définition de X à ce qu'est et n'est pas X n'est pas rabaisser X.
fm06 Posté 19 juillet Signaler Posté 19 juillet Sur la question de la conduite autonome c’est une question de seuil de fiabilité et d’acceptabilité sociale.Dans le monde du transport aérien on sait déjà remplacer les pilotes par des automatismes. On sait aussi que la plupart des accidents aériens sont causés par des erreurs humaines.Le transport routier est évidemment beaucoup plus difficile. Ce n’est qu’une question de temps. Il restera des bugs, mais le jour où on pourra objectivement mesurer que les véhicules autonomes sont moins accidentogènes que les conducteurs humains, on aura franchi une marche.
Lancelot Posté 19 juillet Signaler Posté 19 juillet On 5/7/2023 at 3:17 PM, Lancelot said: Le problème de cette conversation est qu'on passe très facilement sans s'en rendre compte la frontière entre la technologie qui existe, la technologie en développement, la technologie probable et la technologie envisageable, bref entre la réalité et la SF. Pour le moment je vous rappellerais qu'on arrive juste dans la phase de désillusion sur chatGPT où le grand public commence à se rendre compte qu'une supervision constante est nécessaire parce qu'il a une grosse tendance à confabuler n'importe quoi. J'allais réécrire plus ou moins la même chose, mais à la place je me permets de me citer. Force est de constater que deux ans plus tard il y a toujours la même difficulté à établir de quoi on parle. 1
fm06 Posté 19 juillet Signaler Posté 19 juillet 4 hours ago, Alchimi said: c) Il infirme et dans la même phrase utilise bien le mot révolution et précise le pourquoi de sa contradiction (en parlant spécifiquement de l'évolution de l'interaction possible si je me souviens bien, faut refouiller la vidéo, j’essaierais de retrouver le TC) C'est à 00:11:12.040. Extrait du transcript généré par Youtube: Quote il n'y a absolument pas de révolution dans les IA qui sont apparus en 2022 pour le grand public, en novembre 2022 avec CH GPT. Mais il y a une évolution, une évolution de la capacité à pouvoir traiter beaucoup plus de données. Euh par contre, il y a une révolution. Bon, vous savoir ce que je raconte en fait, il y a une révolution dans l'usage. Ce qui est absolument extraordinaire dans les IA, les nouvelles IA, donc ces IA génératifs qui sont apparus pour le grand public en novembre 2022, c'est le prompt, le fait que vous puissiez vous adresser à ces IA directement en langage naturel sans aucune notion d'informatique, de data science, de de choses comme ça.
Alchimi Posté 19 juillet Signaler Posté 19 juillet Ah merci @fm06 Ce qu'il raconte est du reste juste, amha.
Vilfredo Posté 19 juillet Signaler Posté 19 juillet Il y a 4 heures, Rincevent a dit : En fait ils sont inspirés de la structure du système nerveux telle qu'on la comprenait il y a quelques décennies de ça (il y a des neurones, et les trucs autour n'ont pas de vraie importance). Aujourd'hui, on a tendance à moins négliger le rôle des cellules gliales de toutes sortes, qui selon toute probabilité modulent l'action des neurones (ne serait-ce qu'en les alimentant et en nettoyant leurs déchets de manière sans doute un peu sélective). J’aimerais beaucoup si tu pouvais développer. Est-ce que la compréhension obsolète du système nerveux à laquelle tu fais allusion est celle de l’époque du connexionisme (PDP research group etc), et, si oui, les unités cachées (hidden units), qui servent d’interface entre les unités d’entrée et de sortie, ne jouent-elles pas déjà un rôle modulateur? Bref, si tu pouvais en dire un peu plus sur le rôle des cellules gliales ou recommander un bon livre/papier, je t’en serais très reconnaissant!
Rübezahl Posté 19 juillet Signaler Posté 19 juillet Il y a 7 heures, Rincevent a dit : (il y a des neurones, et les trucs autour n'ont pas de vraie importance). ben, ce qui compte, dans les modèles logiciels du moins, ce sont les poids/pondérations des synapses qui interconnectent les neurones (et qui multiplient ou atténuent les signaux). Le neurone se contente lui d'additionner toutes les entrées et de déclencher, ou pas, si un seuil est franchi. Et, sauf erreur les modèles d'aujourd'hui fonctionnent encore comme ça. L'apprentissage d'un modèle, c'est la modification (puis convergence) des poids synaptiques (grâce à l'extraordinaire algo de rétro-propagation de gradient). 1
Lancelot Posté 19 juillet Signaler Posté 19 juillet Il y a neurone et neurone : https://www.science.org/doi/10.1126/science.aax6239 Quote Gidon, A., Zolnik, T. A., Fidzinski, P., Bolduan, F., Papoutsi, A., Poirazi, P., ... & Larkum, M. E. (2020). Dendritic action potentials and computation in human layer 2/3 cortical neurons. Science, 367(6473), 83-87. The active electrical properties of dendrites shape neuronal input and output and are fundamental to brain function. However, our knowledge of active dendrites has been almost entirely acquired from studies of rodents. In this work, we investigated the dendrites of layer 2 and 3 (L2/3) pyramidal neurons of the human cerebral cortex ex vivo. In these neurons, we discovered a class of calcium-mediated dendritic action potentials (dCaAPs) whose waveform and effects on neuronal output have not been previously described. In contrast to typical all-or-none action potentials, dCaAPs were graded; their amplitudes were maximal for threshold-level stimuli but dampened for stronger stimuli. These dCaAPs enabled the dendrites of individual human neocortical pyramidal neurons to classify linearly nonseparable inputs—a computation conventionally thought to require multilayered networks. 1
Vilfredo Posté 19 juillet Signaler Posté 19 juillet il y a 40 minutes, Lancelot a dit : Il y a neurone et neurone : https://www.science.org/doi/10.1126/science.aax6239 Merci donc la question se déplace: comme certains neurones semblent avoir un comportement internement modulaire ou modulé, quelle différence avec la modulation offerte par les cellules gliales? Ou est-ce qu’on a juste deux trucs qui font plus ou moins le même job?
Lancelot Posté 19 juillet Signaler Posté 19 juillet @Rincevent a sans doute quelque chose de précis à l'esprit sur les cellules gliales en particulier, mais pour te faire la réponse globale et décevante : c'est compliqué et en l'état actuel de nos connaissances on n'y comprend pas grand chose.
Rincevent Posté 21 juillet Signaler Posté 21 juillet Le 19/07/2025 à 21:38, Lancelot a dit : la réponse globale et décevante : c'est compliqué et en l'état actuel de nos connaissances on n'y comprend pas grand chose. ... et on sait qu'il y a des trucs à comprendre. (Je pensais explicitement à la modulation de l'apport en oxygène et nutriments par la glie, mais je subodore qu'il reste des tas d'autres phénomènes à trouver).
Alchimi Posté 21 juillet Signaler Posté 21 juillet Bon, j'en remet une du bonhomme, c'est pas sans pertinence ce qu'il raconte. J'ai cherché un peu un meilleur fil parce que ça parle un peu d'économie (avec un discours qui sort complétement de la moyenne française) et de politique et je voulais plutôt mettre ça ailleurs que le fil technique, style fil sur l'innovation, l'esprit d'entreprise à l'épreuve de la france, mais je n'ai pas trouvé, (il y a un fil sur les start up en fr mais c'est pas forcément le sujet), autant le flanquer ici.
Marlenus Posté 27 juillet Signaler Posté 27 juillet On 6/22/2025 at 6:22 AM, Marlenus said: Bon cette entreprise le fait avec le consentement des personnes concernées, mais je suppose que rapidement on verra des versions moins éthiques pour implémenter son ex ou sa voisine de palier. Cela commence mais cela reste fait de manière artisanale: Quote Les gendarmes espagnols ont annoncé ce dimanche 27 juillet enquêter sur un adolescent de 17 ans qui a partagé en ligne des photos et des vidéos de ses camarades de lycée nus générées par l'intelligence artificielle et essayé d'en faire commerce. https://www.bfmtv.com/international/europe/espagne/des-photos-manipulees-un-ado-espagnol-partage-des-cliches-generes-par-l-ia-de-ses-camarades-nus-une-enquete-ouverte_AD-202507270182.html#xtor=AL-68
L'affreux Posté 2 août Signaler Posté 2 août https://lumo.proton.me/ Proton a sorti un chatbot, ils garantissent des conversations totalement privées. 1
Jérôme P.-L. Posté 9 août Signaler Posté 9 août Le 02/08/2025 à 12:39, L'affreux a dit : ils garantissent des conversations totalement privées. Ces promesses n'engagent que ceux qui les reçoivent. 1
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant