cedric.org Posté 19 décembre 2024 Signaler Posté 19 décembre 2024 Le 19/12/2024 à 14:00, Lancelot a dit : C'est pas con. Imaginez si dans le futur un composant dédié à l'IA devient un des ingrédients standards des ordinateurs. Expand Tu veux dire un coprocesseur matriciel ? 😛
Lancelot Posté 19 décembre 2024 Signaler Posté 19 décembre 2024 Le 19/12/2024 à 16:19, fm06 a dit : Il y a des GPU dans les PC. Expand Non, sans déconner ? Le 19/12/2024 à 17:00, cedric.org a dit : Tu veux dire un coprocesseur matriciel ? 😛 Expand Je ne sais pas, tu peux essayer de me dire en quoi c'est équivalent sans me prendre pour un con et on verra.
L'affreux Posté 19 décembre 2024 Signaler Posté 19 décembre 2024 Le 19/12/2024 à 17:00, cedric.org a dit : Tu veux dire un coprocesseur matriciel ? 😛 Expand J'ignorais. Merci pour l'info. 🙂
cedric.org Posté 19 décembre 2024 Signaler Posté 19 décembre 2024 Le 19/12/2024 à 19:14, Lancelot a dit : Non, sans déconner ? Je ne sais pas, tu peux essayer de me dire en quoi c'est équivalent sans me prendre pour un con et on verra. Expand Le 19/12/2024 à 20:25, L'affreux a dit : J'ignorais. Merci pour l'info. 🙂 Expand Deux salles, deux ambiances. 1 3
cedric.org Posté 19 décembre 2024 Signaler Posté 19 décembre 2024 Le 19/12/2024 à 20:25, L'affreux a dit : J'ignorais. Merci pour l'info. 🙂 Expand Ça fait quelques années que les constructeurs essayent d'anticiper le besoin en mettant ces jouets un peu partout pour faire de l'inference en local sans avoir un cpu/gpu à 1000 euros. Ça commence à payer de ce que je vois.
Lancelot Posté 19 décembre 2024 Signaler Posté 19 décembre 2024 Le 19/12/2024 à 21:38, cedric.org a dit : Deux salles, deux ambiances. Expand Je vois le problème, j'ai parsé 😀 comme 🙄, my bad. À ma décharge je trouve ces nouveaux smileys tout petits assez illisibles. 1
cedric.org Posté 19 décembre 2024 Signaler Posté 19 décembre 2024 Du coup, le message plus haut explique entre les lignes l'utilité. L'inference d'un réseau de neurones est avant tout du calcul matriciel (techniquement un calcul tensoriel d'ailleurs... Comme dans "tensor" core), et les processeurs classiques sont mauvais dans ce travail. Les GPUs sont bons mais sont hors de prix car ne sont pas spécialisés (en dehors de ceux qui embarquent les fameux "tensor cores"). Du coup l'astuce c'est de ressortir le concept de "co processeur" des années 90 pour avoir un machin spécialisé qui ne sait faire que ça mais qui le fait bien. Il n'a servi à rien pendant plusieurs années sur les téléphones haut de gamme, j'ai l'impression, mais les modèles de llm, nlp, analyse d'image, génération d'image locaux sont (enfin) une parfaite utilisation de ça. J'avoue que je fais le malin mais sans savoir sa réelle utilisation en 2024 sur nos téléphones.
Mathieu_D Posté 19 décembre 2024 Signaler Posté 19 décembre 2024 En plus du TPU faut juste caser les quelques go du LLM dans la ram pour faire les inférences en local. 1
Cthulhu Posté 20 décembre 2024 Signaler Posté 20 décembre 2024 Le 19/12/2024 à 21:43, Lancelot a dit : ces nouveaux smileys Expand C'est très relatif cette nouveauté Le 19/12/2024 à 22:06, Mathieu_D a dit : faut juste caser les quelques go du LLM dans la ram pour faire les inférences en local. Expand De nos jours, on a de très bons modèles dans la famille 7B/8B. En int8, ça prend 7-8 Go, ce qui est tout à fait jouable sur un GPU milieu/haut de gamme récent.
Calembredaine Posté 20 décembre 2024 Signaler Posté 20 décembre 2024 Le 19/12/2024 à 14:00, Lancelot a dit : C'est pas con. Imaginez si dans le futur un composant dédié à l'IA devient un des ingrédients standards des ordinateurs. Expand C'est déjà le cas sur Mac avec le "Neural Engine" capable de traiter 38 000 milliards d'opérations à la seconde
Hugh Posté 21 décembre 2024 Signaler Posté 21 décembre 2024 https://www.journaldemontreal.com/2024/12/04/une-ia-deguisee-en-grand-mere-contre-les-arnaqueurs-telephoniques#:~:text=Une intelligence artificielle développée par,pas les besoins qui manquent. Citation Une IA déguisée en grand-mère contre les arnaqueurs téléphoniques Elle maintient les arnaqueurs en conversation avec elle en feignant de ne rien comprendre à la technologie. Une intelligence artificielle développée par la compagnie téléphonique anglaise O2 prend la forme d’une gentille grand-mère nommée Daisy Harris pour tromper les fraudeurs au téléphone. Expand Super (sans ironie). 1
Liber Pater Posté 21 décembre 2024 Signaler Posté 21 décembre 2024 En face tu as l'intelligence artificielle de l'arnaqueur qui essaye d'avoir son numéro de carte bleue 3
Daumantas Posté 26 décembre 2024 Auteur Signaler Posté 26 décembre 2024 Je suis surpris que personne n'ait évoqué les nouveaux modèles o-3 qui sont particulièrement impressionnants sur divers benchmarks, notamment en mathématiques et en informatique (SWE-bench) mais aussi sur des objets où l'intuition humaine a un avantage certain (ARC-AGI où o-3 atteint le niveau d'un humain médian avec un taux de succès 76 % là où quelques mois mois auparavant l'état de l'art ne dépassait pas 25 %).
Wayto Posté 27 décembre 2024 Signaler Posté 27 décembre 2024 Le 26/12/2024 à 19:25, Daumantas a dit : Je suis surpris que personne n'est évoqué les nouveaux modèles o-3 qui sont particulièrement impressionnants sur divers benchmarks Expand Google fait le coup chaque décembre : c'est du overhype / PR stunt 95% du temps. J'en conclus que c'est la même chose pour les autres. Les LLM benchmarks sont plus que discutables - pour ne pas dire à chier - cf Narayanan et d'autres. Citation To find out more about how these benchmarks were built and what they are actually testing for, The Markup, which is part of CalMatters, went through dozens of research papers and evaluation datasets and spoke to researchers who created these tools. It turns out that many benchmarks were designed to test systems far simpler than those in use today. Some are years old, increasing the chance that models have already ingested these tests when being trained. Many were created by scraping amateur user-generated content like Wikihow, Reddit, and trivia websites rather than collaborating with experts in specialized fields. Others used Mechanical Turk gig workers to write questions to test for morals and ethics. Expand https://themarkup.org/artificial-intelligence/2024/07/17/everyone-is-judging-ai-by-these-tests-but-experts-say-theyre-close-to-meaningless 1
Soda Posté 29 décembre 2024 Signaler Posté 29 décembre 2024 Quand les bots bafouillent des balivernes.
Sloonz Posté 4 janvier Signaler Posté 4 janvier Je ne sais pas si je devais le mettre dans tweets rigolos ou ici : (pour référence: https://twitter.com/GaryMarcus/status/1873766399618785646)
Lancelot Posté 4 janvier Signaler Posté 4 janvier Le 04/01/2025 à 11:09, Sloonz a dit : https://twitter.com/GaryMarcus/status/1873766399618785646 Expand Make a decision to do any of that stuff without being prompted - fail
Jensen Posté 4 janvier Signaler Posté 4 janvier Le 04/01/2025 à 11:40, Lancelot a dit : Make a decision to do any of that stuff without being prompted - fail Expand Et j'espère pour longtemps.
Adrian Posté 20 janvier Signaler Posté 20 janvier Citation Architects of the leading generative AI models are abuzz that a top company, possibly OpenAI, in coming weeks will announce a next-level breakthrough that unleashes Ph.D.-level super-agents to do complex human tasks. We've learned that OpenAI CEO Sam Altman — who in September dubbed this "The Intelligence Age," and is in Washington this weekend for the inauguration — has scheduled a closed-door briefing for U.S. government officials in Washington on Jan. 30. Why it matters: The expected advancements help explain why Meta's Mark Zuckerberg and others have talked publicly about AI replacing mid-level software engineers and other human jobs this year. "[P]robably in 2025," Zuckerberg told Joe Rogan 10 days ago, "we at Meta, as well as the other companies that are basically working on this, are going to have an AI that can effectively be a sort of midlevel engineer that you have at your company that can write code." "[O]ver time, we'll get to the point where a lot of the code in our apps, and including the AI that we generate, is actually going to be built by AI engineers instead of people engineers," he added. https://www.axios.com/2025/01/19/ai-superagent-openai-meta Expand
Jean_Karim Posté 20 janvier Signaler Posté 20 janvier Le 20/01/2025 à 01:17, Adrian a dit : Expand C'est marrant qu'ils croient à méta que leurs problèmes viennent du prix du mid code writer et pas des top executives qui décident des orientations de la boîte. 1
Tramp Posté 20 janvier Signaler Posté 20 janvier Les tops execs ont embauchés trop de mid code writers.
Daumantas Posté 21 janvier Auteur Signaler Posté 21 janvier Je pense que c'est l'une des premières vidéos qui m'a convaincu que ce que je regardais était réel (si la première partie me laissait penser que c'était de l'IA, la seconde qui est dans les coulisses m'a vraiment fait croire à la présence d'acteurs). Tout est généré hormis la discussion du "réalisateur" 1
Azref Posté 21 janvier Signaler Posté 21 janvier Le 20/01/2025 à 01:17, Adrian a dit : Expand Avec OpenAI (ainsi qu'Anthropic, et Meta dans une moindre mesure), je ne sais jamais ce qui relève de la hype pour attirer les investisseurs, comparé à de vraies avancées. Dans tous les cas, "remplacer" qui que ce soit c'est aller vite en besogne. Mais un outil qui leur simplifie le travail, je peux l'entendre.
Alchimi Posté 21 janvier Signaler Posté 21 janvier http://www.watchframebyframe.com/watch/yt/VqLWWYfCEbI Si tu regarde en image par image tu repère les endroits ou ça déconne. Effectivement la force du truc ici c'est d'envoyer très vite des images qui bougent un peu mais qui n'ont pas plus de quelques secondes à en dessous de la seconde de temps d'écran. Tu as très peu de temps pour repérer les moment ou l'ia déconne, et on voit que la plupart des plans sont des espèces de tableaux ou les persos prennent la pose. Ça reste une bonne démo de la capacité à cracher un truc. On sent le machin venir quand le mec en fait des tonnes avec le pseudo making off à la fin. Il y a par moment des gros problèmes d'échelle de props d'ailleurs, voir la cam et le bras (pour un profane ça passera crème): 1
Largo Winch Posté 21 janvier Signaler Posté 21 janvier Le 21/01/2025 à 17:57, Alchimi a dit : la force du truc ici c'est d'envoyer très vite des images qui bougent un peu mais qui n'ont pas plus de quelques secondes à en dessous de la seconde de temps d'écran. Expand En effet, c'est le montage qui est très malin ici. J'ai tiqué avec les alpagas qui sont un peu trop figés. N'empêche que je trouve ça bluffant.
Alchimi Posté 21 janvier Signaler Posté 21 janvier Le 21/01/2025 à 19:03, Largo Winch a dit : les alpagas Expand Ah tiens oui je voulais les mentionner aussi. Le plan où on les voit trotter de profil est un des plus mauvais. L'alpaga blanc trahit la génération IA, l'espèce de fente entre le ventre et les pattes arrière ne passe pas.
Daumantas Posté 21 janvier Auteur Signaler Posté 21 janvier Le 21/01/2025 à 19:18, Alchimi a dit : Ah tiens oui je voulais les mentionner aussi. Le plan où on les voit trotter de profil est un des plus mauvais. L'alpaga blanc trahit la génération IA, l'espèce de fente entre le ventre et les pattes arrière ne passe pas. Expand Ce qui est assez étonnant car, a contrario, à 2:48 le logo Porsche (en haut à gauche) est relativement bien exécuté alors que c'était un des grands moyens pour reconnaître des vidéos/images faites par IA.
L'affreux Posté 21 janvier Signaler Posté 21 janvier Le 20/01/2025 à 01:17, Adrian a dit : Expand Je pense aussi que c'est pour cette année. Aujourd'hui, si copilot manque de vision d'ensemble sur un projet de développement logiciel, c'est essentiellement parce qu'il ne voit qu'un fichier ou deux à la fois. Et ça coûterait trop cher de lui donner la totalité du projet en contexte à chaque fois qu'on le fait intervenir. Il faut dire qu'on le fait intervenir à chaque lettre saisie par le développeur. Alors Copilot a un rôle d'assistance un peu comme dans le vélo électrique. Mais le coût du token va réduire. Et surtout, je pense qu'on pourrait dès à présent commencer à expliquer une fonctionnalité entière à copilot et lui donner tout le projet en contexte. Là il ne s'agirait plus de l'appeler agressivement pendant que le développeur pédale, mais plutôt de prendre le temps de bien lui expliquer en détail ce qu'il faut faire. Et je pense qu'on y est presque. Peut-être même qu'on y est déjà, simplement on n'a pas remarqué que c'est faisable, aussi parce que les capacités du plugin dans l'éditeur sont encore limitées sur le plan de l'édition multi-fichiers. Mais à la vitesse où ça va on parle de mois, peut-être même de semaines. En tout cas pas une année.
Mathieu_D Posté 22 janvier Signaler Posté 22 janvier Le 21/01/2025 à 21:34, L'affreux a dit : Je pense aussi que c'est pour cette année. Aujourd'hui, si copilot manque de vision d'ensemble sur un projet de développement logiciel, c'est essentiellement parce qu'il ne voit qu'un fichier ou deux à la fois. Et ça coûterait trop cher de lui donner la totalité du projet en contexte à chaque fois qu'on le fait intervenir. Il faut dire qu'on le fait intervenir à chaque lettre saisie par le développeur. Alors Copilot a un rôle d'assistance un peu comme dans le vélo électrique. Mais le coût du token va réduire. Et surtout, je pense qu'on pourrait dès à présent commencer à expliquer une fonctionnalité entière à copilot et lui donner tout le projet en contexte. Là il ne s'agirait plus de l'appeler agressivement pendant que le développeur pédale, mais plutôt de prendre le temps de bien lui expliquer en détail ce qu'il faut faire. Et je pense qu'on y est presque. Peut-être même qu'on y est déjà, simplement on n'a pas remarqué que c'est faisable, aussi parce que les capacités du plugin dans l'éditeur sont encore limitées sur le plan de l'édition multi-fichiers. Mais à la vitesse où ça va on parle de mois, peut-être même de semaines. En tout cas pas une année. Expand Essaie de mettre une epic Jira comme prompt à Claude. C'est assez bluffant.
L'affreux Posté 26 janvier Signaler Posté 26 janvier Les posts sur Lucie sont détachés ici : Les posts sur DeepSeek sont détachés ici : Les posts sur les IA dans l'enseignement sont déplacés dans le sujet dédié : 4
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant