Aller au contenu

Intelligence artificielle


Messages recommandés

Posté
Il y a 5 heures, Lancelot a dit :

ces nouveaux smileys

 

C'est très relatif cette nouveauté :D

 

Il y a 5 heures, Mathieu_D a dit :

faut juste caser les quelques go du LLM dans la ram pour faire les inférences en local.

 

De nos jours, on a de très bons modèles dans la famille 7B/8B. En int8, ça prend 7-8 Go, ce qui est tout à fait jouable sur un GPU milieu/haut de gamme récent.

Posté
Il y a 19 heures, Lancelot a dit :

C'est pas con. Imaginez si dans le futur un composant dédié à l'IA devient un des ingrédients standards des ordinateurs.

C'est déjà le cas sur Mac avec le "Neural Engine" capable de traiter 38 000 milliards d'opérations à la seconde

 

apple-m3-neural-engine.webp

Posté

https://www.journaldemontreal.com/2024/12/04/une-ia-deguisee-en-grand-mere-contre-les-arnaqueurs-telephoniques#:~:text=Une intelligence artificielle développée par,pas les besoins qui manquent.

 

Citation

Une IA déguisée en grand-mère contre les arnaqueurs téléphoniques

Elle maintient les arnaqueurs en conversation avec elle en feignant de ne rien comprendre à la technologie.

Une intelligence artificielle développée par la compagnie téléphonique anglaise O2 prend la forme d’une gentille grand-mère nommée Daisy Harris pour tromper les fraudeurs au téléphone.

 

Super (sans ironie).

  • Love 1
Posté

Je suis surpris que personne n'ait évoqué les nouveaux modèles o-3 qui sont particulièrement impressionnants sur divers benchmarks, notamment en mathématiques et en informatique (SWE-bench) mais aussi sur des objets où l'intuition humaine a un avantage certain (ARC-AGI où o-3 atteint le niveau d'un humain médian avec un taux de succès 76 % là où quelques mois mois auparavant l'état de l'art ne dépassait pas 25 %).

Posté
Il y a 13 heures, Daumantas a dit :

Je suis surpris que personne n'est évoqué les nouveaux modèles o-3 qui sont particulièrement impressionnants sur divers benchmarks

Google fait le coup chaque décembre : c'est du overhype / PR stunt 95% du temps. J'en conclus que c'est la même chose pour les autres.
Les LLM benchmarks sont plus que discutables - pour ne pas dire à chier - cf Narayanan et d'autres.

 

Citation

To find out more about how these benchmarks were built and what they are actually testing for, The Markup, which is part of CalMatters, went through dozens of research papers and evaluation datasets and spoke to researchers who created these tools. It turns out that many benchmarks were designed to test systems far simpler than those in use today. Some are years old, increasing the chance that models have already ingested these tests when being trained. Many were created by scraping amateur user-generated content like Wikihow, Reddit, and trivia websites rather than collaborating with experts in specialized fields. Others used Mechanical Turk gig workers to write questions to test for morals and ethics. 

https://themarkup.org/artificial-intelligence/2024/07/17/everyone-is-judging-ai-by-these-tests-but-experts-say-theyre-close-to-meaningless

  • Yea 1
Posté
3 hours ago, Lancelot said:

Make a decision to do any of that stuff without being prompted - fail

 

Et j'espère pour longtemps.

  • 3 weeks later...
Posté
Citation

Architects of the leading generative AI models are abuzz that a top company, possibly OpenAI, in coming weeks will announce a next-level breakthrough that unleashes Ph.D.-level super-agents to do complex human tasks.

  • We've learned that OpenAI CEO Sam Altman — who in September dubbed this "The Intelligence Age," and is in Washington this weekend for the inauguration — has scheduled a closed-door briefing for U.S. government officials in Washington on Jan. 30.

Why it matters: The expected advancements help explain why Meta's Mark Zuckerberg and others have talked publicly about AI replacing mid-level software engineers and other human jobs this year.

"[P]robably in 2025," Zuckerberg told Joe Rogan 10 days ago, "we at Meta, as well as the other companies that are basically working on this, are going to have an AI that can effectively be a sort of midlevel engineer that you have at your company that can write code."

 

Posté
il y a 37 minutes, Adrian a dit :

 

C'est marrant qu'ils croient à méta que leurs problèmes viennent du prix du mid code writer et pas des top executives qui décident des orientations de la boîte.

  • Yea 1
Posté

Les tops execs ont embauchés trop de mid code writers. 

Posté

Je pense que c'est l'une des premières vidéos qui m'a convaincu que ce que je regardais était réel (si la première partie me laissait penser que c'était de l'IA, la seconde qui est dans les coulisses m'a vraiment fait croire à la présence d'acteurs). Tout est généré hormis la discussion du "réalisateur" 

 

  • Yea 1
Posté
Le 20/01/2025 à 02:17, Adrian a dit :

 

Avec OpenAI (ainsi qu'Anthropic, et Meta dans une moindre mesure), je ne sais jamais ce qui relève de la hype pour attirer les investisseurs, comparé à de vraies avancées.

Dans tous les cas, "remplacer" qui que ce soit c'est aller vite en besogne. Mais un outil qui leur simplifie le travail, je peux l'entendre.

Posté

http://www.watchframebyframe.com/watch/yt/VqLWWYfCEbI

 

Si tu regarde en image par image tu repère les endroits ou ça déconne.

Effectivement la force du truc ici c'est d'envoyer très vite des images qui bougent un peu mais qui n'ont pas plus de quelques secondes à en dessous de la seconde de temps d'écran. Tu as très peu de temps pour repérer les moment ou l'ia déconne, et on voit que la plupart des plans sont des espèces de tableaux ou les persos prennent la pose.

 

Ça reste une bonne démo de la capacité à cracher un truc. On sent le machin venir quand le mec en fait des tonnes avec le pseudo making off à la fin. Il y a par moment des gros problèmes d'échelle de props d'ailleurs, voir la cam et le bras (pour un profane ça passera crème):

image.thumb.png.abb52fde0d85288f2919b38691866246.png

  • Yea 1
Posté
1 hour ago, Alchimi said:

la force du truc ici c'est d'envoyer très vite des images qui bougent un peu mais qui n'ont pas plus de quelques secondes à en dessous de la seconde de temps d'écran.

 

En effet, c'est le montage qui est très malin ici. J'ai tiqué avec les alpagas qui sont un peu trop figés.

N'empêche que je trouve ça bluffant. 

Posté
il y a 13 minutes, Largo Winch a dit :

les alpagas

Ah tiens oui je voulais les mentionner aussi. Le plan où on les voit trotter de profil est un des plus mauvais. L'alpaga blanc trahit la génération IA, l'espèce de fente entre le ventre et les pattes arrière ne passe pas.

Posté
il y a 41 minutes, Alchimi a dit :

Ah tiens oui je voulais les mentionner aussi. Le plan où on les voit trotter de profil est un des plus mauvais. L'alpaga blanc trahit la génération IA, l'espèce de fente entre le ventre et les pattes arrière ne passe pas.

Ce qui est assez étonnant car, a contrario, à 2:48 le logo Porsche (en haut à gauche) est relativement bien exécuté alors que c'était un des grands moyens pour reconnaître des vidéos/images faites par IA.

Posté
Le 20/01/2025 à 02:17, Adrian a dit :

 

 

Je pense aussi que c'est pour cette année. Aujourd'hui, si copilot manque de vision d'ensemble sur un projet de développement logiciel, c'est essentiellement parce qu'il ne voit qu'un fichier ou deux à la fois. Et ça coûterait trop cher de lui donner la totalité du projet en contexte à chaque fois qu'on le fait intervenir. Il faut dire qu'on le fait intervenir à chaque lettre saisie par le développeur. Alors Copilot a un rôle d'assistance un peu comme dans le vélo électrique. Mais le coût du token va réduire. Et surtout, je pense qu'on pourrait dès à présent commencer à expliquer une fonctionnalité entière à copilot et lui donner tout le projet en contexte. Là il ne s'agirait plus de l'appeler agressivement pendant que le développeur pédale, mais plutôt de prendre le temps de bien lui expliquer en détail ce qu'il faut faire. Et je pense qu'on y est presque. Peut-être même qu'on y est déjà, simplement on n'a pas remarqué que c'est faisable, aussi parce que les capacités du plugin dans l'éditeur sont encore limitées sur le plan de l'édition multi-fichiers. Mais à la vitesse où ça va on parle de mois, peut-être même de semaines. En tout cas pas une année.

Posté
9 hours ago, L'affreux said:

 

Je pense aussi que c'est pour cette année. Aujourd'hui, si copilot manque de vision d'ensemble sur un projet de développement logiciel, c'est essentiellement parce qu'il ne voit qu'un fichier ou deux à la fois. Et ça coûterait trop cher de lui donner la totalité du projet en contexte à chaque fois qu'on le fait intervenir. Il faut dire qu'on le fait intervenir à chaque lettre saisie par le développeur. Alors Copilot a un rôle d'assistance un peu comme dans le vélo électrique. Mais le coût du token va réduire. Et surtout, je pense qu'on pourrait dès à présent commencer à expliquer une fonctionnalité entière à copilot et lui donner tout le projet en contexte. Là il ne s'agirait plus de l'appeler agressivement pendant que le développeur pédale, mais plutôt de prendre le temps de bien lui expliquer en détail ce qu'il faut faire. Et je pense qu'on y est presque. Peut-être même qu'on y est déjà, simplement on n'a pas remarqué que c'est faisable, aussi parce que les capacités du plugin dans l'éditeur sont encore limitées sur le plan de l'édition multi-fichiers. Mais à la vitesse où ça va on parle de mois, peut-être même de semaines. En tout cas pas une année.

Essaie de mettre une epic Jira comme prompt à Claude. C'est assez bluffant.

Posté

Les posts sur Lucie sont détachés ici : 

 

Les posts sur DeepSeek sont détachés ici :

 

Les posts sur les IA dans l'enseignement sont déplacés dans le sujet dédié :

 

  • Yea 4
Posté

Un modèle d'IA peut prédire l'activité cérébrale en lisant une IRM. Ça rejoint les recherches sur le fait que le cerveau soit très déterministe, mais je ne pensais pas qu'on en était à ce point.

 

 

Posté

Le manuscrit en question : https://arxiv.org/pdf/2412.19814

Pour tempérer un peu, la base de donnée qu'ils utilisent est de l'IRMf resting state, c'est à dire avec des personnes qui ne sont pas engagés dans une tâche. La raison pour laquelle on fait du resting state c'est parce qu'on sait que dans ces conditions, si on regarde la corrélation entre les activités des différentes aires cérébrales à des fréquences autour de 0.1-0.01 Hz, des réseaux tels que le default-mode network émergent. En d'autres termes on sait déjà que l'activité à un instant t est un bon prédicteur de l'activité à l'instant t + ~10-100s (dans ces conditions, encore une fois). Tout ça on le sait depuis bien 15 ans. Partant de là ce qui m'étonne un peu c'est que la précision baisse au delà de 25s (sans doute des problèmes intrinsèques à la précision de l'IRM, aux pré-traitement des données ou au modèle utilisé). Bref ils décrivent une évolution technique de l'utilisation de ce type de modèle appliqué à ce type de données, ce qui est intéressant mais pas si révolutionnaire que ça.

  • Yea 1
Posté

Meta dira que c’est fair use et donc pas illégal. 

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...