Carl Barks Posté 17 février Signaler Posté 17 février Le 13/02/2025 à 18:02, Alchimi a dit : C'est pénible les origamis. Doit bien y avoir un plugin pour le faire à ta place. /thread Ne te demande pas d'où vient ton pouce rouge. 1
Alchimi Posté 17 février Signaler Posté 17 février il y a 11 minutes, Carl Barks a dit : Ne te demande pas d'où vient ton pouce rouge. Je ne me demande jamais d'où ça vient quand je connais la réponse, qui est que certains ici ont besoin d'une IA pour comprendre que le second degré n'est pas qu'une température. (Ceci dit, tu bosserais avec des jeunes étudiants, tu aurais déjà vu l'exact même phrase dans un contexte tout à fait sérieux.. donc on peut rajouter troisième degré, auto-dérision et critique pertinente qui rentre façon boomerang par la fenêtre à la liste, mais passons).
Alchimi Posté 17 février Signaler Posté 17 février Le 14/02/2025 à 20:15, Rübezahl a dit : (Je voulais écrire ça ce we puis la flemme + rhume, j'écris que maintenant) Faut pas trop comparer ces deux trois choses trop vite pour une raison toute simple: Pour que le grand public commence à utiliser les app d'IA, il lui faut déjà un accès à des PC/internet. Là ou les pc/internet sont arrivés sur un terrain d'utilisation vierge. Ça me semble donc assez logique que l'utilisation de l'IA soit plus rapide. Un peu comme le jour ou les voitures autonomes seront réellement de série, leur adoption sera sans doute plus rapide que l'adoption des voitures et de l'utilisation des autoroutes dans le grand public, pour rester dans une comparaison un peu grand écart. 1
Jensen Posté 17 février Signaler Posté 17 février 8 hours ago, Alchimi said: Un peu comme le jour ou les voitures autonomes seront réellement de série, leur adoption sera sans doute plus rapide que l'adoption des voitures et de l'utilisation des autoroutes dans le grand public, pour rester dans une comparaison un peu grand écart. Surtout si le pilote automatique peut être installé sur les voitures existantes.
Alchimi Posté 17 février Signaler Posté 17 février il y a 51 minutes, Jensen a dit : Surtout si le pilote automatique peut être installé sur les voitures existantes. Les futurs derniers modèles avant les pilotes auto full autonomes, je pense que ce sera le cas. (Après, la date de sortie des véhicules réellement full autonomes, je pense que c'est un autre sujet!)
Rübezahl Posté 18 février Signaler Posté 18 février Benchmark lmarena.ai : https://lmarena.ai/?leaderboard
L'affreux Posté 24 février Auteur Signaler Posté 24 février À son tour, Claude peut réfléchir. Claude 3.7 Sonnet est un modèle hybride : Citation Anthropic calls Claude 3.7 Sonnet the industry’s first “hybrid AI reasoning model,” because it’s a single model that can give both real-time answers and more considered, “thought-out” answers to questions. Users can choose whether to activate the AI model’s “reasoning” abilities, which prompt Claude 3.7 Sonnet to “think” for a short or long period of time. https://techcrunch.com/2025/02/24/anthropic-launches-a-new-ai-model-that-thinks-as-long-as-you-want/
L'affreux Posté 7 mars Auteur Signaler Posté 7 mars https://thomwolf.io/blog/scientific-ai.html Citation History is filled with geniuses struggling during their studies. Edison was called "addled" by his teacher. Barbara McClintock got criticized for "weird thinking" before winning a Nobel Prize. Einstein failed his first attempt at the ETH Zurich entrance exam. And the list goes on. The main mistake people usually make is thinking Newton or Einstein were just scaled-up good students, that a genius comes to life when you linearly extrapolate a top-10% student. This perspective misses the most crucial aspect of science: the skill to ask the right questions and to challenge even what one has learned. A real science breakthrough is Copernicus proposing, against all the knowledge of his days -in ML terms we would say “despite all his training dataset” Une critique intéressante du papier de Dario Amodei.
cedric.org Posté Mercredi at 07:07 Signaler Posté Mercredi at 07:07 https://www.anthropic.com/research/tracing-thoughts-language-model Chaque nouvel article de ce genre rend les gens de ai-2027 un peu moins fantaisistes. Donc le machin : - est capable d'anticiper et planifier - est capable de mentir, selon le poids des features - est capable de raisonner à partir de concepts et non seulement de mots À priori ça double tous les 4 mois si ça dure (et jusque là ça a meme tendance à diminuer). D'ici... Un an sur cette tendance, les 3/4 de mon boulot seront délégués. Il y a un an c'était inutilisable, et aujourd'hui c'est 1/4. Ce qui m'amène à : On 2/15/2025 at 6:22 PM, L'affreux said: Peut-être que les IA deviendront conscientes mais aujourd'hui ce n'est pas le cas. Je pense que c'est de l'anthropomorphisme. Il n'y a pas de conscience à proprement parler, juste une capacité à raisonner. Qui tend de manière exponentielle depuis 10 ans. La capacité de raisonnement d'un être à 50 de QI et d'un à 200 ne sont pas de même force mais bien de même nature. 1
L'affreux Posté Mercredi at 11:16 Auteur Signaler Posté Mercredi at 11:16 Il y a 3 heures, cedric.org a dit : Je pense que c'est de l'anthropomorphisme. Il n'y a pas de conscience à proprement parler, juste une capacité à raisonner. Qui tend de manière exponentielle depuis 10 ans. La capacité de raisonnement d'un être à 50 de QI et d'un à 200 ne sont pas de même force mais bien de même nature. Merci pour l'article. Je pense exactement comme toi en ce qui concerne les modèles qui existent aujourd'hui : "Il n'y a pas de conscience à proprement parler, juste une capacité à raisonner". Même si cette capacité de raisonner augmente peut-être de manière exponentielle, au niveau du remplacement d'un métier par l'intelligence artificielle dans le temps, je vois plutôt ça comme une courbe de Gauss : ça démarre relativement lentement, puis une grosse partie de la charge de travail disparaît, mais à la fin il reste toujours un besoin petit mais critique d'une personne humaine compétente. Quant à la conscience, ce n'est pas de l'anthropomorphisme de penser qu'elle existe mais qu'elle n'est pas implémentée par les modèles actuels. En fait les prochaines itérations des intelligences artificielles seront peut-être l'occasion de découvrir une définition solide de ce mot et de mieux comprendre nos propres fonctionnements humains et/ou animaux.
fm06 Posté Jeudi at 05:40 Signaler Posté Jeudi at 05:40 22 hours ago, cedric.org said: Je pense que c'est de l'anthropomorphisme. Il n'y a pas de conscience à proprement parler, juste une capacité à raisonner. D'accord avec ça. L'anthropomorphisme est légitime dans ce cas puisque ces modèles ont explicitement pour but d'imiter l'expression humaine. 18 hours ago, L'affreux said: à la fin il reste toujours un besoin petit mais critique d'une personne humaine compétente Certes, mais dans mon expérience professionnelle je m'aperçois de plus en plus que, pour prendre une décision critique, j'ai besoin d'avoir plongé dans le sujet, d'avoir exploré plusieurs pistes, de m'être cassé les dents sur le problème. C'est ce travail préliminaire (qui peut sembler très improductif) qui me permet de comprendre le problème et de décider en connaissance de cause. Un modèle d'IA qui me mâche le travail et me laisse décider c'est un peu comme un PdG qui laisse une équipe de consultants préparer le boulot pour (avoir l'impression de) prendre une décision stratégique.
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant