Aller au contenu

Claude & la vision de Dario Amodei


Messages recommandés

Posté
Le 13/02/2025 à 18:02, Alchimi a dit :

C'est pénible les origamis. Doit bien y avoir un plugin pour le faire à ta place.

 

/thread

Ne te demande pas d'où vient ton pouce rouge.

  • Nay 1
Posté

  

il y a 11 minutes, Carl Barks a dit :

Ne te demande pas d'où vient ton pouce rouge.

 

Je ne me demande jamais d'où ça vient quand je connais la réponse, qui est que certains ici ont besoin d'une IA pour comprendre que le second degré n'est pas qu'une température. ;)

 

(Ceci dit, tu bosserais avec des jeunes étudiants, tu aurais déjà vu l'exact même phrase dans un contexte tout à fait sérieux.. donc on peut rajouter troisième degré, auto-dérision et critique pertinente qui rentre façon boomerang par la fenêtre à la liste, mais passons).

Posté
Le 14/02/2025 à 20:15, Rübezahl a dit :

Image

(Je voulais écrire ça ce we puis la flemme + rhume, j'écris que maintenant)

 

Faut pas trop comparer ces deux trois choses trop vite pour une raison toute simple: Pour que le grand public commence à utiliser les app d'IA, il lui faut déjà un accès à des PC/internet. Là ou les pc/internet sont arrivés sur un terrain d'utilisation vierge. Ça me semble donc assez logique que l'utilisation de l'IA soit plus rapide.

 

Un peu comme le jour ou les voitures autonomes seront réellement de série, leur adoption sera sans doute plus rapide que l'adoption des voitures et de l'utilisation des autoroutes dans le grand public, pour rester dans une comparaison un peu grand écart.

  • Yea 1
Posté
8 hours ago, Alchimi said:

Un peu comme le jour ou les voitures autonomes seront réellement de série, leur adoption sera sans doute plus rapide que l'adoption des voitures et de l'utilisation des autoroutes dans le grand public, pour rester dans une comparaison un peu grand écart.

Surtout si le pilote automatique peut être installé sur les voitures existantes.

Posté
il y a 51 minutes, Jensen a dit :

Surtout si le pilote automatique peut être installé sur les voitures existantes.

Les futurs derniers modèles avant les pilotes auto full autonomes, je pense que ce sera le cas.

(Après, la date de sortie des véhicules réellement full autonomes, je pense que c'est un autre sujet!)

Posté

À son tour, Claude peut réfléchir. Claude 3.7 Sonnet est un modèle hybride :

 

Citation

Anthropic calls Claude 3.7 Sonnet the industry’s first “hybrid AI reasoning model,” because it’s a single model that can give both real-time answers and more considered, “thought-out” answers to questions. Users can choose whether to activate the AI model’s “reasoning” abilities, which prompt Claude 3.7 Sonnet to “think” for a short or long period of time.

 

https://techcrunch.com/2025/02/24/anthropic-launches-a-new-ai-model-that-thinks-as-long-as-you-want/

  • 2 weeks later...
Posté

https://thomwolf.io/blog/scientific-ai.html

 

Citation

History is filled with geniuses struggling during their studies. Edison was called "addled" by his teacher. Barbara McClintock got criticized for "weird thinking" before winning a Nobel Prize. Einstein failed his first attempt at the ETH Zurich entrance exam. And the list goes on.

 

The main mistake people usually make is thinking Newton or Einstein were just scaled-up good students, that a genius comes to life when you linearly extrapolate a top-10% student.

 

This perspective misses the most crucial aspect of science: the skill to ask the right questions and to challenge even what one has learned. A real science breakthrough is Copernicus proposing, against all the knowledge of his days -in ML terms we would say “despite all his training dataset”

 

Une critique intéressante du papier de Dario Amodei.

  • 1 month later...
Posté

https://www.anthropic.com/research/tracing-thoughts-language-model

 

Chaque nouvel article de ce genre rend les gens de ai-2027 un peu moins fantaisistes.

 

Donc le machin :

- est capable d'anticiper et planifier

- est capable de mentir, selon le poids des features

- est capable de raisonner à partir de concepts et non seulement de mots
 

À priori ça double tous les 4 mois si ça dure (et jusque là ça a meme tendance à diminuer). D'ici... Un an sur cette tendance, les 3/4 de mon boulot seront délégués. Il y a un an c'était inutilisable, et aujourd'hui c'est 1/4.

 

Ce qui m'amène à :

On 2/15/2025 at 6:22 PM, L'affreux said:

Peut-être que les IA deviendront conscientes mais aujourd'hui ce n'est pas le cas.

Je pense que c'est de l'anthropomorphisme. Il n'y a pas de conscience à proprement parler, juste une capacité à raisonner. Qui tend de manière exponentielle depuis 10 ans. La capacité de raisonnement d'un être à 50 de QI et d'un à 200 ne sont pas de même force mais bien de même nature.

  • Yea 1
Posté
Il y a 3 heures, cedric.org a dit :

Je pense que c'est de l'anthropomorphisme. Il n'y a pas de conscience à proprement parler, juste une capacité à raisonner. Qui tend de manière exponentielle depuis 10 ans. La capacité de raisonnement d'un être à 50 de QI et d'un à 200 ne sont pas de même force mais bien de même nature.

 

Merci pour l'article. Je pense exactement comme toi en ce qui concerne les modèles qui existent aujourd'hui : "Il n'y a pas de conscience à proprement parler, juste une capacité à raisonner".

 

Même si cette capacité de raisonner augmente peut-être de manière exponentielle, au niveau du remplacement d'un métier par l'intelligence artificielle dans le temps, je vois plutôt ça comme une courbe de Gauss ça démarre relativement lentement, puis une grosse partie de la charge de travail disparaît, mais à la fin il reste toujours un besoin petit mais critique d'une personne humaine compétente.

 

Quant à la conscience, ce n'est pas de l'anthropomorphisme de penser qu'elle existe mais qu'elle n'est pas implémentée par les modèles actuels. En fait les prochaines itérations des intelligences artificielles seront peut-être l'occasion de découvrir une définition solide de ce mot et de mieux comprendre nos propres fonctionnements humains et/ou animaux.

Posté
22 hours ago, cedric.org said:

Je pense que c'est de l'anthropomorphisme. Il n'y a pas de conscience à proprement parler, juste une capacité à raisonner.

 

D'accord avec ça.  L'anthropomorphisme est légitime dans ce cas puisque ces modèles ont explicitement pour but d'imiter l'expression humaine.  

 

18 hours ago, L'affreux said:

à la fin il reste toujours un besoin petit mais critique d'une personne humaine compétente

 

Certes, mais dans mon expérience professionnelle je m'aperçois de plus en plus que, pour prendre une décision critique, j'ai besoin d'avoir plongé dans le sujet, d'avoir exploré plusieurs pistes, de m'être cassé les dents sur le problème.  C'est ce travail préliminaire (qui peut sembler très improductif) qui me permet de comprendre le problème et de décider en connaissance de cause.  Un modèle d'IA qui me mâche le travail et me laisse décider c'est un peu comme un PdG qui laisse une équipe de consultants préparer le boulot pour (avoir l'impression de) prendre une décision stratégique.

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...