Jump to content

intelligence artificielle


Recommended Posts

Ce podcast de Lex Fridman de l'année dernière m'avait échappé. Avec un électron libre nommé Michael Levin. Il porte sur ce que pourraient être des IA biologiques. Peut-être l'avenir de l'IA ?

 

 

(Anglais seulement, désolé...)

 

EDIT: Cette conversation me rappelle celles, déjà anciennes, et avec des anciens, ici sur le forum.

 

 

Link to comment
  • 3 weeks later...
  • 2 weeks later...

Deepmind (Google), l'entreprise derrière AlphaGo, a développé "AlphaGeometry" qui résout aussi bien que les médaillés d'or des olympiades les problèmes de géométrie.

Bien que la géométrie ne représente "que" environ un tiers des problèmes des olympiades, je trouve que c'est très très encourageant d'atteindre un tel niveau début 2024 alors que les prédictions pour une IA au niveau des OIM tournait plutôt autour de 2028.

  • Yea 2
Link to comment
  • 2 weeks later...
il y a 41 minutes, L'affreux a dit :

Il me semble que c'est "twitter", sur navigateur desktop.

Ben pour moi, en général les tweets s'affichent ... mais l'autre jour, dans le fil vroum vroum, et bien, avec l'adresse twitter, ça ne s'affiche pas.

Link to comment
Le 29/01/2024 à 00:22, Cthulhu a dit :

Il faut mettre quel lien pour que ça s'affiche ? J'ai essayé twitter.com et x.com sans succès.

 

Je n'en sais rien. J'ai une vieille version de twitter sur Mac, c'est de là que j'en retire les liens-qui-vont-bien.

Link to comment
  • 3 weeks later...

Gemini 1.5 Pro, contexte de plusieurs millions de chaînes de caractères

Je ne crois pas avoir vu de message sur le forum mais c'est tout de même très très impressionnant, avec une fenêtre de contexte assez grande pour ce souvenir de façon tout à fait correct de l'équivalent de 2 % du Wikipedia anglophone (et en quantité plus petite en vidéo, mais quand même une dizaine de minutes), je pense qu'on assiste à un tournant. Un des problèmes majeurs jusqu'à présent était l'hallucination dans l'analyse de documents longs et l'incapacité à bien se souvenir d'échanges sur le moyen terme.

Là il y a potentiellement la capacité à se souvenir de plusieurs mois, de façon exact, des échanges d'une équipe ou pouvoir analyser un code entier d'une application.

Sans compter qu'il ne s'agit que du modèle Pro et que le modèle Ultra est/sera certainement plus performant pour la même fenêtre de contexte.

Link to comment
Il y a 21 heures, Daumantas a dit :

Gemini 1.5 Pro, contexte de plusieurs millions de chaînes de caractères

Je ne crois pas avoir vu de message sur le forum mais c'est tout de même très très impressionnant, avec une fenêtre de contexte assez grande pour ce souvenir de façon tout à fait correct de l'équivalent de 2 % du Wikipedia anglophone (et en quantité plus petite en vidéo, mais quand même une dizaine de minutes), je pense qu'on assiste à un tournant. Un des problèmes majeurs jusqu'à présent était l'hallucination dans l'analyse de documents longs et l'incapacité à bien se souvenir d'échanges sur le moyen terme.

Là il y a potentiellement la capacité à se souvenir de plusieurs mois, de façon exact, des échanges d'une équipe ou pouvoir analyser un code entier d'une application.

Sans compter qu'il ne s'agit que du modèle Pro et que le modèle Ultra est/sera certainement plus performant pour la même fenêtre de contexte.

 

Tant que l'on ne peut pas tester, c'est du vent.

Link to comment
  • 3 weeks later...

https://indianexpress.com/article/technology/tech-news-technology/air-canada-ai-chatbot-9170822/

 

Quote

Air Canada has been forced to honour a false refund policy made up by an AI chatbot on its website in a ruling that could set a massive precedent.

C'est parfait, ça va peut être faire passer l'envie aux boîtes de mettre des chatbots inutiles partout plutôt que des humains.

Link to comment

C'est à peine si un tiers des ingés de par chez moi se rendent compte que l'IA va pas compenser leur incompétence, et qu'il sera encore plus dur de savoir si elle dit n'importe quoi sans bosser pour comparer.

Et c'est un produit à certifier, imagine les autres :D

 

(j'ai de l'espoir, y a quand même un pote qui a fait un trait d'humour sur le fait que le couple de torquage des boulons de portes spirit avait dans doute été validé par IA 😛 )

  • Haha 1
Link to comment
On 3/7/2024 at 9:19 PM, cedric.org said:

https://indianexpress.com/article/technology/tech-news-technology/air-canada-ai-chatbot-9170822/

 

C'est parfait, ça va peut être faire passer l'envie aux boîtes de mettre des chatbots inutiles partout plutôt que des humains.

Tiens c'est intéressant cette promo hallucinée par un LLM, et l'engagement contractuel qui s'en suit.

Link to comment
3 hours ago, Lancelot said:

Je ne comprends pas ce qu'on est supposé tirer de cette observation.

 

Je trouve qu'il est sain de rappeler que l'être humain qui se moque du LLM lorsque celui-ci hallucine, c'est un peu l’hôpital qui se moque de la charité.

Link to comment

Pour donner ma perspective là dessus j'ai peur qu'il faille remonter assez loin dans des questions techniques et philosophiques. Le principe d'un outil est qu'il reproduit une ou des fonctionnalités accessibles à l'humain sans outil, mais de manière artificielle, isolée et optimisée (parfois au point de les rendre méconnaissables). Pour prendre mon exemple préféré : taper => marteau. C'est plus optimal pour un humain de taper sur des trucs avec un marteau que sans. C'est fondamentalement la même chose quand on passe des fonctions "physiques" comme taper à des fonctions plus "mentales" comme compter (c'est plus optimal pour un humain de compter avec une calculatrice que sans). Les modèles génératifs comme GPT sont également un outil et la question intéressante à se poser à leur sujet est quelle fonctionnalité reproduisent-ils ? Il me semble assez clair que, quelle que soit la manière dont on définit cette fonctionnalité (créativité, intelligence, inférence de patterns...), la capacité à halluciner au moins un peu en est une partie essentielle.

 

En conséquence de tout ce qui précède :

  1. Quand je lis "les humains hallucinent aussi", ça me semble être une lapalissade absolue.
  2. Je ne comprends pas pourquoi un présupposé de la discussion semble être que les hallucinations sont en soi une mauvaise chose (et donc que le fait que les humains le fassent plus ou moins soit une base légitime pour poser un jugement de valeur).
  3. Il me semble absurde de toute manière de poser une telle comparaison entre un humain et un outil. On peut dire qu'un modèle en particulier hallucine trop ou pas assez pour être utile dans le cadre d'une tâche particulière, et donc qu'on devrait soit revoir nos attentes soit travailler à corriger ce modèle. Ce n'est pas plus un jugement de valeur que de dire qu'il ne faut pas se fier à une calculatrice parce qu'elle a tendance à donner des résultats faux (et peu importe que les humains fassent généralement plus d'erreurs de calcul qu'elle). De leur côté les humains ne peuvent pas être corrigés, ils sont comme ils sont.
  • Yea 1
Link to comment

Merci pour ces réflexions.

 

9 hours ago, Lancelot said:

quelle fonctionnalité reproduisent-ils ?

Je vois les outils de texte purs comme ChatGPT (perso j'utilise Bing Chat) comme un pote qui connait plein de trucs, à qui on peut poser n'importe quelle question et qui trouve toujours une réponse.  En plus, le pote est disponible 24x7, toujours prêt à répondre et il ne m'embête pas avec ses propres questions.  Le fait qu'il ait réponse à tout me rend un peu méfiant, donc je vérifie toujours ses réponses avec d'autres sources.  Les hallucinations ne font que confirmer ma méfiance.

 

9 hours ago, Lancelot said:

Il me semble absurde de toute manière de poser une telle comparaison entre un humain et un outil

 

C'est pourtant un réflexe ancien.  Depuis les débuts de l'informatique on compare l'ordinateur à un cerveau.  Les réseaux de neurones font explicitement référence à la structure du système nerveux.  La détection d'objets et la reconnaissance de formes dans des images sont appelées "vision par ordinateur". 

 

Pour des fonctions non cognitives on n'a pas ce réflexe.  Il ne vient à l'idée de personne de qualifier un marteau de "poing artificiel" ou une scie de "dents artificielles".  C'est peut-être parce que la technologie informatique est très jeune?  Les performances du marteau ou de la scie sont infiniment meilleuress que celles du poing ou des dents.

 

Il en va de même des fonctions cognitives "mécanistes" de l'informatique, comme le calcul arithmétique (personne ne compare une calculette ou un tableur à un "cerveau").  Par contre les fonctions cognitives avancées comme tout ce qui a trait au langage restent à part.  L'irruption des LLM dans la vie quotidienne va peut-être faire évoluer et démystifier l'IA.  Le jour où on cessera de comparer un bot à un humain nous aurons gagné en maturité.

Link to comment
Il y a 9 heures, Lancelot a dit :

Pour prendre mon exemple préféré : taper => marteau.

En plus détaillé, taper de façon peu efficace => taper de façon plus efficace avec un outil.

Bref, ça me parait normal de demander que l'outil fasse un meilleur travail. Si ce n'est pas le cas ... à quoi ça sert ?

Je fais parfois des erreurs de calcul arithmétique ... pour autant j'exige de ma calculatrice qu'elle ne fasse pas ces erreurs. Et surtout pas sous le prétexte "ah, mais toi aussi ça t'arrive de te gourer"

  • Haha 1
Link to comment
il y a 10 minutes, fm06 a dit :

Le jour où on cessera de comparer un bot à un humain nous aurons gagné en maturité.

Pour moi ce sera surtout le jour où on arrêtera de nous annoncer la fin du monde à cause des IAs dans 6 mois.

  • Yea 1
Link to comment
11 hours ago, fm06 said:

Je vois les outils de texte purs comme ChatGPT (perso j'utilise Bing Chat) comme un pote qui connait plein de trucs, à qui on peut poser n'importe quelle question et qui trouve toujours une réponse.  En plus, le pote est disponible 24x7, toujours prêt à répondre et il ne m'embête pas avec ses propres questions.  Le fait qu'il ait réponse à tout me rend un peu méfiant, donc je vérifie toujours ses réponses avec d'autres sources.  Les hallucinations ne font que confirmer ma méfiance.

Dans ce cas je pense que tu leur en demande trop, du moins en l'état actuel. Le moteur de recherche de Google est sans doute meilleur dans la catégorie "réponse à tout" sans les problèmes liés aux hallucinations.

 

11 hours ago, fm06 said:

C'est pourtant un réflexe ancien.  Depuis les débuts de l'informatique on compare l'ordinateur à un cerveau.  Les réseaux de neurones font explicitement référence à la structure du système nerveux.  La détection d'objets et la reconnaissance de formes dans des images sont appelées "vision par ordinateur". 

 

Pour des fonctions non cognitives on n'a pas ce réflexe.  Il ne vient à l'idée de personne de qualifier un marteau de "poing artificiel" ou une scie de "dents artificielles".  C'est peut-être parce que la technologie informatique est très jeune?  Les performances du marteau ou de la scie sont infiniment meilleuress que celles du poing ou des dents.

 

Il en va de même des fonctions cognitives "mécanistes" de l'informatique, comme le calcul arithmétique (personne ne compare une calculette ou un tableur à un "cerveau").  Par contre les fonctions cognitives avancées comme tout ce qui a trait au langage restent à part.  L'irruption des LLM dans la vie quotidienne va peut-être faire évoluer et démystifier l'IA.  Le jour où on cessera de comparer un bot à un humain nous aurons gagné en maturité.

Tu connais le canard de Vaucanson ?

D'ailleurs, pour prendre le problème par un autre bout, le progrès dans le domaine des prothèses commence à brouiller la distinction entre des membres/organes artificiels et naturels. Par exemple, comme beaucoup de gens, une de mes dents s'est un jour cassée et on l'a remplacée par une prothèse permanente. Au quotidien je ne fais aucune distinction entre cette prothèse et mes vraies dents.

  • Yea 1
Link to comment
12 hours ago, Lancelot said:

Tu connais le canard de Vaucanson ?

Je ne connaissais pas. Fascinant, merci!  Je trouve dans le texte de wikipedia quelques passages qui pourraient s'appliquer à ChatGPT & Cie.

 

La confusion entretenue entre le modèle et la réalité:

Quote

Vaucanson décrit son Canard dans un prospectus de 1738, au ton apparemment scientifique, destiné à marquer une différence avec les supercheries de foire alors nombreuses, mais qui brouille la frontière entre l'animal artificiel et l'animal naturel

 

Le dénigrement:

Quote

Le concert de louanges n'est toutefois pas unanime : selon l'auteur anonyme d'un article publié le 2 décembre 1755 dans la Gazette de Hollande, la « prétendue digestion » de l'automate est une « pure illusion » et cette machine « n'est qu'un moulin à café avec des ressorts intérieurs ».

 

La tentation démiurgique (ou anti-religieuse):

Quote

« Si Vaucanson a su construire un canard artificiel qui avançait son bec pour saisir la nourriture qu'on lui présentait, l'Auteur de Vaucanson n'aurait-Il pu construire un automate qui imitât les actions de l'Homme ? »

[...]

 ce mécanicien, que les philosophes du dix-huitième siècle comparaient a Dieu, dans le dessein d'humilier le créateur, [qui] avait inventé un canard qui barbotait, mangeait et digérait parfaitement; il aurait pu tout aussi bien le faire chanter ».

 

La fascination pour ce dont on ne comprend pas le fonctionnement:

Quote

Quant au processus de la digestion, personne ne parvient à l'expliquer.

 

  • Yea 1
Link to comment
Il y a 19 heures, Lancelot a dit :

Dans ce cas je pense que tu leur en demande trop, du moins en l'état actuel. Le moteur de recherche de Google est sans doute meilleur dans la catégorie "réponse à tout" sans les problèmes liés aux hallucinations.

 

Bof. Utiliser Google c'est ce farcir les innombrables liens sponsorisés qui ont rarement l'info recherchée. L'IA te donne pile-poil ce que tu cherches, à condition bien sûr de maîtriser l'art du prompt 🙂 

Link to comment
il y a 37 minutes, Calembredaine a dit :

l'art du prompt

 

Tiens, tu aurais quelques bons conseils de base rapides? Ou un bon article sur le sujet?

  • Yea 1
Link to comment
5 hours ago, Calembredaine said:

 

Bof. Utiliser Google c'est ce farcir les innombrables liens sponsorisés qui ont rarement l'info recherchée. L'IA te donne pile-poil ce que tu cherches, à condition bien sûr de maîtriser l'art du prompt 🙂 

Toi, tu donnes de mauvaises idées.

Link to comment

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
×
×
  • Create New...