Aller au contenu

ChatGPT et les LLMs de OpenAI


Messages recommandés

  • 2 weeks later...
Posté

Un IUT annule une épreuve car trop d'utilisation de GPT:

 

« Au moment de noter les devoirs de marketing, les enseignants chargés de la correction se sont aperçus que les étudiants avaient fait un usage abusif de ChatGPT : leurs copies ne comprenaient pas la moindre faute d’orthographe, ou alors étaient composées de phrases recherchées »,

 

https://www.20minutes.fr/high-tech/4043030-20230626-nancy-professeure-refuse-corriger-copies-raison-recours-excessif-chatgpt?xtor=RSS-176

  • Haha 2
Posté
Il y a 17 heures, Marlenus a dit :

les étudiants avaient fait un usage abusif de ChatGPT : leurs copies ne comprenaient pas la moindre faute d’orthographe

CPEF

  • 1 month later...
Posté

Un peu de fun pour changer de l'attitude pessimiste sur le sujet: ( y avait pas vraiment de topic plus adapté)

 

  • 3 weeks later...
Posté

J'utilise GPT-4 au quotidien et je constate que son efficacité se dégrade. Il perd le contexte de plus en plus rapidement.

J'espère que c'est provisoire...

  • Yea 3
  • 2 months later...
Posté

Voire en tant qu'assistant (GPT-4 ou un autre LLM) de recherche pour développer des armes NRBC dans des pays qui n'ont pas beaucoup de moyens scientifiques ou financiers.

Posté

Gros imbroglio chez OpenAI avec Sam Altman qui se faire virer vendredi pour des raisons très vagues, grosse vague de démissions de top execs dans la foulée. Et finalement, ils vont peut-être le reprendre comme CEO et virer le comité de direction à la place.

 

J'imagine que ce sera un cas d'école à étudier sur comment ne pas monter la structure de ta boîte.

  • Yea 2
Posté
il y a 40 minutes, Cthulhu a dit :

Et finalement, ils vont peut-être le reprendre comme CEO et virer le comité de direction à la place.

Ne va pas trop vite, jeannot est sur le coup :

 

 

 

  • Haha 5
Posté

Blague à part, il se dit dans les cercles IA que l'Europe a des réglementations moins contraignantes que les États-Unis pour le moment.

 

 

Posté
Il y a 1 heure, Cthulhu a dit :

Gros imbroglio chez OpenAI avec Sam Altman qui se faire virer vendredi pour des raisons très vagues, grosse vague de démissions de top execs dans la foulée. Et finalement, ils vont peut-être le reprendre comme CEO et virer le comité de direction à la place.

 

J'imagine que ce sera un cas d'école à étudier sur comment ne pas monter la structure de ta boîte.

 

Je vous la fait courte sur ce qui traine su rtwitter chez les gens relativement proche de OAI (au sens ou certains sont effectivement chez eux et beaucoup dans les cercles ratioanlistes/EA/e/acc) : La théorie c'est que c'est une tentative de putsch par les décels/safetyists de OpenAI alors que Altman serait un e/acc dissimulé (en gros un disciple de l'AGI). La meuf qui a annoncé son licenciement est Ilya, une des membres du board dont le CV sent à plein nez le fed et potentiellement le spook sinophile (lisez un coup les twitter papers sur le degré d'entrisme des feds/spooks sur Twitter, c'est pas du tout de la conspiration).

 

Sam dégagé sans annonce à Satya/Ballmer, sans prévenr quiconque, le n2 de OAI s'est tiré également, puis trois execs, et au final il semble qu'il y ait eu une sorte de mutinerie interne contre le board et pour Sam. Sam, en position de force et qui aurait a priori le soutien de Microsoft, pourrait revenir si des changements significatifs sont apportés dans la gouvernance de OAI (lisez un coup l'organigramme, pour rire), comprendre "le board se fait scalper et crucifier en place publique". 

 

Voilà, c'est des rumeurs et des on-dit de twitter, mais dans le morceau qui est relativement proche de cette sphère, globalement je mettrais un indice de fiabilité de 5/10 sur les infos, ce qui est pas si mal tout bien compté. 

  • Yea 3
Posté
il y a 2 minutes, cedric.org a dit :

Il y a un décodeur pour tous ces termes ?

punaise merci, j'ai rien compris.

  • Yea 3
Posté
37 minutes ago, NoName said:

La meuf qui a annoncé son licenciement est Ilya, une des membres du board dont le CV sent à plein nez le fed et potentiellement le spook sinophile

 

Tu ne confondrais pas Ilya Sutskever avec Mura Murati ?

 

25 minutes ago, RaHaN said:

punaise merci, j'ai rien compris.

 

Ce que j’ai compris grosso modo :

  • OpenAI était à la base à but non-lucratif ; une des craintes des fondateurs étant que sous la pression commerciale, le dévelopement et le déploiement se fasse sans mesures de sécurité suffisantes. En découle l’existence à l’intérieur d’OpenAI d’un board ayant en gros pouvoir de veto sur la R&D
  • Ce board est resté à peu près inchangé lors de la transition en entreprise à but commercial
  • Ce board vient d’exercer ce pouvoir, le bruit de couloir étant que ceux qui aimeraient plus de mesures de sécurité (Ilya en tête) n’apprécient pas le gros coup d’accélérateur que Altman veut/voulait mettre sur le développement de GPT-5

 

 

Posté
il y a 31 minutes, cedric.org a dit :

Il y a un décodeur pour tous ces termes ?

Je tente OAI <=> Open AI, EA <=> Effective altruisme (très en vogue chez les techs bros), AGI <=> Artificial General Intelligence (IA qui fait tout a minima aussi bien qu'un humain expert dans un domaine, donc une IA qui est mathématicienne/physicienne/médecin etc.).

  • Yea 1
Posté
31 minutes ago, cedric.org said:

Il y a un décodeur pour tous ces termes ?

C'est une bataille d'infirmes.

Posté
il y a 43 minutes, NoName a dit :

Voilà, c'est des rumeurs et des on-dit de twitter, mais dans le morceau qui est relativement proche de cette sphère, globalement je mettrais un indice de fiabilité de 5/10 sur les infos, ce qui est pas si mal tout bien compté. 

 

De mon impression au doigt mouillé, c'est probablement plus ou moins ce qui s'est passé.

 

J'ai vu 2-3 personnes penser que c'est un #metoo préventif, mais il y a 0 indice pour cette hypothèse.

 

Le seul bémol que je mettrais est qu'une grosse partie de la communauté EA est du côté AI safety. Au point que certains e/acc se félicitent ouvertement de la pub bien dégueulasse que se prend l'EA avec le procès de SBF.

 

(oui bon, je n'aide pas avec les acronymes, mais c'est la même chose sur les fils éco / finance et ça ne choque personne)

Posté
il y a une heure, Cthulhu a dit :

 

De mon impression au doigt mouillé, c'est probablement plus ou moins ce qui s'est passé.

 

J'ai vu 2-3 personnes penser que c'est un #metoo préventif, mais il y a 0 indice pour cette hypothèse.

 

Le seul bémol que je mettrais est qu'une grosse partie de la communauté EA est du côté AI safety. Au point que certains e/acc se félicitent ouvertement de la pub bien dégueulasse que se prend l'EA avec le procès de SBF.

 

(oui bon, je n'aide pas avec les acronymes, mais c'est la même chose sur les fils éco / finance et ça ne choque personne)

 

Ha oui totalement, depuis quelques mois c'est la guerre entre les EA nouvelle génération, très orientés vers le AI safetyism notamment avec Yudkowsky, SSC, Bolstrom et peut être bien Hanson (au motif qu'on ne peut pas prendre le risque de l'extermination par une rogue AI et donc le expected return est infiniment négatif) et  et de l'autre côté les e/acc qui voient ça comme des luddites et des corporates qui sont en train de nous interdire de créer dieu (en gros) et vont faire la même catastrophe avec l'IA que ce qu'on a eu avec l'énergie nucléaire. Par dessus, faut ajouter également une impression générale que la team safetyists c'est des progs, gauche techbros corporate plutôt pro regulation etc... alors que la e/acc est plutot orienté techright avec un fond plutôt libertarien. C'est pas totalement vrai mais ça recoupe quand même pas mal.

 

 

Toute l'arnaque est qu'officiellement OpenAI (OAI pour ceux qui suivent) est du côté safetyists alors que dans les faits ils sont les plus gros accélérateurs et du coup on soupçonne qu'Altman serait trop accélérationiste. D'où la possibilité d'un putsch par le board qui semble lui clairement safetyist/

  • Yea 1
Posté
il y a une heure, Cthulhu a dit :

(oui bon, je n'aide pas avec les acronymes, mais c'est la même chose sur les fils éco / finance et ça ne choque personne)

 

C'est à dire qu'on a vraiment atteint le stade où la philosophie politique devient un truc de nerds. Je sais pas si c'est un bien ou un mal.

 

Après, sans jargonner et sans faire d'idéologie, c'était assez évident qu'il y allait y avoir une lutte de pouvoirs :

  • vous avez un organisme à but non lucratif où la frontière avec le lucratif se fait de plus en plus ténue, avec une gouvernance baroque ;
  • Microsoft semble avoir réussi à décrocher le gros lot ;
  • Ca ne serait pas étonnant que les autres grands barons de la Silicon Valley cherchent un angle d'attaque pour neutraliser MS. Musk ne s'en cachait même pas il y a un an.

 

 

Posté
9 hours ago, NoName said:

Hanson (au motif qu'on ne peut pas prendre le risque de l'extermination par une rogue AI et donc le expected return est infiniment négatif)

 

Non pas du tout. Hanson est dans le camp ultra-ultra-minoritaire "si l’IA remplace entièrement l’humanité, c'est totalement OK".

Posté
Il y a 3 heures, Sloonz a dit :

 

Non pas du tout. Hanson est dans le camp ultra-ultra-minoritaire "si l’IA remplace entièrement l’humanité, c'est totalement OK".

 

My bad, j'étais plus sûr de sa position. Je sais que Hanson est lié à LessWrong et que les safetyists sont plus ou moins en contrôle de LW mais honnêtement on en arrive sur des niveaux de lore qui me dépassent.

 

Le nouveau CEO de OAI est Shear, un safetyist déclaré, et manifestement un fan de Yudkowsky, tellement en fait qu'il y a un easter egg de lui dans Harry Potter and the Methods of Rationality.

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...