Aller au contenu

GPT-4


Messages recommandés

https://precisement.org/blog/La-pollution-qui-remplit-Internet-Ou-comment-detecter-les-textes-generes-par.html

 

Et sinon :

 

https://open-assistant.io/

 

C'est un concurrent open source de GPT. Il m'a sorti une réponse hallucinante qui soit est bidon soit provient d'une contribution d'un utilisateur :

 

Citation

Oui, je peux partager certaines histoires méconnues concernant la vie de Dennis Brown.

Une fois, alors qu'il venait de sortir du studio d'enregistrement, Dennis Brown rencontra un jeune homme sur la route qui avait été blessé dans un accident de voiture. Le garçon souffrait beaucoup et Dennis Brown, qui avait appris à soigner, décida de rester pour veiller sur lui jusqu'à ce que les ambulances arrivent. Tandis qu'ils attendaient ensemble, Dennis Brown chanta pour calmer le jeune homme et, bien qu'il ne puisse pas le sauver physiquement, il put soulager ses douleurs mentales et morales. Cette expérience eut un impact durable sur Dennis Brown et inspira certains de ses travaux les plus mélancoliques ultérieurement.

 

Un autre jour, Dennis Brown rencontra un couple dont le mari était gravement malade et sur le point de mourir. L'épouse demanda si Dennis Brown pouvait aller chercher leur fils pour qu'il vienne dire adieu à son père avant qu'il soit trop tard. Dennis Brown, malgré le risque encor moins connu dans le quartier, alla chercher le petit. En arrivant chez eux, ils trouvèrent le père en train de murmurer "je suis désolé" sous les coups de poing de son fils, ce qui poussa Dennis Brown à intervenir pour séparer les deux hommes et mettre fin à la dispute violente. Les deux adultes furent étonnés et touchés par le geste de Dennis Brown et ils remercièrent le jeune homme avec autant de gratitude que s'il avait guéri le père. De nombreux mois après cet incident, le père survécu miraculeusement malgré les pronostics médicaux, montrant que même pendant les moments difficiles, on peut trouver de bonnes actions et de nouvelles perspectives.

 

J'espère que ces histoires vous ont donné une idée de quelques événements importants de la vie de Dennis Brown. Si vous avez d'autres questions ou si vous voulez savoir davantage, veuillez ne pas hésiter à me contacter !

 

Lien vers le commentaire
  • 3 weeks later...
Citation

World of Warcraft players wrote about a fictional game element, “Glorbo,” on a subreddit for the game, trying to entice an AI bot to write an article about it. It worked:

And it…worked. Zleague auto-published a post titled “World of Warcraft Players Excited For Glorbo’s Introduction.”

[…]

That is…all essentially nonsense. The article was left online for a while but has finally been taken down (here’s a mirror, it’s hilarious). All the authors listed as having bylines on the site are fake. It appears this entire thing is run with close to zero oversight.

Expect lots more of this sort of thing in the future. Also, expect the AI bots to get better at detecting this sort of thing. It’s going to be an arms race.

https://www.schneier.com/blog/archives/2023/07/fooling-an-ai-article-writer.html

  • Yea 1
Lien vers le commentaire
  • 2 weeks later...
  • 2 months later...

Gros imbroglio chez OpenAI avec Sam Altman qui se faire virer vendredi pour des raisons très vagues, grosse vague de démissions de top execs dans la foulée. Et finalement, ils vont peut-être le reprendre comme CEO et virer le comité de direction à la place.

 

J'imagine que ce sera un cas d'école à étudier sur comment ne pas monter la structure de ta boîte.

  • Yea 2
Lien vers le commentaire
Il y a 1 heure, Cthulhu a dit :

Gros imbroglio chez OpenAI avec Sam Altman qui se faire virer vendredi pour des raisons très vagues, grosse vague de démissions de top execs dans la foulée. Et finalement, ils vont peut-être le reprendre comme CEO et virer le comité de direction à la place.

 

J'imagine que ce sera un cas d'école à étudier sur comment ne pas monter la structure de ta boîte.

 

Je vous la fait courte sur ce qui traine su rtwitter chez les gens relativement proche de OAI (au sens ou certains sont effectivement chez eux et beaucoup dans les cercles ratioanlistes/EA/e/acc) : La théorie c'est que c'est une tentative de putsch par les décels/safetyists de OpenAI alors que Altman serait un e/acc dissimulé (en gros un disciple de l'AGI). La meuf qui a annoncé son licenciement est Ilya, une des membres du board dont le CV sent à plein nez le fed et potentiellement le spook sinophile (lisez un coup les twitter papers sur le degré d'entrisme des feds/spooks sur Twitter, c'est pas du tout de la conspiration).

 

Sam dégagé sans annonce à Satya/Ballmer, sans prévenr quiconque, le n2 de OAI s'est tiré également, puis trois execs, et au final il semble qu'il y ait eu une sorte de mutinerie interne contre le board et pour Sam. Sam, en position de force et qui aurait a priori le soutien de Microsoft, pourrait revenir si des changements significatifs sont apportés dans la gouvernance de OAI (lisez un coup l'organigramme, pour rire), comprendre "le board se fait scalper et crucifier en place publique". 

 

Voilà, c'est des rumeurs et des on-dit de twitter, mais dans le morceau qui est relativement proche de cette sphère, globalement je mettrais un indice de fiabilité de 5/10 sur les infos, ce qui est pas si mal tout bien compté. 

  • Yea 3
Lien vers le commentaire
37 minutes ago, NoName said:

La meuf qui a annoncé son licenciement est Ilya, une des membres du board dont le CV sent à plein nez le fed et potentiellement le spook sinophile

 

Tu ne confondrais pas Ilya Sutskever avec Mura Murati ?

 

25 minutes ago, RaHaN said:

punaise merci, j'ai rien compris.

 

Ce que j’ai compris grosso modo :

  • OpenAI était à la base à but non-lucratif ; une des craintes des fondateurs étant que sous la pression commerciale, le dévelopement et le déploiement se fasse sans mesures de sécurité suffisantes. En découle l’existence à l’intérieur d’OpenAI d’un board ayant en gros pouvoir de veto sur la R&D
  • Ce board est resté à peu près inchangé lors de la transition en entreprise à but commercial
  • Ce board vient d’exercer ce pouvoir, le bruit de couloir étant que ceux qui aimeraient plus de mesures de sécurité (Ilya en tête) n’apprécient pas le gros coup d’accélérateur que Altman veut/voulait mettre sur le développement de GPT-5

 

 

Lien vers le commentaire
il y a 31 minutes, cedric.org a dit :

Il y a un décodeur pour tous ces termes ?

Je tente OAI <=> Open AI, EA <=> Effective altruisme (très en vogue chez les techs bros), AGI <=> Artificial General Intelligence (IA qui fait tout a minima aussi bien qu'un humain expert dans un domaine, donc une IA qui est mathématicienne/physicienne/médecin etc.).

  • Yea 1
Lien vers le commentaire
il y a 43 minutes, NoName a dit :

Voilà, c'est des rumeurs et des on-dit de twitter, mais dans le morceau qui est relativement proche de cette sphère, globalement je mettrais un indice de fiabilité de 5/10 sur les infos, ce qui est pas si mal tout bien compté. 

 

De mon impression au doigt mouillé, c'est probablement plus ou moins ce qui s'est passé.

 

J'ai vu 2-3 personnes penser que c'est un #metoo préventif, mais il y a 0 indice pour cette hypothèse.

 

Le seul bémol que je mettrais est qu'une grosse partie de la communauté EA est du côté AI safety. Au point que certains e/acc se félicitent ouvertement de la pub bien dégueulasse que se prend l'EA avec le procès de SBF.

 

(oui bon, je n'aide pas avec les acronymes, mais c'est la même chose sur les fils éco / finance et ça ne choque personne)

Lien vers le commentaire
il y a une heure, Cthulhu a dit :

 

De mon impression au doigt mouillé, c'est probablement plus ou moins ce qui s'est passé.

 

J'ai vu 2-3 personnes penser que c'est un #metoo préventif, mais il y a 0 indice pour cette hypothèse.

 

Le seul bémol que je mettrais est qu'une grosse partie de la communauté EA est du côté AI safety. Au point que certains e/acc se félicitent ouvertement de la pub bien dégueulasse que se prend l'EA avec le procès de SBF.

 

(oui bon, je n'aide pas avec les acronymes, mais c'est la même chose sur les fils éco / finance et ça ne choque personne)

 

Ha oui totalement, depuis quelques mois c'est la guerre entre les EA nouvelle génération, très orientés vers le AI safetyism notamment avec Yudkowsky, SSC, Bolstrom et peut être bien Hanson (au motif qu'on ne peut pas prendre le risque de l'extermination par une rogue AI et donc le expected return est infiniment négatif) et  et de l'autre côté les e/acc qui voient ça comme des luddites et des corporates qui sont en train de nous interdire de créer dieu (en gros) et vont faire la même catastrophe avec l'IA que ce qu'on a eu avec l'énergie nucléaire. Par dessus, faut ajouter également une impression générale que la team safetyists c'est des progs, gauche techbros corporate plutôt pro regulation etc... alors que la e/acc est plutot orienté techright avec un fond plutôt libertarien. C'est pas totalement vrai mais ça recoupe quand même pas mal.

 

 

Toute l'arnaque est qu'officiellement OpenAI (OAI pour ceux qui suivent) est du côté safetyists alors que dans les faits ils sont les plus gros accélérateurs et du coup on soupçonne qu'Altman serait trop accélérationiste. D'où la possibilité d'un putsch par le board qui semble lui clairement safetyist/

  • Yea 1
Lien vers le commentaire
il y a une heure, Cthulhu a dit :

(oui bon, je n'aide pas avec les acronymes, mais c'est la même chose sur les fils éco / finance et ça ne choque personne)

 

C'est à dire qu'on a vraiment atteint le stade où la philosophie politique devient un truc de nerds. Je sais pas si c'est un bien ou un mal.

 

Après, sans jargonner et sans faire d'idéologie, c'était assez évident qu'il y allait y avoir une lutte de pouvoirs :

  • vous avez un organisme à but non lucratif où la frontière avec le lucratif se fait de plus en plus ténue, avec une gouvernance baroque ;
  • Microsoft semble avoir réussi à décrocher le gros lot ;
  • Ca ne serait pas étonnant que les autres grands barons de la Silicon Valley cherchent un angle d'attaque pour neutraliser MS. Musk ne s'en cachait même pas il y a un an.

 

 

Lien vers le commentaire
9 hours ago, NoName said:

Hanson (au motif qu'on ne peut pas prendre le risque de l'extermination par une rogue AI et donc le expected return est infiniment négatif)

 

Non pas du tout. Hanson est dans le camp ultra-ultra-minoritaire "si l’IA remplace entièrement l’humanité, c'est totalement OK".

Lien vers le commentaire
Il y a 3 heures, Sloonz a dit :

 

Non pas du tout. Hanson est dans le camp ultra-ultra-minoritaire "si l’IA remplace entièrement l’humanité, c'est totalement OK".

 

My bad, j'étais plus sûr de sa position. Je sais que Hanson est lié à LessWrong et que les safetyists sont plus ou moins en contrôle de LW mais honnêtement on en arrive sur des niveaux de lore qui me dépassent.

 

Le nouveau CEO de OAI est Shear, un safetyist déclaré, et manifestement un fan de Yudkowsky, tellement en fait qu'il y a un easter egg de lui dans Harry Potter and the Methods of Rationality.

Lien vers le commentaire
Il y a 16 heures, NoName a dit :

 

Je vous la fait courte sur ce qui traine su rtwitter chez les gens relativement proche de OAI (au sens ou certains sont effectivement chez eux et beaucoup dans les cercles ratioanlistes/EA/e/acc) : La théorie c'est que c'est une tentative de putsch par les décels/safetyists de OpenAI alors que Altman serait un e/acc dissimulé (en gros un disciple de l'AGI). La meuf qui a annoncé son licenciement est Ilya, une des membres du board dont le CV sent à plein nez le fed et potentiellement le spook sinophile (lisez un coup les twitter papers sur le degré d'entrisme des feds/spooks sur Twitter, c'est pas du tout de la conspiration).

 

Sam dégagé sans annonce à Satya/Ballmer, sans prévenr quiconque, le n2 de OAI s'est tiré également, puis trois execs, et au final il semble qu'il y ait eu une sorte de mutinerie interne contre le board et pour Sam. Sam, en position de force et qui aurait a priori le soutien de Microsoft, pourrait revenir si des changements significatifs sont apportés dans la gouvernance de OAI (lisez un coup l'organigramme, pour rire), comprendre "le board se fait scalper et crucifier en place publique". 

 

Voilà, c'est des rumeurs et des on-dit de twitter, mais dans le morceau qui est relativement proche de cette sphère, globalement je mettrais un indice de fiabilité de 5/10 sur les infos, ce qui est pas si mal tout bien compté. 

 

Il y a 15 heures, Cthulhu a dit :

 

De mon impression au doigt mouillé, c'est probablement plus ou moins ce qui s'est passé.

 

J'ai vu 2-3 personnes penser que c'est un #metoo préventif, mais il y a 0 indice pour cette hypothèse.

 

Le seul bémol que je mettrais est qu'une grosse partie de la communauté EA est du côté AI safety. Au point que certains e/acc se félicitent ouvertement de la pub bien dégueulasse que se prend l'EA avec le procès de SBF.

 

(oui bon, je n'aide pas avec les acronymes, mais c'est la même chose sur les fils éco / finance et ça ne choque personne)


Ceci n’explique pas le message du board qui est assez unique en son genre.

 

De ce que j’ai lu, Sam cachait le vrai coût opérationnel d’OpenAI afin de pousser la croissance à tout prix avec de nouveaux produits (ce qui n’est pas censé être dans l’esprit de la boîte).

 

Récemment, ç’a craqué et OpenAI ne pouvait plus accepter de nouveaux utilisateurs, ce qui aurait excédé la CTO qui serait allée se plaindre au board en leur révélant que la croissance d'OpenAI sous sa forme actuelle n'était pas tenable.

 

Aucune idée de ce qui est vrai ou faux mais ceci expliquerait en partie le message du board sur le manque de transparence de Sam Altman.

  • Yea 1
Lien vers le commentaire

Créer un compte ou se connecter pour commenter

Vous devez être membre afin de pouvoir déposer un commentaire

Créer un compte

Créez un compte sur notre communauté. C’est facile !

Créer un nouveau compte

Se connecter

Vous avez déjà un compte ? Connectez-vous ici.

Connectez-vous maintenant
×
×
  • Créer...