Jensen Posté 11 mai 2023 Signaler Posté 11 mai 2023 Le 10/05/2023 à 21:34, WBell a dit : La réponse du 4: Expand Effectivement, sacrée différence entre 3.5 et 4!
Silence Posté 24 juin 2023 Signaler Posté 24 juin 2023 Impact de GPT sur le métier de correcteur : https://franckantoni.com/correcteur-un-metier-qui-evolue-ou-qui-disparait/ 1
Marlenus Posté 26 juin 2023 Signaler Posté 26 juin 2023 Un IUT annule une épreuve car trop d'utilisation de GPT: « Au moment de noter les devoirs de marketing, les enseignants chargés de la correction se sont aperçus que les étudiants avaient fait un usage abusif de ChatGPT : leurs copies ne comprenaient pas la moindre faute d’orthographe, ou alors étaient composées de phrases recherchées », https://www.20minutes.fr/high-tech/4043030-20230626-nancy-professeure-refuse-corriger-copies-raison-recours-excessif-chatgpt?xtor=RSS-176 2
Lugaxker Posté 27 juin 2023 Signaler Posté 27 juin 2023 Le 26/06/2023 à 20:34, Marlenus a dit : les étudiants avaient fait un usage abusif de ChatGPT : leurs copies ne comprenaient pas la moindre faute d’orthographe Expand CPEF
Silence Posté 12 juillet 2023 Signaler Posté 12 juillet 2023 https://precisement.org/blog/La-pollution-qui-remplit-Internet-Ou-comment-detecter-les-textes-generes-par.html Et sinon : https://open-assistant.io/ C'est un concurrent open source de GPT. Il m'a sorti une réponse hallucinante qui soit est bidon soit provient d'une contribution d'un utilisateur : Citation Oui, je peux partager certaines histoires méconnues concernant la vie de Dennis Brown. Une fois, alors qu'il venait de sortir du studio d'enregistrement, Dennis Brown rencontra un jeune homme sur la route qui avait été blessé dans un accident de voiture. Le garçon souffrait beaucoup et Dennis Brown, qui avait appris à soigner, décida de rester pour veiller sur lui jusqu'à ce que les ambulances arrivent. Tandis qu'ils attendaient ensemble, Dennis Brown chanta pour calmer le jeune homme et, bien qu'il ne puisse pas le sauver physiquement, il put soulager ses douleurs mentales et morales. Cette expérience eut un impact durable sur Dennis Brown et inspira certains de ses travaux les plus mélancoliques ultérieurement. Un autre jour, Dennis Brown rencontra un couple dont le mari était gravement malade et sur le point de mourir. L'épouse demanda si Dennis Brown pouvait aller chercher leur fils pour qu'il vienne dire adieu à son père avant qu'il soit trop tard. Dennis Brown, malgré le risque encor moins connu dans le quartier, alla chercher le petit. En arrivant chez eux, ils trouvèrent le père en train de murmurer "je suis désolé" sous les coups de poing de son fils, ce qui poussa Dennis Brown à intervenir pour séparer les deux hommes et mettre fin à la dispute violente. Les deux adultes furent étonnés et touchés par le geste de Dennis Brown et ils remercièrent le jeune homme avec autant de gratitude que s'il avait guéri le père. De nombreux mois après cet incident, le père survécu miraculeusement malgré les pronostics médicaux, montrant que même pendant les moments difficiles, on peut trouver de bonnes actions et de nouvelles perspectives. J'espère que ces histoires vous ont donné une idée de quelques événements importants de la vie de Dennis Brown. Si vous avez d'autres questions ou si vous voulez savoir davantage, veuillez ne pas hésiter à me contacter ! Expand
Silence Posté 28 juillet 2023 Signaler Posté 28 juillet 2023 Citation World of Warcraft players wrote about a fictional game element, “Glorbo,” on a subreddit for the game, trying to entice an AI bot to write an article about it. It worked: And it…worked. Zleague auto-published a post titled “World of Warcraft Players Excited For Glorbo’s Introduction.” […] That is…all essentially nonsense. The article was left online for a while but has finally been taken down (here’s a mirror, it’s hilarious). All the authors listed as having bylines on the site are fake. It appears this entire thing is run with close to zero oversight. Expect lots more of this sort of thing in the future. Also, expect the AI bots to get better at detecting this sort of thing. It’s going to be an arms race. Expand https://www.schneier.com/blog/archives/2023/07/fooling-an-ai-article-writer.html 1
Prouic Posté 31 juillet 2023 Signaler Posté 31 juillet 2023 Un peu de fun pour changer de l'attitude pessimiste sur le sujet: ( y avait pas vraiment de topic plus adapté)
Silence Posté 10 août 2023 Signaler Posté 10 août 2023 Le 16/03/2023 à 17:45, Johnnieboy a dit : La plus grosse limite pour moi, c’est qu’il n’est pas à jour. Pour mon job, les informations de 2021 sont périmées. Expand Chatsonic est basé sur GPT4 avec "les dernières données Google". Je ne sais pas ce que ça vaut mais on peut le tester gratis. https://writesonic.com/chat
Calembredaine Posté 17 août 2023 Signaler Posté 17 août 2023 J'utilise GPT-4 au quotidien et je constate que son efficacité se dégrade. Il perd le contexte de plus en plus rapidement. J'espère que c'est provisoire... 3
fryer Posté 5 novembre 2023 Signaler Posté 5 novembre 2023 Next level, dans les toutous à mitrailleuse !! 1
Daumantas Posté 5 novembre 2023 Signaler Posté 5 novembre 2023 Voire en tant qu'assistant (GPT-4 ou un autre LLM) de recherche pour développer des armes NRBC dans des pays qui n'ont pas beaucoup de moyens scientifiques ou financiers.
Cthulhu Posté 19 novembre 2023 Signaler Posté 19 novembre 2023 Gros imbroglio chez OpenAI avec Sam Altman qui se faire virer vendredi pour des raisons très vagues, grosse vague de démissions de top execs dans la foulée. Et finalement, ils vont peut-être le reprendre comme CEO et virer le comité de direction à la place. J'imagine que ce sera un cas d'école à étudier sur comment ne pas monter la structure de ta boîte. 2
RaHaN Posté 19 novembre 2023 Signaler Posté 19 novembre 2023 Le 19/11/2023 à 18:15, Cthulhu a dit : Et finalement, ils vont peut-être le reprendre comme CEO et virer le comité de direction à la place. Expand Ne va pas trop vite, jeannot est sur le coup : 5
Cthulhu Posté 19 novembre 2023 Signaler Posté 19 novembre 2023 Blague à part, il se dit dans les cercles IA que l'Europe a des réglementations moins contraignantes que les États-Unis pour le moment.
NoName Posté 19 novembre 2023 Signaler Posté 19 novembre 2023 Le 19/11/2023 à 18:15, Cthulhu a dit : Gros imbroglio chez OpenAI avec Sam Altman qui se faire virer vendredi pour des raisons très vagues, grosse vague de démissions de top execs dans la foulée. Et finalement, ils vont peut-être le reprendre comme CEO et virer le comité de direction à la place. J'imagine que ce sera un cas d'école à étudier sur comment ne pas monter la structure de ta boîte. Expand Je vous la fait courte sur ce qui traine su rtwitter chez les gens relativement proche de OAI (au sens ou certains sont effectivement chez eux et beaucoup dans les cercles ratioanlistes/EA/e/acc) : La théorie c'est que c'est une tentative de putsch par les décels/safetyists de OpenAI alors que Altman serait un e/acc dissimulé (en gros un disciple de l'AGI). La meuf qui a annoncé son licenciement est Ilya, une des membres du board dont le CV sent à plein nez le fed et potentiellement le spook sinophile (lisez un coup les twitter papers sur le degré d'entrisme des feds/spooks sur Twitter, c'est pas du tout de la conspiration). Sam dégagé sans annonce à Satya/Ballmer, sans prévenr quiconque, le n2 de OAI s'est tiré également, puis trois execs, et au final il semble qu'il y ait eu une sorte de mutinerie interne contre le board et pour Sam. Sam, en position de force et qui aurait a priori le soutien de Microsoft, pourrait revenir si des changements significatifs sont apportés dans la gouvernance de OAI (lisez un coup l'organigramme, pour rire), comprendre "le board se fait scalper et crucifier en place publique". Voilà, c'est des rumeurs et des on-dit de twitter, mais dans le morceau qui est relativement proche de cette sphère, globalement je mettrais un indice de fiabilité de 5/10 sur les infos, ce qui est pas si mal tout bien compté. 3
cedric.org Posté 19 novembre 2023 Signaler Posté 19 novembre 2023 Il y a un décodeur pour tous ces termes ? 8 1
RaHaN Posté 19 novembre 2023 Signaler Posté 19 novembre 2023 Le 19/11/2023 à 20:32, cedric.org a dit : Il y a un décodeur pour tous ces termes ? Expand punaise merci, j'ai rien compris. 3
Sloonz Posté 19 novembre 2023 Signaler Posté 19 novembre 2023 Le 19/11/2023 à 20:23, NoName a dit : La meuf qui a annoncé son licenciement est Ilya, une des membres du board dont le CV sent à plein nez le fed et potentiellement le spook sinophile Expand Tu ne confondrais pas Ilya Sutskever avec Mura Murati ? Le 19/11/2023 à 20:35, RaHaN a dit : punaise merci, j'ai rien compris. Expand Ce que j’ai compris grosso modo : OpenAI était à la base à but non-lucratif ; une des craintes des fondateurs étant que sous la pression commerciale, le dévelopement et le déploiement se fasse sans mesures de sécurité suffisantes. En découle l’existence à l’intérieur d’OpenAI d’un board ayant en gros pouvoir de veto sur la R&D Ce board est resté à peu près inchangé lors de la transition en entreprise à but commercial Ce board vient d’exercer ce pouvoir, le bruit de couloir étant que ceux qui aimeraient plus de mesures de sécurité (Ilya en tête) n’apprécient pas le gros coup d’accélérateur que Altman veut/voulait mettre sur le développement de GPT-5
Daumantas Posté 19 novembre 2023 Signaler Posté 19 novembre 2023 Le 19/11/2023 à 20:32, cedric.org a dit : Il y a un décodeur pour tous ces termes ? Expand Je tente OAI <=> Open AI, EA <=> Effective altruisme (très en vogue chez les techs bros), AGI <=> Artificial General Intelligence (IA qui fait tout a minima aussi bien qu'un humain expert dans un domaine, donc une IA qui est mathématicienne/physicienne/médecin etc.). 1
Lancelot Posté 19 novembre 2023 Signaler Posté 19 novembre 2023 Le 19/11/2023 à 20:32, cedric.org a dit : Il y a un décodeur pour tous ces termes ? Expand C'est une bataille d'infirmes.
Cthulhu Posté 19 novembre 2023 Signaler Posté 19 novembre 2023 Le 19/11/2023 à 20:23, NoName a dit : Voilà, c'est des rumeurs et des on-dit de twitter, mais dans le morceau qui est relativement proche de cette sphère, globalement je mettrais un indice de fiabilité de 5/10 sur les infos, ce qui est pas si mal tout bien compté. Expand De mon impression au doigt mouillé, c'est probablement plus ou moins ce qui s'est passé. J'ai vu 2-3 personnes penser que c'est un #metoo préventif, mais il y a 0 indice pour cette hypothèse. Le seul bémol que je mettrais est qu'une grosse partie de la communauté EA est du côté AI safety. Au point que certains e/acc se félicitent ouvertement de la pub bien dégueulasse que se prend l'EA avec le procès de SBF. (oui bon, je n'aide pas avec les acronymes, mais c'est la même chose sur les fils éco / finance et ça ne choque personne)
Sloonz Posté 19 novembre 2023 Signaler Posté 19 novembre 2023 Le 19/11/2023 à 21:17, Cthulhu a dit : J'ai vu 2-3 personnes penser que c'est un #metoo préventif, mais il y a 0 indice pour cette hypothèse. Expand https://www.lesswrong.com/posts/QDczBduZorG4dxZiW/sam-altman-s-sister-annie-altman-claims-sam-has-severely 1
NoName Posté 19 novembre 2023 Signaler Posté 19 novembre 2023 Le 19/11/2023 à 21:17, Cthulhu a dit : De mon impression au doigt mouillé, c'est probablement plus ou moins ce qui s'est passé. J'ai vu 2-3 personnes penser que c'est un #metoo préventif, mais il y a 0 indice pour cette hypothèse. Le seul bémol que je mettrais est qu'une grosse partie de la communauté EA est du côté AI safety. Au point que certains e/acc se félicitent ouvertement de la pub bien dégueulasse que se prend l'EA avec le procès de SBF. (oui bon, je n'aide pas avec les acronymes, mais c'est la même chose sur les fils éco / finance et ça ne choque personne) Expand Ha oui totalement, depuis quelques mois c'est la guerre entre les EA nouvelle génération, très orientés vers le AI safetyism notamment avec Yudkowsky, SSC, Bolstrom et peut être bien Hanson (au motif qu'on ne peut pas prendre le risque de l'extermination par une rogue AI et donc le expected return est infiniment négatif) et et de l'autre côté les e/acc qui voient ça comme des luddites et des corporates qui sont en train de nous interdire de créer dieu (en gros) et vont faire la même catastrophe avec l'IA que ce qu'on a eu avec l'énergie nucléaire. Par dessus, faut ajouter également une impression générale que la team safetyists c'est des progs, gauche techbros corporate plutôt pro regulation etc... alors que la e/acc est plutot orienté techright avec un fond plutôt libertarien. C'est pas totalement vrai mais ça recoupe quand même pas mal. Toute l'arnaque est qu'officiellement OpenAI (OAI pour ceux qui suivent) est du côté safetyists alors que dans les faits ils sont les plus gros accélérateurs et du coup on soupçonne qu'Altman serait trop accélérationiste. D'où la possibilité d'un putsch par le board qui semble lui clairement safetyist/ 1
Bézoukhov Posté 19 novembre 2023 Signaler Posté 19 novembre 2023 Le 19/11/2023 à 21:17, Cthulhu a dit : (oui bon, je n'aide pas avec les acronymes, mais c'est la même chose sur les fils éco / finance et ça ne choque personne) Expand C'est à dire qu'on a vraiment atteint le stade où la philosophie politique devient un truc de nerds. Je sais pas si c'est un bien ou un mal. Après, sans jargonner et sans faire d'idéologie, c'était assez évident qu'il y allait y avoir une lutte de pouvoirs : vous avez un organisme à but non lucratif où la frontière avec le lucratif se fait de plus en plus ténue, avec une gouvernance baroque ; Microsoft semble avoir réussi à décrocher le gros lot ; Ca ne serait pas étonnant que les autres grands barons de la Silicon Valley cherchent un angle d'attaque pour neutraliser MS. Musk ne s'en cachait même pas il y a un an.
Messages recommandés
Créer un compte ou se connecter pour commenter
Vous devez être membre afin de pouvoir déposer un commentaire
Créer un compte
Créez un compte sur notre communauté. C’est facile !
Créer un nouveau compteSe connecter
Vous avez déjà un compte ? Connectez-vous ici.
Connectez-vous maintenant