Jump to content
  • Optionally enter a message with your report.

    ×   Pasted as rich text.   Paste as plain text instead

      Only 75 emoji are allowed.

    ×   Your link has been automatically embedded.   Display as a link instead

    ×   Your previous content has been restored.   Clear editor

    ×   You cannot paste images directly. Upload or insert images from URL.

    Loading...
  • Similar Content

    • By Sekonda
      GPT-2 de OpenAI avait déjà beaucoup fait parlé l'année dernière mais son successeur GPT qui a 100 fois plus de paramètres d'apprentissage est sensiblement plus impressionnant même s'il faut être conscient de ses limites (ce n'est pas la base d'une AI généraliste).
       
      Les GPT-* (Generative Pretrained Transformer) sont des modèles Transformer de texte non-supervisés. "non-supervisés" veux dire qu'ils sont entrainés sur des données peu structurées et avec un minimum d'intervention humaine. Ils sont notamment très bons pour continuer un texte à partir du début ("imaginer" la suite) et pour faire du transfert de style (changer un texte "à la manière de"). 
       
      Voici le meilleur résumé que j'ai trouvé : https://blog.inten.to/gpt-3-language-models-are-few-shot-learners-a13d1ae8b1f9
       
      Quelques exemples:
       
       
       
      Ressources:
      Le papier
      Une intro sur les modèles de langage en général
      WP sur ce type de modèle
      Gwern qui a déjà beaucoup écrit sur le sujet
      Une bonne liste d'exemples chez LessWrong
    • By Rincevent
      Ça se passe dans l'autre sens. Obliger les participants à réagir en 140 ou même 280 caractères, c'est un puissant facteur de neuneuisation. Alors que si on avait eu des voitures volantes...
    • By Adrian
      Ou du moins ils sont matures selon l'article ...
       
      Le nom du journal par contre Psychology of Aesthetics, Creativity, and the Arts
       
       
       
    • By 0100011
      Une étape importante vient d'être franchie par l'IA : un champion de go s'est fait rétamer par un logiciel. J'avoue que je suis surpris de voir comment cela a été rapide (on tablait plutôt pour 10/15 ans avant que ça arrive). Une rencontre est prévue contre celui qui est vu comme le meilleur joueur mondial en mars.
       
        Ce qui est étonnant est que la machine apprend plus ou moins en jouant contre elle-même (d'où le lient avec la singularité). D'ici mars la machine va progresser toute seule...
       
        L'article de Nature est là : http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html
×
×
  • Create New...