Aller au contenu

WBell

Utilisateur
  • Compteur de contenus

    2 455
  • Inscription

  • Dernière visite

  • Jours gagnés

    2

Profile Information

  • Gender
    Male
  • Lieu
    Ile-de-France

Idées

  • Ma référence
    Terry Pratchett

Visiteurs récents du profil

1 966 visualisations du profil
  1. Tu peux utiliser un des Controlnets pour générer un Gadsden flag. Un Canny ou le "qrcode network" devraient aider.
  2. @Jensen J'ai fait l'exercice avec CHAT-GPT 3.5 et 4. Le prompt : La réponse du 3.5 : La réponse du 4: J'aurai pu avoir des repères moins verbeuses en le précisant dans mon prompt, mais j'y ai pensé après.
  3. On a fait tourner sur nos VM un succédané. Pour l'instant, ça marche bien pour faire des posts "buzz" sur Twitter ("fabrique moi un business-plan et un SEO pour ma prochaine startup") :). Pour des choses plus métier et réalistes, ça tombe trop souvent en "blocage". Par contre, d'ici 3 mois, c'est redoutable !
  4. Pour compléter ce qui est dit, il y a des papiers qui sortent en ce moment et qui semblent indiquer quelque chose d'intéressant : quand on est à plus de 13 milliards de tokens dans la base d'apprentissage (c'est grosso modo ce que vous avez dans différentes versions de GPT, Llama, Koala, et les autres), la "pertinence" du modèle ne vient plus de sa taille, mais plutôt s'il a été bien finetuné. Si vous prenez un des modèle actuels, et que vous le finetunez avec des exemples de dialogues entre humains et entre humain et "machine" (au moins 100 000), vous obtenez un modèle qui est bien plus performant qu'un modèle plus gros. Sam Altman, le patron d'OpenAI le dit lui-même : l'avenir ne sera pas au modèles encore plus gros que les modèles actuels (trop cher en compute). Le futur, c'est les modèles finetunés avec de la bonne data, et les systèmes qui enchaînent une série d'instructions successives à dérouler, comme Auto-GPT par exemple.
  5. Et le pire c'est que c'était pas une blague, mon propos. Je me souviens d'articles de presse canadienne qui notait une augmentation des accidents de la route avec les feus tricolores couverts de glace et qui ne fondait plus
  6. Surtout qu'il y a ce qu'on voit et ce qu'on ne voit pas, avec les ampoules à LED. Les ampoules classiques dégagent de la chaleur une fois allumées. Les LED non. Donc cette différence de chaleur va être compensée par des gens qui mettront un peu plus le chauffage. Ça ne représente que quelques watts à chaque fois, mais sur l'échelle de pays, qui se couvre de glace en hiver, ça va finir par se voir.
  7. WBell

    Turquie

    Et hop, un petit taquet derrière la nuque :D.
  8. Ah zut, a chaque fois que je fais un jeu de mots pourris ici, je récolte au moins 2 à 3 smileys. /me va pleurer dans un coin...
  9. Pourtant, les léopards ont s'y (à) tâches !
  10. Ah bé dis, c'est la faute à l'Sissi.
  11. Tu veux savoir si les momes y sont là bas ?
  12. Et de manière très pragmatique, vu le droit d'auteur américain, toute production d'un outil d'IA tombe dans le domaine public, car fruit d'un algorithme, et pas d'un processus humain. Pour l'instant tout le monde presse ça sous le tapis, mais ça lorsque ça va exploser à la figure d'une entreprise qui n'aura pas anticipé, ça va secouer chez les avocats.
  13. En fait il y a quand même des frais de Compute. A chaque inférence, ça coûte quelques centimes. Plus tu as une "discussion" poussée (donc une succession de tokens dans le processus d'inférence), plusça va coûter cher. Même si ta discussion avec Chat-GPT aura coûté 0,40€ (soit pas grand chose) pour 300 mots (au pif), c'est supérieur en termes d'ordre de grandeur à ce que rapporte une requête que tu vas taper dans Google Search en termes de revenus publicitaires à Google.
×
×
  • Créer...